ข้ามไปยังเนื้อหาหลัก

บทนำ

ยินดีต้อนรับสู่ Frontier

ตลอดประวัติศาสตร์ ความเข้าใจทางวิทยาศาสตร์ของเราเกี่ยวกับโลกเติบโตอย่างรวดเร็วเมื่อมีเครื่องมือใหม่ๆ — เครื่องมือที่ช่วยให้เราตั้งคำถามใหม่ ทำการทดลองขนาดใหญ่ขึ้น และสำรวจพื้นที่วิจัยใหม่ๆ เครื่องมือบางอย่างเหล่านั้น ได้แก่ กล้องโทรทรรศน์ กล้องจุลทรรศน์ และ Large Hadron Collider แต่ละอย่างให้การเข้าถึงการค้นพบทางวิทยาศาสตร์ประเภทใหม่ ในทศวรรษที่ 1960 เราได้เห็นการพัฒนาการประมวลผลสมรรถนะสูง (HPC) ซึ่งกลายมาเป็นเครื่องมือสำคัญสำหรับการแก้ปัญหาการประมวลผลที่ซับซ้อน รวมถึงความท้าทายทางวิทยาศาสตร์ที่สำคัญหลายประการ

ตอนนี้เรามีเครื่องมือสำคัญอีกชิ้นหนึ่งสำหรับความก้าวหน้าทางวิทยาศาสตร์: คอมพิวเตอร์ควอนตัม แม้ว่าจะยังเป็นเทคโนโลยีที่กำลังเกิดขึ้น คอมพิวเตอร์ควอนตัมมีศักยภาพที่จะเปลี่ยนแปลงประเภทของปัญหาการประมวลผลที่เราสามารถแก้ไขได้อย่างมีประสิทธิภาพอย่างมีนัยสำคัญ คอร์สนี้เกี่ยวกับการทำความเข้าใจว่าเทคโนโลยีเหล่านี้ ทำงานร่วมกัน จะขยายขอบเขตของสิ่งที่เป็นไปได้ทางการประมวลผลได้อย่างไร

พันธกิจของเราชัดเจนแต่ทะเยอทะยาน: เพื่อให้คุณมีความรู้ทั้งเชิงแนวคิดและเชิงปฏิบัติที่จำเป็นในการใช้เทคโนโลยีเหล่านี้เพื่อแก้ปัญหาที่ยากที่สุดในโลก

วิดีโอนี้อธิบายเป้าหมายของคอร์สนี้และแรงจูงใจเบื้องหลังการรวม HPC และควอนตัมคอมพิวติ้ง

HPC

HPC คืออะไรกันแน่? การประมวลผลสมรรถนะสูงกลายมาเป็นรากฐานสำหรับการแก้ปัญหาการประมวลผลสมัยใหม่ เราไม่ได้อยู่ในยุคที่ปัญหาขั้นสูงสามารถแก้ได้ด้วยเครื่องมือง่ายๆ อย่างลูกคิดหรือปากกาและกระดาษอีกต่อไป แต่เรากำลังทำงานกับคำถามและชุดข้อมูลที่ต้องการพลังการประมวลผลมหาศาล

สาขาการประมวลผลสมรรถนะสูงสามารถสืบย้อนรากเหง้าไปถึงการพัฒนาซูเปอร์คอมพิวเตอร์เครื่องแรกในทศวรรษที่ 1960 เหล่านี้คือเครื่องจักรที่ออกแบบมาโดยเฉพาะเพื่อแก้ปัญหาวิทยาศาสตร์และวิศวกรรมขนาดใหญ่ได้เร็วกว่าคอมพิวเตอร์ทั่วไป

หนึ่งในซูเปอร์คอมพิวเตอร์ที่รู้จักกันดีในยุคแรกคือ CDC 6600 (1964) สร้างโดย Seymour Cray ซึ่งมักเรียกว่าบิดาแห่ง supercomputing CDC 6600 เป็นคอมพิวเตอร์ที่เร็วที่สุดในยุคนั้น โดยใช้สถาปัตยกรรมที่สร้างสรรค์ซึ่งรวมถึงหน่วยฟังก์ชันแบบขนานและ pipelining — แนวคิดที่ยังคงใช้ใน HPC ในปัจจุบัน

Cray ยังคงพัฒนาสาขานี้ต่อด้วย Cray-1 (1976) ซึ่งแนะนำ vector processing — เทคนิคที่เพิ่มความเร็วของการดำเนินการบน array ข้อมูลขนาดใหญ่อย่างมาก ทำให้เหมาะสำหรับ scientific computing

เมื่อความเร็วของ single-processor เริ่มถึงจุดอิ่มตัว HPC ได้พัฒนาไปสู่ parallel computing — การใช้ processor จำนวนมากที่ทำงานร่วมกันในส่วนต่างๆ ของปัญหา ในช่วงทศวรรษที่ 1980 และ 1990 สถาปัตยกรรมแบบขนานกลายเป็นเรื่องปกติใน HPC ในช่วงต้นทศวรรษ 2000 HPC ได้เคลื่อนไปสู่ cluster ของ commodity hardware ซึ่งเป็นเซิร์ฟเวอร์ทั่วไปที่เชื่อมต่อด้วยเครือข่ายความเร็วสูง การเปลี่ยนแปลงนี้ทำให้ supercomputing มีราคาถูกลงและให้การเข้าถึง HPC ได้กว้างขึ้น

ตลอดการพัฒนานี้ IBM® อยู่แนวหน้าของการวิจัยและการนำ HPC ไปใช้ โดยเฉพาะอย่างยิ่ง IBM Blue Gene supercomputer เป็นหนึ่งในตระกูลซูเปอร์คอมพิวเตอร์ที่มีอิทธิพลมากที่สุดในช่วงทศวรรษ 2000 และต้น 2010 นี่คือยุคแห่งการเติบโตอย่างมหาศาลในขั้นตอนของระบบแบบขนานขนาดใหญ่ ซึ่ง Blue Gene/Q เป็นตัวอย่างหนึ่ง โดยมีอินสแตนซ์หนึ่ง (Sequoia) มี 100,000 node IBM-built Oak Ridge Summit เป็นทรัพยากร HPC แรกที่บรรลุ ExaOPS (1.88 mixed precision) ในปี 2018

ทุกวันนี้ เราอยู่ในยุค exascale ซึ่งซูเปอร์คอมพิวเตอร์สามารถดำเนินการ 101810^{18} ต่อวินาที (exaflops) ซูเปอร์คอมพิวเตอร์เครื่องแรกที่สามารถบรรลุหลักไมล์นี้คือ Frontier ซึ่งตั้งอยู่ที่ Oak Ridge National Laboratory

แล้วทำไมเราต้องการทรัพยากรการประมวลผลที่ทรงพลังเช่นนี้? มีปัญหาที่สำคัญต่อความเป็นอยู่ที่ดีของมนุษย์ที่ต้องการทรัพยากรขั้นสุดยอดเพื่อจำลองหรือแก้ไข ตัวอย่างรวมถึงแบบจำลองภูมิอากาศ การศึกษาโครงสร้างและการเคลื่อนตัวของ mantle ของโลก และการจำลอง fluid dynamics

ปัญหาหลายประเภทนี้ได้รับการแก้ไขโดยนักวิจัย IBM และผู้ร่วมงานที่ทำงานบนระบบ IBM ความเป็นผู้นำที่ยั่งยืนนี้ได้รับการยอมรับอย่างกว้างขวาง ตัวอย่างเช่น นักวิจัย IBM ได้รับรางวัล Gordon Bell Prize ถึงหกครั้ง[1]

HPC เป็นสาขาที่ยังคงพัฒนาอยู่อย่างต่อเนื่องกับขอบเขตที่ถูกทำลายอย่างสม่ำเสมอ สำหรับภาพรวมหนึ่งของความสามารถสมัยใหม่ ดูรายการนี้ของ Top 500 supercomputers

ควอนตัมคอมพิวติ้ง

ควอนตัมคอมพิวติ้งคือกระบวนทัศน์การประมวลผลใหม่ที่ไม่ได้เป็นเพียงการพัฒนาแบบค่อยเป็นค่อยไปของคอมพิวเตอร์คลาสสิก มันมุ่งใช้คุณสมบัติควอนตัมของ superposition, entanglement และ quantum interference เพื่อแก้ปัญหาที่คอมพิวเตอร์คลาสสิกเพียงอย่างเดียวไม่สามารถทำได้ เราจะไม่สำรวจรายละเอียดของความเป็นเอกลักษณ์ของควอนตัมคอมพิวติ้งในคอร์สนี้ — ดู Fundamentals of quantum information สำหรับข้อมูลเพิ่มเติมเรื่องนี้ — แต่เราจะอภิปรายว่าการรวมโครงสร้างพื้นฐานทั้งสองนี้อาจนำไปสู่การค้นพบที่สำคัญในวิทยาศาสตร์ประยุกต์ได้อย่างไร

แนวทางแบบไฮบริด

สิ่งที่สำคัญที่สุดที่ต้องเน้นคือกระบวนทัศน์การประมวลผลทั้งสองนี้ไม่ใช่คู่แข่งกัน เราอยู่ในยุคที่เวิร์กโฟลว์ที่ถูก optimize ต้องการให้สองกระบวนทัศน์เสริมซึ่งกันและกันและวางงานในที่ที่จัดการได้มีประสิทธิภาพที่สุด คอมพิวเตอร์ควอนตัมจะไม่แทนที่ระบบคลาสสิก แต่อนาคตของวิทยาศาสตร์การประมวลผลจะขึ้นอยู่กับเวิร์กโฟลว์แบบไฮบริดมากขึ้นเรื่อยๆ ที่ HPC ให้การประมวลผลคลาสสิกสมรรถนะสูง และควอนตัมคอมพิวติ้งมีส่วนในความสามารถเฉพาะตัว ในฐานะผู้ปฏิบัติงาน นักวิจัย หรือนักเทคโนโลยี การเข้าใจวิธีการรวมเครื่องมือเหล่านี้จะทำให้คุณเป็นผู้นำในยุคถัดไปของความก้าวหน้าทางวิทยาศาสตร์และเทคโนโลยี

เราจะตรวจสอบว่าควอนตัมคอมพิวติ้งและ HPC มีตำแหน่งอย่างไรในการเปิดใช้งานการค้นพบที่สำคัญในอุตสาหกรรมต่างๆ รวมถึง:

  • เคมี: เร่งการระบุยาและวัสดุใหม่

  • พลังงาน: ออกแบบตัวเร่งปฏิกิริยา แบตเตอรี่ และโซลูชันพลังงานสะอาดที่ดีขึ้น

  • การเงิน: การจำลองความเสี่ยง การเพิ่มประสิทธิภาพพอร์ตโฟลิโอ และการพัฒนาเครื่องมือทางการเงินใหม่

  • AI และ Machine Learning: ปรับปรุงการฝึกโมเดล การเพิ่มประสิทธิภาพ และการวิเคราะห์ข้อมูล

ทำไมเราต้องก้าวพ้นคลาสสิก

มนุษย์ประสบความสำเร็จอย่างมากในพื้นที่การประยุกต์ใช้ข้างต้นโดยใช้ HPC อย่างไรก็ตาม แม้แต่ซูเปอร์คอมพิวเตอร์ที่เร็วที่สุดในโลกก็เผชิญกับความยากลำบากเมื่อปัญหาขยายขนาดแบบ factorial หรือ exponential กับขนาดปัญหา ตัวอย่างเช่น การแสดงรายการทุกการจัดเรียงที่เป็นไปได้ของอนุภาค 50 ตัวภายในโมเลกุลที่ซับซ้อนนำไปสู่ configuration ที่เติบโตอย่างน้อยแบบ factorial ต้องการหน่วยความจำมากกว่าที่ data center ทั้งหมดบนโลกรวมกันสามารถให้ได้

อีกตัวอย่างหนึ่งคือการวางแผนเส้นทางส่งสินค้าสำหรับ 10,000 เมือง: จำนวนเส้นทางที่เป็นไปได้มีมากจนแม้ว่าคอมพิวเตอร์ทุกเครื่องที่เคยสร้างขึ้นจะทดสอบเส้นทางหนึ่งต่อไมโครวินาที การคำนวณจะใช้เวลานานกว่าอายุปัจจุบันของดวงอาทิตย์ของเราหลายเท่า ผลรวมเหล่านี้ไม่ใช่แค่ตัวเลขที่ใหญ่เท่านั้น แต่ยังเติบโตแบบ exponential ซึ่งหมายความว่าแต่ละอนุภาคหรือเมืองเพิ่มเติมจะเพิ่มภาระการประมวลผลเกินกว่าการขยายแบบง่ายๆ อย่างมาก

เราสามารถเพิ่ม GPU ต่อไปได้ แต่การจัดการกับข้อมูลจำนวนมหาศาลเช่นนี้ก็ต้องใช้พลังงานนับ megawatt และต้องการสถานที่ขนาดโกดัง ณ จุดหนึ่ง ฮาร์ดแวร์คลาสสิกไม่สามารถขยายขนาดต่อไปได้ในแบบที่ใช้ได้จริงหรือจ่ายได้ นี่คือเหตุผลที่นักวิจัยหันมาใช้ quantum processor ซึ่งเก็บข้อมูลใน superposition และบางครั้งสามารถจัดการกับปัญหาการเติบโตแบบ exponential เหล่านี้โดยตรง แก้กรณีเฉพาะที่เครื่องคลาสสิกไม่สามารถทำให้เสร็จได้ในกรอบเวลาที่สมเหตุสมผล

HPC ในที่สุดก็ถึงขีดจำกัดพื้นฐานที่กำหนดโดย combinatorics และ thermodynamics ควอนตัมคอมพิวติ้งไม่ได้ขจัดขีดจำกัดเหล่านั้น แต่บางครั้งสามารถข้ามผ่านได้ในสถานการณ์เฉพาะบางอย่าง

ทำไมไม่ใช้ควอนตัมอย่างเดียว?

ถ้าควอนตัมคอมพิวติ้งสามารถข้ามผ่านข้อจำกัดบางอย่างของการประมวลผลคลาสสิกได้ ทำไมเราไม่พึ่งพาคอมพิวเตอร์ควอนตัมเพียงอย่างเดียว? เหตุผลแรกและชัดเจนที่สุดคือคอมพิวเตอร์ควอนตัมยังคงต้องการเครื่องคลาสสิกในการทำงาน งานต่างๆ เช่น การ compile และป้อน Circuit เข้าไปยัง quantum processor การเก็บผลการวัด และการทำ post-processing พื้นฐาน ล้วนดำเนินการโดยระบบการประมวลผลแบบคลาสสิก

แล้วทำไมเราต้องการการประมวลผลสมรรถนะสูงเพิ่มเติม? มีเหตุผลหลายประการ การประยุกต์ใช้ควอนตัมคอมพิวติ้งในปัจจุบันและที่คาดว่าจะเกิดขึ้นหลายอย่างจัดการปัญหาที่มี search space ขนาดใหญ่มาก อัลกอริทึมควอนตัมมักสามารถลดขนาดของ space นี้ได้อย่างมีนัยสำคัญ แต่ในทางปฏิบัติ ปัญหาที่เหลือยังอาจใหญ่พอที่จะได้ประโยชน์จากทรัพยากร HPC นอกจากนี้ยังมีอัลกอริทึมที่สร้างความสมดุลระหว่างจุดแข็งของ HPC และควอนตัมคอมพิวติ้ง โดยมอบหมายงานเพียงพอให้กับ HPC เพื่อทำให้อัลกอริทึมโดยรวมมีความทนทานต่อผลกระทบจาก quantum noise มากขึ้น

ตัวอย่างที่เป็นรูปธรรมคืออัลกอริทึม sample-based quantum diagonalization (SQD) อัลกอริทึมนี้ซึ่งจะสำรวจในบทเรียนที่ 4 แสดงให้เห็นว่า HPC และควอนตัมคอมพิวติ้งสามารถเสริมซึ่งกันและกันได้อย่างไรในทางปฏิบัติ สำหรับพื้นหลังเพิ่มเติม ดูคอร์ส Quantum Diagonalization Algorithms บน IBM Quantum Learning

คอร์สนี้ออกแบบมาสำหรับผู้เชี่ยวชาญและนักศึกษาที่ทำงาน — หรือวางแผนจะทำงาน — อย่างใกล้ชิดกับโครงสร้างพื้นฐาน HPC และ/หรือควอนตัมคอมพิวติ้ง ด้วยความก้าวหน้าอย่างรวดเร็วของเทคโนโลยีควอนตัม เราคาดว่าในอนาคตอันใกล้ quantum processor จะถูกบูรณาการควบคู่กับทรัพยากร HPC แบบดั้งเดิมเพื่อให้ได้ผลลัพธ์ที่แม่นยำยิ่งขึ้นและเปิดใช้งานแนวทางใหม่ในการแก้ปัญหา คอร์สนี้มีไว้สำหรับผู้เรียนที่ต้องการเข้าใจวิธีการสร้างและรัน hybrid workflow เช่นนี้

เนื่องจากผู้เข้าร่วมอาจมาจากพื้นหลังที่แตกต่างกัน เราคาดว่าจะมีผู้เรียนสองประเภทหลัก: ผู้ที่มีประสบการณ์ใน HPC แล้วแต่ยังใหม่กับควอนตัมคอมพิวติ้ง และผู้ที่มีความรู้ดีด้านควอนตัมคอมพิวติ้งแต่ยังใหม่กับ HPC เพื่อช่วยให้ทุกคนได้ประโยชน์สูงสุดจากคอร์สนี้ เราให้คำแนะนำการเตรียมตัวสำหรับทั้งสองกลุ่มด้านล่าง

สำหรับผู้ที่ยังใหม่กับ HPC

คอร์สนี้สมมติว่าคุณมีความคุ้นเคยกับแนวคิด HPC หลักๆ เช่น distributed memory programming, message passing, parallel programming models และการจัดการทรัพยากร เราจะใช้เครื่องมือต่างๆ เช่น Slurm workload manager ด้วย แม้ว่าแนวคิดเหล่านี้หลายอย่างจะถูกแนะนำโดยย่อตามความจำเป็น แต่การมีความคุ้นเคยเบื้องต้นบ้างจะทำให้เข้าถึงเนื้อหาได้ง่ายขึ้น แหล่งข้อมูลที่เป็นประโยชน์รวมถึง:

  • HPC Wiki: หน้าที่มีนิยามและแนวทางใน HPC
  • หน้า Wikipedia ของ Slurm: ให้พื้นหลังโดยย่อและหมายเหตุเกี่ยวกับการนำไปใช้อย่างแพร่หลาย
  • หน้า quick start ของ Slurm: พื้นหลัง หมายเหตุการเริ่มต้น และรายการคำสั่ง Slurm พื้นฐาน
  • MPI tutorial: Hello World พื้นฐานโดยใช้ MPI

แหล่งข้อมูลเพิ่มเติมยังมีอยู่ในGitHub repo นี้

สำหรับผู้ที่ยังใหม่กับควอนตัม

คอร์สนี้จะใช้เครื่องมือและแนวคิดพื้นฐานจากควอนตัมคอมพิวติ้งโดยมีการทบทวนเบื้องต้นน้อยที่สุด เราแนะนำให้ผู้เข้าร่วมมีความรู้เกี่ยวกับ Qiskit เป็นอย่างน้อย ความคุ้นเคยกับ quantum Gate และ Circuit และมีประสบการณ์บ้างกับ sampling-based algorithm แหล่งข้อมูลที่ระบุไว้ด้านล่างควรให้การเตรียมตัวที่เป็นประโยชน์

  • คู่มือ IBM Quantum® Composer: การแนะนำ Composer ซึ่งเป็นเครื่องมือการเขียนโปรแกรมควอนตัมแบบกราฟิกที่ช่วยให้คุณสามารถลากและวางการดำเนินการเพื่อสร้าง quantum circuit และรันบนฮาร์ดแวร์ควอนตัม
  • Introduction to Qiskit: ชุดคู่มือเพื่อช่วยให้คุณติดตั้งและกำหนดค่า Qiskit
  • Hello world: บทแนะนำสั้นๆ เกี่ยวกับ Qiskit ซึ่งคุณตั้งค่าและรันโปรแกรมควอนตัมแรกของคุณ
  • Quantum diagonalization algorithms: คอร์สที่ครอบคลุมอัลกอริทึมควอนตัมหลายประเภท รวมถึง SQD ที่จะใช้ในคอร์สนี้

แหล่งข้อมูลเพิ่มเติมยังมีอยู่ในGitHub repo นี้

ผู้เรียนทุกพื้นหลังอาจพบคู่มือนี้มีประโยชน์ ซึ่งครอบคลุม SPANK plugin สำหรับการจัดการทรัพยากรควอนตัมและคำพูดเกี่ยวกับ Slurm เล็กน้อย

มีบางวิธีที่ความเป็นเอกลักษณ์ของควอนตัมคอมพิวติ้งทำให้มันแตกต่างจากทรัพยากรการประมวลผลคลาสสิกในแง่ที่สำคัญสำหรับคอร์สนี้ ตัวอย่างเช่น ไม่มี analog ควอนตัมที่ดีสำหรับ RAM ข้อมูลถูกเก็บและประมวลผลในสถานะของ qubit เอง แม้ว่าการวัดจะช่วยให้สามารถบันทึกคุณสมบัติบางอย่างของ qubit แบบคลาสสิกได้ แต่การวัดดังกล่าวจะทำลายความสมบูรณ์ส่วนใหญ่ของสถานะควอนตัม รวมถึง superposition และ entanglement นอกจากนี้ ทรัพยากรควอนตัมในปัจจุบันยังไม่ได้อยู่บน node เดียวกับทรัพยากร HPC อื่นๆ และผู้ใช้ทรัพยากรควอนตัมมักจะไม่มีระดับการควบคุมการจัดตารางเวลาเหมือนกับที่พวกเขาอาจมีเหนือทรัพยากร HPC แบบคลาสสิก ความเป็นจริงเหล่านี้จะถูกทบทวนในบทเรียนที่เหมาะสม แต่ข้อสรุปที่นี่คือคอมพิวเตอร์ควอนตัมจะเปลี่ยนโลกและต้องถูกบูรณาการกับ HPC แต่พวกมันไม่ใช่ "เพียงแค่" ทรัพยากร HPC อีกชนิดหนึ่งที่สามารถควบคุมและใช้งานในแบบเดียวกับ CPU, GPU เป็นต้น คอมพิวเตอร์ควอนตัมเปลี่ยนวิธีที่เราสามารถเข้าถึงปัญหาการประมวลผลหลายอย่าง

เกี่ยวกับคอร์สนี้

เมื่อสิ้นสุดคอร์สนี้ คุณจะสามารถทำได้มากกว่าแค่ท่องคำศัพท์ทางเทคนิค — คุณจะเข้าใจวิธีจัดการ hybrid workflow สมัยใหม่ที่มอบหมายงานย่อยเฉพาะให้กับ quantum processor ในขณะที่ CPU และ GPU จัดการงานที่เหลือ คุณจะเรียนรู้วิธีเขียนสคริปต์สำหรับงานที่เปลี่ยนผ่านอย่างราบรื่นระหว่าง classical node และ QPU ตีความผลลัพธ์อย่างแม่นยำ และรับรู้ว่า quantum acceleration สามารถปรับปรุงการคำนวณได้จริงๆ ที่ไหนบ้าง (และที่ไหนที่ทำไม่ได้) สิ่งที่สำคัญไม่แพ้กัน คุณจะฝึกรักษา growth mindset: ในสาขาใหม่ที่กำลังพัฒนาอย่างรวดเร็ว ไม่มีใครเรียนรู้ทุกอย่างในครั้งเดียว และความก้าวหน้าที่แท้จริงมาจากการทำซ้ำ การทดลอง และการตั้งคำถาม

คอร์สนี้แบ่งออกเป็น 5 บท ซึ่งครอบคลุมหัวข้อต่อไปนี้:

โครงร่างคอร์ส

  • บทเรียนที่ 1 — บทเรียนนี้ครอบคลุมพื้นหลังและแรงจูงใจ
  • บทเรียนที่ 2 — ทรัพยากรการประมวลผลและการจัดการทรัพยากร
  • บทเรียนที่ 3 — โมเดลการเขียนโปรแกรมที่รวมสภาพแวดล้อมการประมวลผลแบบ heterogeneous
  • บทเรียนที่ 4 — อัลกอริทึมควอนตัมสำหรับ hybrid workflow โดยเฉพาะ SQD
  • บทเรียนที่ 5 — แนวโน้มและทิศทางในอนาคต

คิดว่าคอร์สนี้เป็นแท่นปล่อยของคุณ — สถานที่ที่คุณสร้าง toolkit ทางความคิดและความมั่นใจในตัวเองเพื่อสำรวจ quantum-classical frontier หลังจากที่คุณเรียนจบบทเรียนสุดท้าย

อ้างอิง

[1] https://www.hpcwire.com/off-the-wire/gordon-bell-prize-awarded-to-ibm-and-leading-university-researchers/

Source: IBM Quantum docs — updated 13 ก.พ. 2569
English version on doQumentation — updated 7 พ.ค. 2569
This translation based on the English version of approx. 26 มี.ค. 2569