ข้ามไปยังเนื้อหาหลัก

บริบทของการคำนวณควอนตัม

ในวิดีโอต่อไปนี้ Olivia Lanes จะพาคุณผ่านเนื้อหาในบทเรียนนี้ หรือจะเปิด วิดีโอ YouTube ของบทเรียนนี้ในหน้าต่างแยกต่างหากก็ได้

คุณเริ่มคอร์สนี้ด้วยการดำดิ่งไปรัน Circuit ควอนตัมแรกของคุณเลย และเรียนรู้ว่ากฎของกลศาสตร์ควอนตัมถูกใช้สร้างสถานะ Gate และ Circuit ควอนตัมอย่างไร ตอนนี้ขอถอยออกมามองภาพกว้างสักหน่อย ในส่วนนี้ เราจะสำรวจการคำนวณควอนตัมผ่านกรอบคิดต่างๆ ที่จะช่วยให้คุณอ่านบทสนทนา พาดหัวข่าว และบทความเกี่ยวกับการคำนวณควอนตัมได้อย่างมีวิจารณญาณมากขึ้น

ไม่ต้องสงสัยเลยว่ามีความตื่นเต้นอย่างมากเกี่ยวกับการคำนวณควอนตัม และความเป็นไปได้ที่เทคโนโลยีนี้อาจมอบให้ บางคนอาจเรียกมันว่า "hype" ซึ่งเช่นเดียวกับเมื่อใดก็ตามที่มี hype เกี่ยวกับการค้นพบใหม่ มันอาจยากที่จะแยกแยะความจริงออกจากเรื่องแต่ง ด้วยเหตุนี้จึงดีที่สุดที่จะเริ่มจากสิ่งที่การคำนวณควอนตัมไม่ใช่:

  • การคำนวณควอนตัมจะไม่แทนที่คอมพิวเตอร์แบบดั้งเดิมหรือคลาสสิก — และจะไม่กลายเป็น "โทรศัพท์ควอนตัม"
  • มันไม่ใช่วิธี "ตรวจสอบคำตอบที่เป็นไปได้ทั้งหมดพร้อมกันในเวลาเดียวกัน"
  • มันไม่ได้ดีกว่าคอมพิวเตอร์คลาสสิกสำหรับทุกงานโดยทั่วๆ ไป
  • มันไม่ได้อยู่ในสงครามกับ AI
  • มันไม่ได้ไร้ประโยชน์จนกว่าจะบรรลุ fault tolerance หรือ error correction
  • มันไม่ใช่เวทมนตร์

หวังว่าสิ่งเหล่านี้จะไม่ทำให้คุณหนีจากคอร์สนี้ทั้งหมด หรือทำให้คิดว่าไม่มีอะไรมีคุณค่าที่นี่ ตรงกันข้ามเลย! การคำนวณควอนตัมมีศักยภาพที่จะทรงพลังอย่างมหาศาล — แต่สำหรับการประยุกต์ใช้บางอย่างเท่านั้น โชคดีที่การประยุกต์ใช้เหล่านั้นรวมถึงพื้นที่การวิจัยที่กำลังดำเนินอยู่ซึ่งอาจเปลี่ยนแปลงแนวทางที่เราเข้าหาปัญหาสำคัญอย่างพื้นฐาน เช่น การจำลองเคมี การสำรวจวัสดุ และการวิเคราะห์ชุดข้อมูลขนาดใหญ่ ก่อนที่จะสำรวจพื้นที่การประยุกต์ใช้เหล่านี้ ให้เราเจาะลึกความเข้าใจผิดบางส่วนเหล่านี้ก่อน

Scaling

ความเข้าใจผิดทั่วไปอีกอย่างเกี่ยวกับคอมพิวเตอร์ควอนตัมคือยิ่งมี Qubit มากเท่าไหร่ก็ยิ่งทรงพลังมากขึ้น แม้ว่าสิ่งนี้จะไม่ผิดทั้งหมด แต่ก็ไม่ได้ให้ภาพครบถ้วน การขยายปริมาณเป็นองค์ประกอบสำคัญแน่นอน แต่ก็ไม่ได้สำคัญกว่าคุณภาพของ Qubit เอง คุณภาพวัดได้หลายวิธี หนึ่งในที่สำคัญที่สุดคือเวลา coherence และ dephasing หรือ T1T_1 และ T2T_2 ตามลำดับ ซึ่งเป็นการวัดว่าข้อมูลควอนตัมใน Qubit สามารถคงตัวได้นานแค่ไหน เมื่อ superconducting Qubit ตัวแรกถูกสาธิต ตัวเลขนี้อยู่ในระดับนาโนวินาที (Nakamura et al., 1999) ตอนนี้เราผลิต Qubit ที่มีเวลา coherence ที่เสถียรได้หลายร้อยไมโครวินาทีเป็นประจำ

องค์ประกอบสำคัญอีกอย่างที่เราใช้ดูว่าคอมพิวเตอร์ควอนตัมกำลังปรับปรุงได้อย่างไรคือความเร็ว ในการวัดความเร็วเราใช้สิ่งที่เรียกว่า Circuit Layer Operations per Second (CLOPS) CLOPS รวมทั้งเวลาในการรัน Circuit และการคำนวณแบบคลาสสิกแบบ real-time และ near-time ทำให้มันทำหน้าที่เป็นตัวชี้วัดความเร็วแบบรวมตัวเดียว

Diagram showing the three key metrics for quantum computing progress: quantity (number of qubits), quality (coherence times), and speed (CLOPS)

องค์ประกอบทั้งสามนี้จำเป็นต้องทำงานร่วมกันเพื่อสร้างเส้นทางสู่คอมพิวเตอร์ควอนตัม fault-tolerant และ universal ต่อไป นั่นคือเหตุผลที่เมื่อมองที่ roadmap IBM Quantum® คุณจะสังเกตว่าบางครั้งการก้าวข้ามระหว่าง processor ไม่มีการเพิ่มจำนวน Qubit มากนัก ตัวอย่างเช่น สังเกตการเพิ่มจำนวน Qubit แบบปานกลางระหว่าง Heron และ Nighthawk เพราะนั่นไม่ใช่จุดมุ่งเน้นของการปรับปรุงนั้นจริงๆ แทนที่ Nighthawk ใช้ topology การเชื่อมต่อใหม่ที่จะทำให้สามารถใช้ error correction code ต่างๆ ได้

Error correction เทียบกับ error mitigation

Error correction ยังคงเป็นเป้าหมายระยะยาวที่สำคัญที่สุดสำหรับนักวิจัยด้านการคำนวณควอนตัม มันขึ้นอยู่กับสมมติฐานที่ว่า Qubit จะยังคงมี noise และเสี่ยงต่อ error อยู่บ้าง และถ้าเราต้องการรัน algorithm ขนาดใหญ่ เช่น algorithm ของ Shor เราจะต้องมีความสามารถในการตรวจหาและแก้ไข error เหล่านั้นแบบ real-time มี error-correcting code หลายประเภท และเราอ้างอิงคุณไปยังคอร์สอื่นๆ (เช่น คอร์ส Foundations of quantum error correction) ถ้าต้องการเจาะลึกมากขึ้น

Error mitigation ในทางกลับกัน กำลังถูกใช้งานเป็นประจำอยู่แล้วเพื่อปรับปรุงผลการคำนวณควอนตัม แนวคิดเบื้องหลัง error mitigation คือเรายอมรับว่า error จะเกิดขึ้น และพยายามทำนายพฤติกรรมของมันเพื่อลดผลกระทบของ error เหล่านั้น มีเทคนิค error mitigation หลายอย่าง หลายอย่างต้องรันบนคอมพิวเตอร์ควอนตัมหลายครั้งบวกกับการ post-processing แบบคลาสสิกบางส่วน เป็นไปได้น้อยมากที่ error correction จะแทนที่ error mitigation ได้อย่างสมบูรณ์ แทนที่เราคาดว่าทั้งสองจะถูกใช้ร่วมกันเพื่อให้ได้ผลลัพธ์ที่ดีที่สุดจากคอมพิวเตอร์ควอนตัม

ส่วนประกอบของการคำนวณควอนตัม

ก่อนหน้านี้เราพูดถึงว่าเป็นความเข้าใจผิดที่พบบ่อยว่าคอมพิวเตอร์ควอนตัมจะแทนที่คอมพิวเตอร์คลาสสิกในวันหนึ่ง นี่ไม่ใช่กรณีนี้อย่างชัดเจน คอมพิวเตอร์ควอนตัมและคอมพิวเตอร์คลาสสิกไม่ได้อยู่ในสงครามที่พยายามแทนที่กัน ที่จริงแล้ว ตามที่ระบุในส่วนก่อนหน้า คอมพิวเตอร์ควอนตัมต้องการคอมพิวเตอร์คลาสสิกเพื่อทำงาน ด้วยเหตุผลหลายอย่าง เมื่อเราพูดถึง "คอมพิวเตอร์" อย่างกว้างๆ เรามักสมมติว่ามันรวมถึงส่วนประกอบทั้งหมด เช่น CPU, RAM, memory และอื่นๆ ในทางกลับกัน คอมพิวเตอร์ควอนตัมไม่มีส่วนประกอบทั้งหมดเหล่านี้ บ่อยครั้งเมื่อผู้คนพูดถึงคอมพิวเตอร์ควอนตัม พวกเขาที่จริงกำลังหมายถึง QPU หรือ Quantum Processing Unit ซึ่งรับหน้าที่ประมวลผลจาก CPU QPU เองไม่ใช่คอมพิวเตอร์ทั่วไป มันไม่รัน operating system ไม่จัดการ memory และไม่จัดการ user interface บทบาทเดียวของมันคือจัดการ Qubit ตามการดำเนินการควอนตัมที่ควบคุมอย่างระมัดระวังก่อนที่จะส่งผลการวัดกลับไปยังระบบคลาสสิก

ในทางปฏิบัติ คอมพิวเตอร์ควอนตัมในปัจจุบันเข้าใจได้ดีที่สุดว่าเป็นระบบ hybrid คอมพิวเตอร์คลาสสิก orchestrate workflow — เตรียม input, compile Circuit ควอนตัม, จัดตาราง job และ post-process ผลลัพธ์ — ในขณะที่ QPU execute เฉพาะส่วนควอนตัมของการคำนวณ แม้แต่เมื่อ Hardware ควอนตัมก้าวหน้าขึ้น การแบ่งงานนี้คาดว่าจะยังคงอยู่ โดยความก้าวหน้าจะมุ่งเน้นไปที่การรวมที่แน่นขึ้นและการสื่อสารที่เร็วขึ้นระหว่างระบบคลาสสิกและ QPU มากกว่าการกำจัดส่วนประกอบคลาสสิกออกไปทั้งหมด

พื้นที่การประยุกต์ใช้ที่น่าจะเป็นไปได้ของการคำนวณควอนตัม

เราจัดหมวดหมู่พื้นที่ที่เชื่อว่าการคำนวณควอนตัมจะส่งผลกระทบมากที่สุดออกเป็นสี่ประเภท: optimization, Hamiltonian simulation, Partial Differential Equations (PDEs) และ machine learning

Hamiltonian simulation

หัวข้อนี้เกี่ยวกับการจำลองกระบวนการทางกลศาสตร์ควอนตัมที่พบในธรรมชาติ ที่แก่นหลักมันเกี่ยวข้องกับสองงานหลัก: การหาพลังงานสถานะพื้นของระบบที่อธิบายด้วย Hamiltonian ซึ่งเข้ารหัสพลังงานรวมและปฏิกิริยาภายในระบบ และการจำลองว่าระบบนั้นพัฒนาไปตามเวลาอย่างไร (quantum dynamics)

นี่คือหนึ่งในพื้นที่การประยุกต์ใช้ที่เป็นธรรมชาติที่สุดสำหรับคอมพิวเตอร์ควอนตัม: ระบบควอนตัมเป็นที่รู้จักว่ายากที่จะจำลองบนคอมพิวเตอร์คลาสสิก เพราะขนาดของ quantum state space เพิ่มขึ้นแบบ exponential ตามจำนวนอนุภาค คอมพิวเตอร์ควอนตัม ในทางกลับกัน แสดงสถานะควอนตัมโดยตรง ทำให้เหมาะสม — อย่างน้อยในหลักการ — สำหรับปัญหาประเภทเหล่านี้

พื้นที่การประยุกต์ใช้หลักรวมถึง:

  • เคมีและวิทยาศาสตร์วัสดุ: การทำนายโครงสร้างโมเลกุล เส้นทางปฏิกิริยา พลังงานยึดเหนี่ยว และคุณสมบัติของวัสดุ
  • ฟิสิกส์ condensed matter: การศึกษาระบบที่มีความสัมพันธ์แน่น การเปลี่ยนเฟส และสถานะควอนตัมแปลกใหม่
  • ฟิสิกส์พลังงานสูงและนิวเคลียร์: การสร้างแบบจำลองปฏิกิริยาอนุภาค

ในระยะยาว ความก้าวหน้าใน Hamiltonian simulation อาจทำให้:

  • การค้นพบยาและการออกแบบตัวเร่งปฏิกิริยาที่แม่นยำยิ่งขึ้น
  • การค้นพบวัสดุใหม่สำหรับแบตเตอรี่
  • ความเข้าใจที่ลึกซึ้งยิ่งขึ้นเกี่ยวกับปรากฏการณ์ทางกายภาพพื้นฐาน

algorithm ควอนตัมที่ได้รับการศึกษาอย่างดีที่สุดหลายตัว เช่น SQD ถูกพัฒนาขึ้นโดยเฉพาะเพื่อ Hamiltonian simulation ด้วยเหตุนี้ หมวดหมู่นี้จึงมักถูกมองว่าเป็นหนึ่งในกรณีใช้งานที่น่าสนใจทางวิทยาศาสตร์และมีพื้นฐานทางทฤษฎีมากที่สุดสำหรับการคำนวณควอนตัม

Optimization

ปัญหา optimization เกี่ยวข้องกับการหาวิธีแก้ที่ดีที่สุดจากชุดคำตอบที่เป็นไปได้จำนวนมาก ภายใต้ข้อจำกัดต่างๆ ปัญหาเหล่านี้ปรากฏขึ้นทั่วทั้งวิทยาศาสตร์ วิศวกรรม และอุตสาหกรรม และมักไม่สามารถคำนวณได้เมื่อขนาดปัญหาเพิ่มขึ้น

ตัวอย่างรวมถึง:

  • การจัดตาราง scheduling และ routing (เช่น supply chain, การจราจร, การจัดตารางเที่ยวบิน)
  • Portfolio optimization และการจัดการความเสี่ยง (การเงิน)
  • การจัดสรรทรัพยากรและ logistics
  • ปัญหา combinatorial เช่น graph partitioning และ max-cut

ปัญหา optimization หลายอย่างถูกจัดประเภทว่า NP-hard ในทฤษฎีความซับซ้อน ซึ่งหมายความว่า algorithm คลาสสิกโดยทั่วไปต้องพึ่ง heuristic หรือการประมาณสำหรับ instance ขนาดใหญ่ เพราะ Qubit มีพฤติกรรมต่างจาก classical bit เราสามารถสร้างแบบจำลองวิธีแก้ได้ต่างออกไป ซึ่งอาจทำให้เราสำรวจพื้นที่วิธีแก้ได้เร็วกว่าหรือครบถ้วนกว่า algorithm คลาสสิก

แนวทางควอนตัมที่พบบ่อยรวมถึง:

  • Variational algorithms เช่น Quantum Approximate Optimization Algorithm (QAOA)
  • Hybrid classical–quantum workflow ซึ่ง classical solver นำทางและปรับปรุง quantum subroutine

แม้ว่ายังเป็นคำถามที่เปิดว่าเมื่อใด — หรือสำหรับปัญหาใด — quantum optimization จะให้ advantage ที่ชัดเจนเหนือ classical method ที่ทันสมัยที่สุด optimization ยังคงเป็นพื้นที่ที่น่าสนใจหลัก เนื่องจากความแพร่หลายและการ mapping ที่เป็นธรรมชาติระหว่าง optimization objectives และ quantum Hamiltonian

Partial Differential Equations (PDEs)

สมการเชิงอนุพันธ์ย่อยอธิบายว่าปริมาณทางกายภาพเปลี่ยนแปลงอย่างไรในพื้นที่และเวลา มันเป็นรากฐานของโมเดลที่สำคัญที่สุดหลายอย่างในวิทยาศาสตร์และวิศวกรรม รวมถึง fluid dynamics, electromagnetism, heat transfer และการสร้างแบบจำลองทางการเงิน

ตัวอย่างรวมถึง:

  • สมการ Navier–Stokes สำหรับ fluid flow
  • สมการ Schrödinger และคลื่น
  • สมการ Maxwell
  • Black–Scholes และ financial PDE ที่เกี่ยวข้อง

การแก้ PDE เชิงตัวเลขบนคอมพิวเตอร์คลาสสิกมักต้องใช้ spatial grid ที่ละเอียดและการพัฒนาเวลาที่ยาวนาน ซึ่งนำไปสู่ค่าใช้จ่ายในการคำนวณและการใช้ memory สูง

Algorithm ควอนตัมสำหรับ PDE โดยทั่วไปพึ่งพาสิ่งต่อไปนี้:

  • การ map PDE ไปสู่ระบบสมการเชิงเส้นขนาดใหญ่
  • Quantum linear algebra subroutine เช่น algorithm HHL และรูปแบบต่างๆ
  • Hybrid workflow ซึ่ง classical preprocessing และ postprocessing ล้อมรอบ quantum core

ในทางทฤษฎี แนวทางควอนตัมบางอย่างสามารถให้การเร่งความเร็วแบบ exponential หรือ polynomial ภายใต้สมมติฐานเฉพาะ (เช่น การเตรียมสถานะและการอ่านผลที่มีประสิทธิภาพ) ในทางปฏิบัติ การแก้ PDE คาดว่าจะเป็นการประยุกต์ใช้ระยะยาว ที่เชื่อมโยงอย่างใกล้ชิดกับความก้าวหน้าใน fault-tolerant quantum computing และการรวม quantum–classical กับระบบ high-performance computing (HPC)

Machine learning

Quantum machine learning (QML) สำรวจว่าคอมพิวเตอร์ควอนตัมอาจเสริมหรือเร่งความเร็วด้านต่างๆ ของ machine learning และการวิเคราะห์ข้อมูลได้อย่างไร ซึ่งรวมถึงทั้งสองสิ่งต่อไปนี้:

  • การใช้คอมพิวเตอร์ควอนตัมสำรวจปัญหาการจำแนกประเภทที่มีพฤติกรรมต่างจาก algorithm คลาสสิก
  • การพัฒนาโมเดลใหม่ที่มีลักษณะเป็นควอนตัมโดยธรรมชาติ

การประยุกต์ใช้ที่เสนอรวมถึง:

  • Classification และ clustering
  • Kernel method และ feature map
  • Optimization subroutine ภายใน training loop

Algorithm QML หลายตัวใช้ประโยชน์จาก:

  • Parameterized quantum circuit เป็นโมเดลที่ฝึกได้
  • Variational optimization technique
  • Quantum kernel ที่ทำงานโดยนัยใน feature space มิติสูง

อย่างไรก็ตาม machine learning เป็นพื้นที่ที่ท้าทายเป็นพิเศษสำหรับ quantum advantage Classical machine learning มีความสมบูรณ์แบบอย่างมาก และโมเดลควอนตัมต้องเผชิญกับปัญหาเช่นการโหลดข้อมูล noise และ scaling

ด้วยเหตุนี้ งานวิจัยปัจจุบันจึงมุ่งเน้นไปที่พื้นที่เหล่านี้:

  • การระบุ regime เฉพาะที่โมเดลควอนตัมอาจเหนือกว่าโมเดลคลาสสิก
  • การสำรวจ QML เป็นส่วนหนึ่งของ hybrid workflow แทนที่จะเป็นการแทนที่แบบ standalone
  • การทำความเข้าใจ expressivity, trainability และ generalization ของโมเดลควอนตัม

Quantum machine learning ยังคงเป็นพื้นที่การวิจัยที่กำลังดำเนินอยู่ ที่มีผลกระทบระยะยาวที่เป็นไปได้ — แต่ก็มีคำถามที่เปิดอยู่อย่างมีนัยสำคัญว่าเมื่อใดและที่ไหนที่ practical advantage จะเกิดขึ้น

บทสรุป

บทเรียนนี้ทำให้ชัดเจนว่า quantum advantage ไม่ใช่เรื่องของการแทนที่คอมพิวเตอร์ มันเกี่ยวกับการขยายสิ่งที่คำนวณได้ มันคือหนึ่งในโครงการวิศวกรรมที่ทะเยอทะยานที่สุดที่มนุษย์เคยพยายาม และเช่นเดียวกับโครงการทะเยอทะยานทั้งหมด มันยุ่งเหยิง ช้า และน่าทึ่งมาก

ถ้าต้องการติดตามว่า algorithm เหล่านี้ทำงานอย่างไรจริงๆ บทเรียนถัดไปจะแสดงว่าจะไปต่อจากตรงนี้ได้อย่างไรตามความสนใจและเป้าหมายอาชีพของคุณ

This translation based on the English version of 7 พ.ค. 2569