ข้ามไปยังเนื้อหาหลัก

บทนำสู่คอร์ส

ก่อนเริ่มต้น โปรดทำแบบสำรวจก่อนเรียนสั้น ๆ นี้ ซึ่งสำคัญมากในการช่วยปรับปรุงเนื้อหาและประสบการณ์ผู้ใช้ของเรา

Note: This survey is provided by IBM Quantum and relates to the original English content. To give feedback on doQumentation's website, translations, or code execution, please open a GitHub issue.

คลิกด้านล่างเพื่อฟังบทนำคอร์สจาก Olivia Lanes หรือเปิดวิดีโอในหน้าต่างแยกบน YouTube.

เกี่ยวกับคอร์สนี้

ยินดีต้อนรับสู่ Quantum Computing in Practice คอร์สที่มุ่งเน้นที่คอมพิวเตอร์ควอนตัมในปัจจุบันและวิธีใช้งานให้เต็มศักยภาพ ครอบคลุม use case ที่มีศักยภาพจริงสำหรับการประมวลผลควอนตัม รวมถึงแนวปฏิบัติที่ดีที่สุดในการรันและทดลองกับโปรเซสเซอร์ควอนตัมที่มี Qubit 100 ตัวขึ้นไป

Quantum utility

เป็นเวลาที่น่าตื่นเต้นสำหรับการประมวลผลควอนตัม หลังจากหลายปีของการวิจัยและพัฒนาทั้งทางทฤษฎีและการทดลอง คอมพิวเตอร์ควอนตัมกำลังเข้าใกล้จุดที่เริ่มแข่งขันกับคอมพิวเตอร์คลาสสิกและแสดง utility ได้

Utility ไม่ใช่สิ่งเดียวกับ quantum advantage ซึ่งหมายถึงคอมพิวเตอร์ควอนตัม มีประสิทธิภาพดีกว่า คอมพิวเตอร์คลาสสิกในงานที่มีความหมาย คอมพิวเตอร์คลาสสิกมีพลังและความยืดหยุ่นอย่างไม่น่าเชื่อ และความจริงก็คือคอมพิวเตอร์ควอนตัมยังไม่สามารถเอาชนะพวกมันได้ เราเห็นความก้าวหน้าหลายทศวรรษในการประมวลผลคลาสสิก ไม่เพียงแต่ในฮาร์ดแวร์คอมพิวเตอร์ แต่ยังในอัลกอริทึมสำหรับคอมพิวเตอร์คลาสสิก และเราสังเกตได้อย่างชัดเจนว่าเทคโนโลยีการประมวลผลดิจิทัลอิเล็กทรอนิกส์ได้เปลี่ยนแปลงโลกของเราอย่างรุนแรง

การประมวลผลควอนตัมในทางกลับกันอยู่ในขั้นตอนการพัฒนาที่แตกต่างกัน การประมวลผลควอนตัมต้องการการควบคุมระบบกลศาสตร์ควอนตัมอย่างสุดโต่งและผลักดันขอบเขตของเทคโนโลยีในปัจจุบัน และเราไม่สามารถคาดหวังได้อย่างสมเหตุสมผลที่จะเชี่ยวชาญเทคโนโลยีใหม่นี้และเอาชนะการประมวลผลคลาสสิกทันที แต่เรากำลังเห็นสัญญาณที่บ่งชี้ว่าคอมพิวเตอร์ควอนตัมกำลังเริ่มแข่งขันกับวิธีการประมวลผลคลาสสิกสำหรับงานที่เลือกสรร ซึ่งเป็นขั้นตอนตามธรรมชาติในการพัฒนาเทคโนโลยีของการประมวลผลควอนตัมที่รู้จักกันในชื่อ quantum utility

เมื่อเทคโนโลยีก้าวหน้าและมีการพัฒนาวิธีการใหม่ ๆ สำหรับการประมวลผลควอนตัม เราสามารถคาดหวังได้อย่างสมเหตุสมผลว่าข้อดีของมันจะชัดเจนมากขึ้นเรื่อย ๆ แต่จะต้องใช้เวลา เมื่อเกิดขึ้นเราน่าจะเห็นการมีปฏิกิริยาไปมากับการประมวลผลคลาสสิก: จะมีการสาธิตการประมวลผลควอนตัมและการประมวลผลคลาสสิกจะตอบสนอง การประมวลผลควอนตัมจะเดินหน้าอีกครั้ง และรูปแบบจะทำซ้ำ และวันหนึ่ง เมื่อประสิทธิภาพของคอมพิวเตอร์ควอนตัมไม่สามารถจับคู่ได้ด้วยคลาสสิก เราจะตั้งสมมติฐานว่าเราได้เห็น quantum advantage แต่แม้กระนั้นเราจะไม่รู้แน่ใจ! การพิสูจน์ผลความเป็นไปไม่ได้สำหรับคอมพิวเตอร์คลาสสิกเป็นปัญหาที่ยากเป็นไปไม่ได้เท่าที่เราทราบ

การจำลองธรรมชาติ

Classical simulator หมายถึงโปรแกรมคอมพิวเตอร์ที่ทำงานบนคอมพิวเตอร์คลาสสิกที่จำลองระบบทางกายภาพ สามารถทำนายเกี่ยวกับระบบกลศาสตร์ควอนตัมได้ แต่ classical simulator ไม่ใช่ควอนตัมและไม่สามารถจำลองระบบควอนตัมได้โดยตรง แทนที่พวกมันใช้การคำนวณทางคณิตศาสตร์เพื่อประมาณพฤติกรรมควอนตัม เมื่อขนาดของระบบที่ถูกจำลองเพิ่มขึ้น ค่าใช้จ่ายที่จำเป็นในการทำสิ่งนี้เพิ่มขึ้นอย่างมาก ทำให้มีข้อจำกัดว่าระบบควอนตัมใดที่สามารถจำลองได้ด้วยคลาสสิก การจำลองต้องใช้เวลานานแค่ไหน และความแม่นยำของผลลัพธ์

คอมพิวเตอร์ควอนตัมในทางกลับกันสามารถจำลองระบบควอนตัมได้โดยตรงมากขึ้น และด้วยเหตุนี้ค่าใช้จ่ายที่ต้องการจึงปรับขนาดได้ดีขึ้นอย่างมีนัยสำคัญเมื่อขนาดระบบเพิ่มขึ้น นี่คือแนวคิดของ Richard Feynman ในทศวรรษ 1980 ที่กระตุ้นการสืบสวนถึงศักยภาพของคอมพิวเตอร์ควอนตัมเป็นครั้งแรก เราจะพูดถึงเรื่องนี้เพิ่มเติมในภายหลัง!

นักวิจัย IBM® ตีพิมพ์เอกสารในปี 2023 ที่แสดงให้เห็นเป็นครั้งแรกว่าคอมพิวเตอร์ควอนตัมสามารถแข่งขันกับเทคนิคคลาสสิกที่ล้ำสมัยสำหรับการจำลองแบบจำลองทางกายภาพเฉพาะอย่างได้ ผลลัพธ์ของมันยังสามารถจับคู่ได้ด้วยเทคนิคขั้นสูงที่ทำงานบนคอมพิวเตอร์คลาสสิก แต่มันดีกว่าอัลกอริทึม brute-force และยังเสนอจุดข้อมูลใหม่ที่วิธีการจำลองต่าง ๆ (ซึ่งไม่แม่นยำและไม่ตกลงกันในการทำนาย) สามารถเปรียบเทียบได้

มุ่งเน้นที่โปรเซสเซอร์ควอนตัมขนาดใหญ่

ผู้ใช้ฮาร์ดแวร์ IBM quantum ก่อนหน้านี้อาจสังเกตเห็นว่าโปรเซสเซอร์ขนาดเล็กที่เราเคยให้บริการแก่สาธารณะได้ถูกนำออกไปแล้ว เพื่อเปิดทางให้โปรเซสเซอร์ขนาดใหญ่กว่า (มี Qubit 100+ ตัว) โปรเซสเซอร์ขนาดเล็กเหล่านั้นสามารถจำลองได้ง่ายด้วยคลาสสิก ดังนั้น แม้ว่าพวกมันจะเป็นก้าวหินที่สาธารณะเข้าถึงได้ในเทคโนโลยีที่กำลังพัฒนา แต่พวกมันไม่สามารถแสดง quantum utility ได้: ทุกสิ่งที่ทำได้ด้วยพวกมันสามารถทำได้ง่ายพอ ๆ กันด้วยการจำลองคลาสสิก

ที่ประมาณ 100 Qubit อย่างไรก็ตาม นี่ไม่ใช่กรณีนี้อีกต่อไป โปรเซสเซอร์ควอนตัมขนาดนี้ไม่สามารถจำลองได้ด้วยคลาสสิกอีกต่อไป สิ่งนี้แสดงถึงการเปลี่ยนเฟสของเรียงลำดับ เข้าสู่ยุคใหม่ของเทคโนโลยีการประมวลผลควอนตัมที่ ศักยภาพ ในการมีประสิทธิภาพดีกว่าการประมวลผลคลาสสิกมีอยู่ นี่คือสิ่งที่ IBM เลือกที่จะมุ่งเน้น เพื่อมองหาพลังการประมวลผลควอนตัมและไปสู่ quantum advantage ในที่สุด

เราสนับสนุนให้ผู้ใช้ของเราใช้อุปกรณ์ใหม่เหล่านี้อย่างเต็มศักยภาพ ทดลองกับพวกมันและผลักดันขีดจำกัดของพวกมัน และนำบทเรียนที่ได้รับไปสู่โปรเซสเซอร์ควอนตัมรุ่นถัดไปที่กำลังพัฒนาอยู่ จุดประสงค์ของคอร์สนี้คือการให้คุณทำสิ่งนี้ได้!

กลุ่มเป้าหมายและเป้าหมายของคอร์ส

คอร์สนี้สำหรับทุกคนที่มุ่งหมายพัฒนาแอปพลิเคชันใหม่สำหรับคอมพิวเตอร์ควอนตัม ต้องการขยายงานการประมวลผลควอนตัมปัจจุบัน หรือเรียนรู้วิธีใช้โปรเซสเซอร์ควอนตัมในขั้นตอนการทำงาน ซึ่งรวมถึงไม่เพียงแต่นักฟิสิกส์และนักวิทยาการคอมพิวเตอร์ แต่ยังวิศวกร นักเคมี นักวิทยาศาสตร์วัสดุ และทุกคนที่มีความสนใจในการเชี่ยวชาญฮาร์ดแวร์การประมวลผลควอนตัม

คอร์สนี้จะเป็นการปฏิบัติและมุ่งเน้นที่การใช้คอมพิวเตอร์ควอนตัมในทางปฏิบัติ หัวข้อและทักษะต่อไปนี้อยู่ในที่ที่ครอบคลุม:

  • การรัน utility-scale job บนโปรเซสเซอร์ควอนตัมผ่าน Qiskit Runtime
  • การใช้เทคนิคการลดข้อผิดพลาดเพื่อปรับปรุงผลลัพธ์ฮาร์ดแวร์
  • พื้นที่การประยุกต์ใช้ที่มีศักยภาพสำหรับคอมพิวเตอร์ควอนตัมระยะใกล้

คอร์สนี้ไม่ครอบคลุมทฤษฎีพื้นฐานของการประมวลผลควอนตัม และสันนิษฐานความคุ้นเคยพื้นฐานกับ Qubit และ quantum circuit คอร์ส Basics of quantum information บนแพลตฟอร์มนี้ครอบคลุมเนื้อหานี้ และแนะนำให้ทำก่อนสำหรับผู้ที่เพิ่งเริ่มต้นกับการประมวลผลควอนตัม

เรื่องราวของการประมวลผล

การประมวลผลควอนตัมเป็นเทคโนโลยีใหม่ที่น่าตื่นเต้นในขั้นตอนการพัฒนาระยะแรก แต่มันเป็นเพียงบทหนึ่งในเรื่องราวที่ย้อนกลับไปหลายพันปี มันเป็นเรื่องราวของ การประมวลผล และการเชื่อมต่อหลายมิติกับ โลกทางกายภาพ

อุปกรณ์การประมวลผลตั้งแต่สมัยโบราณ

ตั้งแต่สมัยโบราณ มนุษย์ต้องการทำ การประมวลผล หรือกล่าวอีกนัยหนึ่ง เพื่อประมวลผลข้อมูลตามกฎและข้อจำกัดบางอย่าง เพื่อให้การสื่อสาร การก่อสร้าง การพาณิชย์ วิทยาศาสตร์ และแง่มุมอื่น ๆ ของชีวิตเป็นไปได้ เราหันไปหาโลกทางกายภาพเพื่อขอความช่วยเหลือ และผ่านการค้นพบที่ชาญฉลาด เราได้สร้างอุปกรณ์เพื่อช่วยเราในการประมวลผล

นานมาแล้ว อุปกรณ์ที่ทำจากไม้ กระดูก และเชือกที่ผูกเป็นปม จัดเก็บข้อมูลและอำนวยความสะดวกในการคำนวณ อุปกรณ์เชิงกลที่สร้างจากคันโยก เฟือง และเครื่องจักรอื่น ๆ ก้าวหน้าจากนาฬิกาดาราศาสตร์ยุคแรก ไปสู่เครื่องคำนวณ ไปสู่อุปกรณ์การประมวลผลที่ซับซ้อนเช่น differential analyzer ที่แก้สมการโดยใช้ล้อและจานหมุน แม้แต่เทคโนโลยีการเขียนก็มีบทบาทสำคัญในเรื่องราวนี้โดยช่วยให้ ผู้คน ทำการประมวลผลที่พวกเขาไม่สามารถทำได้มิฉะนั้น

เมื่อเราคิดถึงคอมพิวเตอร์ในปัจจุบัน เราโน้มเอียงที่จะคิดถึงคอมพิวเตอร์ดิจิทัลอิเล็กทรอนิกส์ แต่นี่เป็นเทคโนโลยีที่ค่อนข้างใหม่: คอมพิวเตอร์ดิจิทัลอิเล็กทรอนิกส์ถูกสร้างขึ้นครั้งแรกในทศวรรษ 1940 (ในทางตรงข้าม ลูกคิด Sumerian เชื่อกันว่าถูกประดิษฐ์ขึ้นระหว่าง 2700 ถึง 2300 ปีก่อนคริสตกาล) เทคโนโลยีได้ก้าวหน้าอย่างมากตั้งแต่นั้นมา และคอมพิวเตอร์ปัจจุบันแพร่หลายทุกที่ พบได้ในบ้าน สถานที่ทำงาน และยานพาหนะที่พาเราไปมาระหว่างพวกมัน และพวกเราหลายคนพกพาพวกมันไปทุกที่

เรายังมี supercomputer ซึ่งเป็นคอลเลกชั่นขนาดใหญ่ของโปรเซสเซอร์คลาสสิกที่มีพลังสูงเชื่อมต่อแบบขนาน พวกมันอยู่ในกลุ่มเครื่องมือที่ดีที่สุดที่มนุษย์เคยสร้างมาเพื่อแก้ปัญหาที่ยาก และพลังและความน่าเชื่อถือยังคงพัฒนาต่อไป แต่ยังมีปัญหาการประมวลผลที่สำคัญที่แม้แต่ยักษ์เหล่านี้จะไม่มีวันแก้ได้ เนื่องจากความยากในการประมวลผลที่มีอยู่โดยธรรมชาติของปัญหาเหล่านี้

การเชื่อมต่อกับโลกทางกายภาพ

คอมพิวเตอร์มีการใช้งานหลายอย่าง การใช้งานที่สำคัญอย่างหนึ่งสำหรับคอมพิวเตอร์คือ การเรียนรู้ เกี่ยวกับโลกทางกายภาพและทำความเข้าใจรูปแบบได้ดีขึ้น การใช้งานในประวัติศาสตร์ในหมวดหมู่นี้รวมถึงการทำนายสุริยุปราคาและน้ำขึ้นน้ำลง ทำความเข้าใจการเคลื่อนที่ของวัตถุทางดาราศาสตร์ และ (ในช่วงเวลาที่ค่อนข้างล่าสุด) การสร้างแบบจำลองการระเบิด ในปัจจุบัน แทบไม่มีห้องปฏิบัติการฟิสิกส์ในโลกที่ไม่มีคอมพิวเตอร์

โดยทั่วไป ฟิสิกส์และการประมวลผลเชื่อมโยงกันเสมอมา การประมวลผลไม่สามารถมีอยู่ในสุญญากาศ: ข้อมูลต้องการสื่อกลาง และเพื่อประมวลผล เราต้องใช้ประโยชน์จากโลกทางกายภาพในทางใดทางหนึ่ง Rolf Launduer นักวิทยาการคอมพิวเตอร์ (และพนักงาน IBM) รู้จักเมื่อหลายทศวรรษก่อนว่าข้อมูลเป็นทางกายภาพ มีอยู่เฉพาะผ่านการแสดงทางกายภาพ หลักการของ Landauer สร้างการเชื่อมต่อระหว่างข้อมูลและกฎของอุณหพลศาสตร์ แต่ในความเป็นจริงมีการเชื่อมต่อมากมาย

การทำความเข้าใจโลกทางกายภาพเป็นจุดมุ่งหมายของฟิสิกส์ในฐานะสาขาวิชา แต่จริง ๆ แล้วมันเป็นถนนสองทาง ผ่านความเข้าใจของโลกทางกายภาพ เราสามารถใช้เทคโนโลยีใหม่เพื่อช่วยเราในการประมวลผล และผ่านพวกมันเรายังคงเรียนรู้เกี่ยวกับโลกทางกายภาพ ดึงฟิสิกส์และเทคโนโลยีการประมวลผลขึ้นมาด้วยตัวเอง

Moore's law

Moore's law เป็นข้อสังเกตว่าจำนวนสูงสุดของทรานซิสเตอร์ในวงจรรวมเพิ่มขึ้นประมาณสองเท่าทุก 2 ปี ในช่วง 5 ทศวรรษที่ผ่านมา เราไม่เพียงสังเกตแนวโน้มนี้ แต่ยังได้รับผลประโยชน์จากมัน ด้วยทรานซิสเตอร์มากขึ้นบนชิป เราสามารถทำการประมวลผลที่ซับซ้อนมากขึ้นและทำได้เร็วขึ้น นี่คือเหตุผลที่คอมพิวเตอร์มีพลังมากขึ้นเรื่อย ๆ

อย่างไรก็ตาม "กฎ" ของ Moore จำเป็นต้องสิ้นสุดลง ผู้เชี่ยวชาญไม่เห็นด้วยว่าเมื่อใดที่จะเกิดขึ้น และบางคนโต้แย้งว่ามันเกิดขึ้นแล้ว แต่เรารู้แน่นอนว่ามันจะต้องสิ้นสุดลงอย่างหลีกเลี่ยงไม่ได้เพราะมีขีดจำกัดทางทฤษฎีสำหรับการทำให้ส่วนประกอบการประมวลผลเล็กลง เราไม่สามารถทำให้ทรานซิสเตอร์เล็กกว่าอะตอมได้! แม้ว่านั่นอาจฟังดูเกินจริง แต่นี่คือกำแพงที่เรากำลังเข้าใกล้

โซลูชันไม่ใช่การยอมแพ้และพูดว่า "นั่นคือดีที่สุดที่ทำได้แล้ว" สิ่งนี้ขัดกับธรรมชาติของมนุษย์ แทนที่เราต้องหันไปหาโลกทางกายภาพเพื่อหาเครื่องมือการประมวลผลใหม่ ซึ่งนี่คือที่ที่การประมวลผลควอนตัมเข้ามาเล่น

การประมวลผลควอนตัม

กลศาสตร์ควอนตัมและการประมวลผล

กลศาสตร์ควอนตัมถูกค้นพบในต้นศตวรรษที่ 20 และมันได้มีบทบาทสำคัญในการประมวลผลแล้ว ความเข้าใจของเราเกี่ยวกับกลศาสตร์ควอนตัมส่วนหนึ่งทำให้คอมพิวเตอร์ยุคใหม่เป็นไปได้ หากปราศจากกลศาสตร์ควอนตัม ตัวอย่างเช่น ยากที่จะจินตนาการว่า solid state hard drive จะถูกประดิษฐ์ขึ้น

การประมวลผลควอนตัมในทฤษฎี

เมื่อ Richard Feynman เสนอแนวคิดของคอมพิวเตอร์ควอนตัมเป็นครั้งแรกในปี 1982 จุดสนใจของเขาอยู่ที่การจำลองระบบกลศาสตร์ควอนตัม การคำนวณที่จำเป็นในการทำสิ่งนี้ดูเหมือนยากเกินไปสำหรับคอมพิวเตอร์ธรรมดา แต่บางทีด้วยคอมพิวเตอร์ที่ทำงานตามคำอธิบายกลศาสตร์ควอนตัมของโลก ระบบต่าง ๆ สามารถจำลองได้โดยตรง

ในปัจจุบันนี้เป็นหนึ่งในเส้นทางที่มีแนวโน้มมากที่สุดสำหรับการประมวลผลควอนตัม เท่าที่เราเข้าใจ ธรรมชาติไม่ใช่คลาสสิก แต่เป็นควอนตัม และดังนั้น คอมพิวเตอร์ควอนตัมอาจเป็นเครื่องมือที่มีคุณค่าสำหรับการทำความเข้าใจมัน คอมพิวเตอร์คลาสสิกในทางกลับกันสามารถประมาณเท่านั้นว่าสิ่งที่เกิดขึ้นจริงในธรรมชาติ และในบางกรณีการประมาณเหล่านั้นมีข้อจำกัดมาก

วิธีหนึ่งในการคิดเกี่ยวกับเรื่องนี้คือผ่านการเปรียบเทียบกับอุโมงค์ลม ไดนามิกของไหลยากมากในการจำลองและทำนายทางคณิตศาสตร์ ตัวอย่างเช่น มีค่าใช้จ่ายสูงและไม่ปฏิบัติในการจำลองรถยนต์ขับผ่านลม ดังนั้น ผู้ผลิตรถยนต์จึงสร้างอุโมงค์ที่มีลมพัดจริง ๆ และขับรถผ่านพวกมันเพื่อทดสอบประสิทธิภาพ กล่าวคือ พวกเขาสร้างลมแทนที่จะจำลองมัน การสร้างคอมพิวเตอร์ควอนตัมเพื่อศึกษาโลกทางกายภาพเหมือนกับการสร้างอุโมงค์ลมเพื่อศึกษาว่าลมส่งผลต่อรถอย่างไร คอมพิวเตอร์ควอนตัมสามารถจำลองกฎของธรรมชาติในระดับโมเลกุลโดยตรงเพราะพวกมันทำงานตามกฎเหล่านั้น ซึ่งหมายความว่าพวกมันจำลองธรรมชาติแทนที่จะจำลองมันผ่านสูตรและการคำนวณ

คนอื่น ๆ ติดตามแนวคิดของ Feynman และเชื่อมโยงแนวคิดเหล่านี้กับทฤษฎี ข้อมูลควอนตัม ที่ กำลังพัฒนาอยู่แล้ว สาขา ข้อมูลและการประมวลผลควอนตัม เกิดขึ้น มันพัฒนาเป็นสาขาการศึกษาที่หลากหลายและอุดมสมบูรณ์ และมีการระบุข้อได้เปรียบมากมายของควอนตัมเหนือข้อมูลและการประมวลผลคลาสสิกในการตั้งค่า ทางทฤษฎี หลากหลายที่เกี่ยวข้องกับการสื่อสาร การประมวลผล และการเข้ารหัส

การประมวลผลควอนตัมในทางปฏิบัติ

ในทางปฏิบัติ สองสิ่งจำเป็นในการถ่ายโอนข้อได้เปรียบทางทฤษฎีเหล่านี้ไปสู่ข้อได้เปรียบในโลกจริง: อุปกรณ์เองและวิธีการเพื่อปลดล็อคศักยภาพของพวกมัน

ต่างจากคอมพิวเตอร์คลาสสิก ไม่มีใครมีคอมพิวเตอร์ควอนตัมเก็บไว้ในกระเป๋า จนกระทั่งเมื่อไม่นานมานี้ หากคุณต้องการทดลองกับคอมพิวเตอร์ควอนตัม คุณต้องสร้างและดูแลรักษามันเอง (โดยปกติในห้องปฏิบัติการชั้นใต้ดินที่น่าเศร้าในมหาวิทยาลัยหรือสถาบันวิจัย) และคุณจะมีเพียง Qubit ไม่กี่ตัวที่มีสัญญาณรบกวนสูงที่สุด ไม่ใช่อีกต่อไปแล้ว ในปี 2016 IBM Quantum® วางโปรเซสเซอร์ควอนตัมตัวแรกบนคลาวด์ มันมีเพียง 5 Qubit และมีอัตราข้อผิดพลาดค่อนข้างสูง แต่เราก้าวมาไกลมากตั้งแต่นั้น เราจะสรุปสถานะปัจจุบันของเทคโนโลยีในส่วนด้านล่าง

นอกจากการสร้างคอมพิวเตอร์ควอนตัมแล้ว เรายังต้องพัฒนาวิธีการสำหรับการใช้งานพวกมันอย่างมีประสิทธิภาพ แม้ว่าความก้าวหน้าทางทฤษฎีในอัลกอริทึมและโปรโตคอลควอนตัมบ่งชี้ถึงศักยภาพที่แข็งแกร่ง ความท้าทายในการหาการใช้งานจริงสำหรับการประมวลผลควอนตัมยังคงอยู่ข้างหน้าเรา คอมพิวเตอร์ควอนตัมในปัจจุบันยังไม่สามารถทำการประมวลผลแบบ fault-tolerant ที่จำเป็นในการถ่ายโอนข้อได้เปรียบทางทฤษฎีที่รู้จักเป็นข้อได้เปรียบในทางปฏิบัติ แต่พวกมันอยู่เกินการเข้าถึงของการจำลองคอมพิวเตอร์คลาสสิก และเราอาจมีเป้าหมายที่จะใช้ประโยชน์จากข้อเท็จจริงนี้เพื่อพลังการประมวลผล

ด้วยความก้าวหน้าเหล่านี้ เราพบว่าตัวเองมีเครื่องมือใหม่สำหรับการประมวลผล และขึ้นอยู่กับเราที่จะหาว่าเราสามารถทำอะไรได้บ้าง

การประยุกต์ใช้ที่มีศักยภาพ

ไม่คาดว่าการประมวลผลควอนตัมจะเป็นประโยชน์สำหรับการศึกษาว่ารถทำงานอย่างไรในลม แต่มีกระบวนการทางกายภาพอื่น ๆ เช่นกระบวนการที่เกี่ยวข้องในการออกแบบแบตเตอรี่หรือในปฏิกิริยาเคมีบางอย่าง ที่ความสามารถของคอมพิวเตอร์ควอนตัมในการจำลองธรรมชาติอาจนำไปสู่ quantum advantage โดยทั่วไปมีปัญหามากมายที่ยากเกินไปหรือมีค่าใช้จ่ายสูงแม้แต่สำหรับ supercomputer ที่ล้ำสมัย รวมถึงปัญหาที่เกี่ยวข้องสูงกับสังคมของเรา การประมวลผลควอนตัมอาจไม่เสนอโซลูชันสำหรับทั้งหมด แต่อาจเสนอโซลูชันสำหรับบางส่วน

พื้นที่การประยุกต์ใช้สามส่วนต่อไปนี้เป็นเป้าหมายในพื้นที่การประมวลผลควอนตัมที่มีสัญญาณรบกวน ก่อนการนำการแก้ไขข้อผิดพลาดและ fault-tolerance ของควอนตัมไปใช้:

  • การปรับให้เหมาะสม
  • การจำลองธรรมชาติ
  • การหาโครงสร้างในข้อมูล (รวมถึง machine learning)

เราจะพูดถึงหัวข้อเหล่านี้ในรายละเอียดมากขึ้นในภายหลังในคอร์ส

สถานะของเทคโนโลยี

การสร้างคอมพิวเตอร์ควอนตัมเป็นความท้าทายทางเทคโนโลยีที่ยาก และผ่านมาเพียง 8 ปีแล้วนับตั้งแต่คอมพิวเตอร์ควอนตัมขนาดเล็กเริ่มมีให้บริการสาธารณะ ใน 8 ปีนั้น เราได้ก้าวหน้าในหลายด้าน

โปรเซสเซอร์ IBM quantum จำนวนมากสามารถเข้าถึงได้ผ่านคลาวด์ ทั้งหมดมี Qubit มากกว่า 100 ตัว แต่ไม่ใช่แค่ขนาดของโปรเซสเซอร์ที่สำคัญ นั่นเป็นเพียงหน่วยวัดเดียวที่เราสนใจ คุณภาพ Gate ก็ดีขึ้นอย่างมาก และเรายังได้แนะนำวิธีการลดและบรรเทาข้อผิดพลาดที่มีอยู่โดยธรรมชาติในระบบควอนตัม แม้ขณะที่เรามุ่งสู่การสร้างระบบ fault-tolerant หน่วยวัดพื้นฐานสาม อย่างคือ ขนาด คุณภาพ และ ความเร็ว สำคัญมากในการติดตามการปรับปรุงประสิทธิภาพ

  • ขนาด Qubit มากขึ้นย่อมดีกว่าอย่างชัดเจน แต่เฉพาะเมื่อการเพิ่มจำนวนไม่ลดประสิทธิภาพ (ซึ่งอาจเป็นกรณีได้) ในความเป็นจริง เราต้องการ Qubit คุณภาพดีมากขึ้นที่ไม่รบกวนกันเอง ผ่าน crosstalk เมื่อเราไม่ต้องการ วิธีที่ Qubit เชื่อมต่อกันก็สำคัญ และ การหาวิธีที่ดีที่สุดในการทำสิ่งนี้เป็นความท้าทายสำหรับวงจร qubit แบบ superconducting

  • คุณภาพ หน่วยวัดสำคัญอีกอย่างที่เราสังเกต เพื่อติดตามการปรับปรุงประสิทธิภาพตามเวลา คือ fidelity ของ Gate 2 Qubit Gate ที่ทำงานบน Qubit เดียวไม่เสี่ยงต่อข้อผิดพลาดเท่ากับ Gate 2 Qubit ซึ่งจึงเป็นความกังวลที่ใหญ่กว่า (Gate 2 Qubit ยังสำคัญเพราะรับผิดชอบในการสร้าง entanglement ระหว่าง Qubit ซึ่ง สันนิษฐานว่าเป็นหนึ่งในปรากฏการณ์ทางฟิสิกส์ที่ให้พลังการประมวลผลควอนตัม)

  • ความเร็ว สุดท้ายคือความเร็วและประสิทธิภาพ โดยสรุป เวลาที่ใช้ในการรันโปรแกรม (รวมถึงทั้งส่วน quantum และ คลาสสิก) ควรสั้นที่สุดเท่าที่จะเป็นไปได้

บทสรุป

มันเป็นช่วงเวลาที่น่าตื่นเต้นมากในการทำงานในสาขาการประมวลผลควอนตัม: เป็นครั้งแรกในประวัติศาสตร์ที่เราสามารถเริ่มสำรวจพื้นที่ของการประมวลผลที่อยู่เกินการประมวลผลคลาสสิก

T.J. Watson เคยทำนายอย่างมีชื่อเสียงว่าตลาดโลกมีสำหรับคอมพิวเตอร์เพียงไม่กี่เครื่อง เราอาจหัวเราะในตอนนี้ที่เขาผิดมากแค่ไหน แต่เมื่อเราทำสิ่งนี้เราต้องยอมรับว่าเราได้ประโยชน์จากการมองย้อนหลัง และเราควรยอมรับด้วยว่าในฐานะมนุษย์ เรามีแนวโน้มทั่วไปในการประมาณศักยภาพของเทคโนโลยีในอนาคตต่ำเกินไปอย่างมาก ตอนนี้ที่เป็นทีของเราและเรารับบทเป็นผู้บุกเบิกยุคแรกของการประมวลผลควอนตัม เราควรคำนึงถึงสิ่งนี้

การประมวลผลควอนตัมมักถูกเปรียบเทียบกับการประมวลผลคลาสสิก เหมือนเป็นสิ่งที่แตกต่างและแข่งขันกัน แต่จากมุมมองที่กว้างขึ้น เราสามารถมองการประมวลผลควอนตัมเป็นเพียงอีกบทหนึ่งในเรื่องราวยาวนาน เป็นธรรมชาติของมนุษย์ที่จะแสวงหาวิธีใหม่ในการประมวลผลและใช้พลังที่โลกธรรมชาติมอบให้เพื่อทำสิ่งนี้ เราทำสิ่งนี้มาหลายศตวรรษแล้ว การประมวลผลควอนตัมมอบเครื่องมือใหม่ให้เราในการพยายามนี้ และขึ้นอยู่กับเราที่จะค้นพบว่าเราสามารถใช้ประโยชน์จากพลังที่มันมอบให้ได้อย่างไร

Source: IBM Quantum docs — updated 17 เม.ย. 2569
English version on doQumentation — updated 7 พ.ค. 2569
This translation based on the English version of approx. 26 มี.ค. 2569