نویز را دست کم نگیرید
از زمانی که David Deutsch، فیزیکدان بریتانیایی، برای اولین بار در مقاله ای در 1985 با فرمول بندی ماشین تورینگ کوانتومی، رایانش کوانتومی را بنیان گذاری کرد، هدف استفاده از قوانین فیزیک کوانتومی برای انجام محاسبات به شیوه ای بود که کامپیوترهای کلاسیک از حل آن به صورت بهینه ناتوان بودند. پس از همکاری با ریچارد جوزا در 1992 و ارائه الگوریتم Deutsch-Jozsa، نشان داده شد که کامپیوترهای کوانتومی، حداقل به صورت نظری میتوانند به طور نمایی محاسبات را سرعت ببخشند. اما اگر این معجزه محاسباتی به صورت عملی قابل ساخت و بهره برداری نباشد، تمام تلاش های نظری برای نشان دادن برتری کوانتومی ارزشی جز یک سرگرمی ریاضی نخواهند داشت.
آیا کامپیوترهای کوانتومی اساسا قابلیت تحقق فیزیکی دارند؟
مدل های متنوعی تا به حال به عنوان کاندیدهای تحقق کامپیوترهای کوانتومی ارائه شده اند که هرکدام دارای خواص و درنتیجه، نقاط قوت و ضعف خود هستند که اشاره به آنها بل به صورت مختصر از حوصله این نوشتار خارج است. نکته مهمی که در تمام این پیاده سازی ها تا به امروز وجود دارد، وجود نویز در ساختار این دستگاه ها و تاثیر گاها شگرفی که بر عملکرد آنها دارند، هست. راه حل های مختلفی برای مقابله با این تاثیر پیشنهاد شده که از جمله آنها میتوان به کدهای تصحیح خطای کوانتومی که ترکیبی از راهکارهای ریاضی و فیزیکی را دربرمیگیرد اشاره کرد. همچنین کاهش دما و فراهم کردن شرایط cryogenic از جمله راه حل های دیگری است که شامل چالش های فیزیکی بیشتری می شود. اما طبق انتظار، هیچگاه خطا به مقدار صفر نمی رسد و همیشه مقداری نویز در سیستم گریبان گیر ما خواهد بود و درحال حاضر نیز، هرکدام از روش های فوق و سایر روش هایی که اشاره نشد، بهترین کارکرد خود را ندارند و هنوز در این حوزه تحقیقات به صورت فعال دنبال می شود.
به دوره NISQ خوش آمدید!
ایده کامپیوترهای شخصی، شاید امروزه برای ما عادی و پیش پا افتاده باشد ولی قطعا برای کاربران کامپیوتر ENIAC که مجبور بودند برای انجام محاسبات سختی های استفاده از Punch-card و سروکله زدن با یک دستگاه 27 تنی را به جان بخرند، تصوری رویایی به شمار می رفت. با یک تمثیل ظریف، میتوان گفت که ما در حال حاضر در برهه ای از تاریخ هستیم که کامپیوترهای کوانتومی موجود از لحاظ مقایسه عملکرد فعلی با عملکردی که از آنها انتظار می رود، به مانند ENIAC هستند در مقابله با ابرکامپیوترهایی که در چشم برهم زدنی، میلیاردها عملیات انجام میدهند.
چرا این دوره مهم است؟
چون پرداختن به این نکته که این دوره چه چیز نیست، برای ما آموزنده است. از کامپیوترهای این دوره نباید انتظار تمام مزیت های محاسباتی ای که محاسبات کوانتومی بالقوه درای آن هستند، داشت. دلیل این امر، ناتوانی کامپیوترهای نویزی در استفاده از تمام فضای حل مساله، معروف به فضای هیلبرت است. برای اینکه بتوان برای این دوره، کاربردی متصور شد، مجبور به متوسل شدن به تکنیک های تصحیح خطا هستیم. به طور خلاصه، این تکنیک های تصحیح خطا، اطلاعات کوانتومی را با استفاده از چندین کیوبیت(بیت کوانتومی) فیزیکی کد می کنند و به مجموعه کیوبیت های فیزیکی، یک کیوبیت منطقی گفته می شود. اما حتی با وجود همه اینها باز هم محدودیت دسترسی به فضای هیلبرت برای کامپیوترهای این دوره، تعیین کننده است و قابل چشم پوشی نیست.
شکست برتری جویان کوانتومی از همتایان کلاسیک
کاربر Henry Liu، در پستی به تاریخ 14 June، از انتشار مقاله ای که در آن، شبیه سازی نمونه برداری بوزونی گوسی به صورت بهینه روی ابرکامپیوترها نشان داده می شود، خبر داد. نکته اصلی این مقاله، استفاده از تمامی نقص های آزمایشات پیشین نمونه برداری بوزونی گوسی مانند اثر نویز و .... برای پیاده سازی شبیه سازی این پدیده روی ابرکامپیوترها به صورت بهینه بود. البته در abstract مقاله واضحا عنوان می شود که شبیه سازی نمونه برداری بوزونی گوسی بدون نویز روی کامپیوترهای کلاسیک دشوار خواهد بود ولی این ابدا به معنی عدم توانایی شبیه سازی بهینه نمونه های فیزیکی آن روی کامپیوترهای کلاسیک نیست. همچنین ادعای این مقاله، کیفیت بالاتر شبیه سازی نسبت به نمونه های آزمایشی است که درصورت درست بودن این ادعا، نشان دهنده این است که شاید بزرگترین چالشی که صنعت کامپیوترهای کوانتومی با آن رو به رو است، کنترل نویز و بهبود کیفیت تحقق فیزیکی باشد.
حقه شبیه سازها
محاسبات کوانتومی توسط مدل های مختلفی قابل پیاده سازی است که برخی از آنها، به منظور انجام محاسبات خاصی معرفی شده اند. در محاسبات کلاسیک، تورینگ نشان داد که مدل های محاسباتی دیگر قابل شبیه سازی به صورت بهینه روی ماشین های تورینگ هستند و بدین ترتیب نشان داد که مدل محاسباتی اهمیت چندانی در نحوه انجام انها و عملکرد انجام الگوریتم نخواهد داشت. اما برای مدل های محاسباتی کوانتومی وضعیت بر منوال دیگری است. برخی از مدل های معرفی شده، مدل های جهانشمول نیستند، درنتیجه میتوان مسائلی را یافت که قابل تبدیل به این مدل ها و درنتیجه قابل حل نیستند. در مقابل، مدلهای جهانشمول حداقل از دید نظری قابلیت حل تمامی مسائل را دارا هستند. دو مورد از مهم ترین این مدل ها عبارتند از:
- مدل مداری
- آنیلینگ کوانتومی
که مدل مداری، جهانشمول است ولی آنیلینگ این گونه نیست. نشان داده شده است که مدل آنیلینگ کوانتومی، قابلیت حل مسائل بهینه سازی را به طور کاراتری نسبت به مدل مداری و سایر مدلهای جهانشمول داراست.
شاید به طور شهودی، اینطور به نظر برسد که اگر برای محاسبات کوانتومی، نیاز به کامپیوترهای کوانتومی داریم، پس امکان شبیه سازی سیستم های کوانتومی بدون نویز روی کامپیوترهای کلاسیک وجود ندارد. این در صورتی است که امروزه شرکت IBM، شبیه ساز پرطرفدار خود به نام Qiskit را دارد که در اصل کتابخانه ای مبتنی بر زبان پایتون است که امکان شبیه سازی مدارهای کوانتومی، از طراحی تا اجرا روی شبیه ساز را داراست و برای آموزش محاسبات کوانتومی نیز، وسیله ای کارا و جذاب به شمار می رود. یکی از نکاتی که به این شبیه سازها اجازه شبیه سازی گیت های کوانتومی منطقی را روی دستگاه های کلاسیک میدهد، قضیه Gottesman-Knill است که نشان میدهد تمامی مدارهای کوانتومی که فقط شامل مراحل آماده سازی حالت، اعمال گیت های کلیفورد و اندازه گیری باشد، قابلیت شبیه سازی به صورت کارا را روی دستگاه های کلاسیک داراست. گیت های کلیفورد، که به نام ریاضیدان انگلیسی، ویلیام کلیفورد نام گذاری شده اند که فعلا آنها را یک دسته بندی خاص از گیت های منطقی کوانتومی میدانیم.
بنابراین شبیه سازها برای انجام محاسبات مربوط به گیت های کلیفورد، مشکل خاصی نخواهند داشت ولی خوشبختانه، همه گیت های منطقی کوانتومی در این دسته بندی جای نمیگیرند. اگر نشان داده شود که سایر گیت های منطقی به غیر از کلیفورد نیز، قابل شبیه سازی به صورت کارا هستند، در این صورت هدف اصلی حوزه محاسبات کوانتومی، زیر سوال خواهد رفت.
کانال تلگرامی دیدگاه : t.me/ViewPointPublication
مطلبی دیگر از این انتشارات
رویای لاپلاس
مطلبی دیگر از این انتشارات
در جستجوی AZ-5 هوش مصنوعی
مطلبی دیگر از این انتشارات
تکامل نظریات