رایانش کوانتومی می‌تواند دنیای محاسبات و پردازش اطلاعات را دگرگون کند و می‌توان آن را یک فناوری انقلابی در صنعت کامپیوتر دانست. با فناوری رایانش کوانتومی می‌توان انجام حجم بسیار زیادی از عملیات‌های محاسباتی را امکان‌پذیر کرد. در ادامه نگاهی به سیر تحول کامپیوترهای کوانتومی و رایانش کوانتومی از گذشته تاکنون خواهیم داشت، ساختار کامپیوترهای کوانتومی را به زبان ساده بیان می‌کنیم و در پایان در مورد مزایای رایانش کوانتومی و چالش‌های پیش روی این فناوری توضیح خواهیم داد.
درست پنجاه سال پیش پردازنده اینتل ۴۰۰۴، نخستین ریزپردازنده دنیا تولید شد و دانشمندان موفق به دستیابی به مهندسی نوینی شدند. این مهندسی نوین از آن زمان تاکنون با سرعت شگفت‌انگیزی تکامل پیدا کرده است. کامپیوترها به لطف پیشرفت قابل‌تحسین قانون مور و رده‌بندی دنارد از ابتدای پیدایش خود همیشه در حال تکامل بوده‌اند و از کامپیوترها و پردازنده‌های نسل قبلی پیشی می‌گرفته‌اند. ظهور گوشی‌های موبایل یکی از دستاوردهای ارزنده این پیشرفت محسوب می‌شود.
قدرت پردازشی گوشی‌های هوشمند امروزی بیشتر از سوپرکامپیوترهای قرن گذشته است؛ زیرا در طراحی و ساخت این گجت‌های کوچک شگفت‌انگیز، قابلیت‌های کاربردی فناوری یادگیری ماشینی و سایر الگوریتم‌ها با یکدیگر ترکیب شده‌اند. در یک جمله باید بگوییم در حال ورود به عصر طلایی معماری کامپیوتری هستیم.

البته متخصصان حوزه سخت‌افزار به‌آسانی به چنین موفقیتی دست نیافته‌اند. چندین دهه پیش بهترین مهندسان صاحب ذهن خلاق در زمینه فیزیک، معماری کامپیوتر و طراحی نرم‌افزار باید با مشارکت یکدیگر خصیصه‌های کشف‌شده الکترون‌ها در زمینه محاسبات را کنترل و از آن‌ها استفاده می‌کردند؛ آن‌ها تمام اکوسیستم تشکیل‌دهنده نرم‌افزار و سخت‌افزار را بر پایه میلیاردها مقادیر باینری (صفر و یک) تشکیل دادند.
سیستم متشکل از این مقادیر تمام پارامترهای لازم جهت ایجاد عملکرد مناسب برای کامپیوترهای رده بالای امروزی را در برداشت؛ از الگوریتم‌ها گرفته تا کامپایلرها، ریزپردازنده‌ها و گیت‌های دیجیتالی (کامپایلرها برنامه‌هایی هستند که دستورالعمل‌ها را به کدهای ماشینی یا زبانی پایین‌تر از سطح زبان برنامه‌نویسی تبدیل می‌کنند تا تشخیص و اجرای آن‌ها توسط کامپیوتر راحت‌تر شود).
در مورد گیت‌های دیجیتالی هم باید بگوییم که آن‌ها در واقع مجموعه‌ای متشکل از اجزایی مثل ترانزیستورها برای انجام عملیات منطقی هستند.
کامپیوترهای کوانتومی و رایانش کوانتومی نیز بر پایه همین اصل تشکیل می‌شوند؛ اما ساختار بسیار پیچیده‌تر و پیشرفته‌تری دارند. اجازه دهید قبل از آشنایی بیشتر با فناوری رایانش کوانتومی ببینیم این فناوری چه کاربردهایی دارد.
روند پیدایش کامپیوترهای کوانتومی در بسیاری از صنایع و آزمایشگاه‌های تحقیقاتی از جمله آزمایشگاه‌های IBM، مایکروسافت، اینتل، مایکروسافت، گوگل و چند ابر شرکت مشابه دیگر آغاز شده است. دولتمردان بسیاری از کشورها نیز در حال سرمایه‌گذاری روی فناوری رایانش کوانتومی هستند. هر زمانی که نمونه اولیه یک کامپیوتر کوانتومی ایجاد می‌شود، تعداد بیت‌های کامپیوترهای کوانتومی که به آن‌ها کیوبیت نیز گفته می‌شود نیز نیز افزایش می‌یابد.
اما آیا تنها با گذشت زمان و کسب پیشرفت‌های بیشتر می‌توان به کامپیوترهای کوانتومی قابل‌استفاده و کاربردی دست یافت؟ چنین فرضیه‌ای کاملاً درست و قابل‌پذیرش نیست؛ زیرا در حال حاضر دانشمندان تنها موفق به ساخت لامپ خلأ شده‌اند که می‌توان به‌ عنوان یک کامپیوتر کوانتومی از آن استفاده کرد (لامپ‌های خلأ که دانشمندان آن‌ها را کامپیوترهای کوانتومی پر سر و صدا نامیده‌اند، ابزارهایی هستند که توانایی تقویت جریان الکترونیکی، قطع و وصل و یکسوسازی آن را دارد) و تنها وعده‌هایی در مورد توانایی‌های شگفت‌انگیز کامپیوترهای کوانتومی برای رفع برخی از مشکلات را داده‌اند.
رایانش کوانتومی
کامپیوترهای خلأ به دلیل اینکه در محیط‌های بسیار شلوغ فعالیت می‌کنند، به میزان زیادی مستعد خطا هستند. برای ساخت کامپیوترهای کوانتومی مناسب برای نیازها و اهداف مختلف (درست مانند کامپیوترهای کلاسیک و متداول) باید خلاقیت و تکنیک بسیار بیشتری را در بین پلتفرم‌های مختلف توسعه داد و اجرا کرد؛ درست مانند سیر تکامل و تحول کامپیوترهای کلاسیک.
البته تقریباً با یقین می‌توان گفت که در صورت ظهور کامپیوترهای کوانتومی، این کامپیوترها جایگاه کامپیوترهای کلاسیک متداول را تصاحب نخواهند کرد؛ بلکه تنها در کنار آن‌ها برای تسریع برخی از عملیات‌های خاص استفاده می‌شوند؛ درست مانند پردازنده‌های گرافیکی امروزی که برای شتاب بخشیدن به پردازش گرافیکی و بهینه‌سازی پیکسل‌ها به کار می‌روند.
از همین رو می‌توان سخت‌افزار کامپیوترهای کوانتومی را به‌عنوان واحدهای پردازشی کوانتومی در نظر گرفت که توسط پردازنده‌های میزبان مثل سی‌پی‌یوها کنترل می‌شوند (یا ممکن است این چنین باشد)؛ به‌عبارت‌دیگر الگوریتم‌های کوانتومی معمولاً با پیش‌پردازش‌ها و پس پردازش‌های کلاسیک در ارتباط هستند و معماری پردازنده‌های کوانتومی باید به گونه‌ای باشد که به‌عنوان پردازنده کمکی در سیستم‌های متداول کلاسیک مورد استفاده قرار گیرند.
مشارکت دانشمندان و افراد متخصص در زمینه پیش‌بینی نیازها و اهداف که منجر به پیدایش کامپیوترهای کلاسیک و ظهور عصر اطلاعات شد، باید برای تکامل و گسترش کامپیوترهای کوانتومی نیز بار دیگر تکرار شود؛ البته این بار باید به‌جای دستیابی به ویژگی‌های ذاتی الکترون‌ها و بهره‌برداری از آن‌ها باید چالش دیگری را نیز پشت سر گذارند که کنترل خصیصه‌های کوانتومی جهان هستی و در اختیار گرفتن آن‌ها در راستای انجام محاسبات است.
تاریخ نقطه آغاز کامپیوترهای کوانتومی به سال‌های آغازین قرن بیستم و به بیان دقیق‌تر به نزاع و مخالفت علمی بین آلبرت انیشتین و نیلز بور در مورد ماهیت جهان فیزیکی پیرامون ما بازمی‌گردد. حال که با پشت پرده کامپیوترهای کوانتومی تا حدودی آشنا شدیم، اجازه دهید کمی هم در مورد ساختار آن توضیح دهیم.
قبل از اینکه غرق در دنیای کامپیوترهای کوانتومی شویم، باید کمی در مورد ماهیت کوانتومی ذرات بدانیم. ویژگی‌های کوانتومی تفاوت بسیار زیادی با ویژگی‌های کلاسیک ذرات دارند. همین ویژگی‌های کوانتومی با قابلیت‌های قوی محاسباتی خود موجب پیدایش کامپیوترهای کوانتومی شده‌اند؛ البته دانشمندان به‌جای تلاش برای دست‌یابی به فرمول مدیریت‌کننده کامپیوترهای کوانتومی، سعی می‌کنند به ادراک مفهومی خصوصیات کوانتومی که قدرت کامپیوترهای کوانتومی را تامین می‌کنند، دست یابند.
در سال ۱۹۲۷ کنفرانسی از سوی شرکت «سولوی» در شهر بروکسل پایتخت بلژیک برگزار شد. در این کنفرانس برترین فیزیکدانان زمان گرد هم جمع شدند تا در مورد پایه و اساس نظریه کوانتوم که به‌تازگی ایجاد شده بود، بحث کنند. در این گردهمایی ۲۹ نفر حضور داشتند که ۱۷ نفر آن‌ها برنده جایزه نوبل بودند.
در این کنفرانس تاریخی بسیار مهم دو شرکت‌کننده اصلی یعنی آلبرت انیشتین و نیلز بور با یکدیگر اختلاف‌نظر جدی و نزاع‌برانگیزی داشتند. نیلز بوز تاثیرگذارترین فرد در شکل‌گیری نظریه کوانتوم بود و از دفاع می‌کرد؛ اما آلبرت انیشتین مصر بود که این نظریه اشتباه است و باید آن را اصلاح کرد.
در جریان این کنفرانس که یک هفته طول کشید، آلبرت انیشتین پیوسته چالش‌های مختلفی را مطرح و آزمایش‌هایی را طراحی می‌کرد که بتواند با استفاده از آن‌ها اشتباهات احتمالی را در نظریه بور بیابد. بور و سایر همکارانش هر روز چالش‌هایی که انیشتین آن‌ها را مطرح کرده بود، بررسی و نظرات انیشتین را رد می‌کردند؛ بور حتی در یک مورد از نظریه نسبیت انیشتین علیه خود او استفاده کرد!
در پایان گفتگو به نظر می‌رسید بور توانسته است حرفش را به کرسی بنشاند و با بیان استدلال با تک‌تک نظرات و چالش‌های مطرح‌شده از سوی انیشتین مخالفت کرد. با این حال انیشتین برخلاف پاسخ‌ها و استدلال‌های بور هنوز هم قانع نشده بود و معتقد بود که این نظریه کامل نیست و چیزی کم دارد.
سطح بهره هوشی
در سال ۱۹۳۳ انیشتین ساکن پریستون شد و دو شخص به نام‌های «ناتان رزان» (Nathan Rosan) و «بوریس پودلکسیی» (Boris Podelsky) را استخدام کرد تا خطایی بالقوه در دستگاه‌های دارای مکانیک کوانتومی را پیدا کنند. این دو نفر با مشارکت یکی دیگر موفق به یافتن تناقضی مربوط به ریاضیات فیزیک کوانتومی شدند.
تناقض آلبرت، ناتان و بوریس که تحت عنوان تناقض یا پارادوکس EPR معرفی شد، ظاهراً ارتباطی غیرممکن بین ذرات را ثابت کرده بود؛ ناتان و بوریس در جریان یافتن این تناقص دریافته بودند که در جهان حقیقی این دو ذره در فاصله‌ای مشخص از یکدیگر می‌توانند نسبت به یکدیگر همبستگی و رفتاری مشابه و یکسان نشان دهند.
برای فهم بهتر این موضوع مثالی را بیان می‌کنیم. تصور کنید دو ذره در زیر دو فنجان با فاصله یک متر از یکدیگر پنهان شدند. از نظر ریاضیات با برداشتن فنجان از روی یک ذره و نگاه کردن به آن، می‌توان به صورت اسرارآمیزی به خصوصیات ذره دومی که همچنان در زیر فنجان مخفی است و رفتار مشابهی با ذره اول دارد، پی برد. همان‌طور که اکثر فیزیکدانان می‌دانند، انیشتین این پدیده و اتفاق را رفتار شبح‌وار در دنیای فیزیکی می‌داند.
در حقیقت مقاله مرتبط با پارادوکس EPR جزو مرجع‌ترین مقالات بود که به دست انیشتین تهیه شده بود و بسیاری از فیزیکدانان و دانشمندان علوم تجربی چندین سال تلاش می‌کردند ابعاد مختلف این تناقض را درک کنند؛ اما آیا آزمایشی وجود داشت که بتواند ثابت کند نظر انیشتین درست است یا نظر بور؟
برخلاف وجود اختلال و ناهماهنگی جدی در معادله مکانیک کوانتومی هنوز حل نشده بود، پروژه منهتن در دهه ۱۹۴۰، اختراع لیزر و ترانزیستورها (اجزای سازنده کامپیوترهای متداول و کلاسیک)، درست بودن تئوری کوانتوم را بیشتر ثابت کرد؛ البته تا دهه ۱۹۶۰ که مبحث درهم‌تنیدگی کوانتومی مطرح شد و دانشمندان نظرات خود را در مورد این مبحث بیان کردند، چندان به نظریه کوانتوم توجه نمی‌شد.
با وجود این که کشفیات دانشمندان در مورد مکانیک کوانتوم همچنان ادامه داشت، چالش‌های نظری که به‌واسطه تناقض EPR مطرح شده بود تا چندین دهه ذهن فیزیکدانان را درگیر خود کرده بودند. متاسفانه درگیری ذهنی و فکری مرتبط با کوانتوم به‌قدری جدی شده بود که باعث اخراج برخی فیزیکدانان از سازمان‌های مرتبط با فیزیک شد.
فیزیکدانی به نام «جان بل» (John Bell) اهل ایرلند شمالی در مورد تناقض EPR کمی سردرگم بود؛ به همین دلیل تصمیم گرفت در اوقات فراغت خود در کنار شغل اصلی‌اش که تحقیق و پژوهش در مورد فیزیک ذرات بود، روی تناقض EPR هم کمی کار کند. وی در سال ۱۹۶۴ مقاله‌ای تحت عنوان پارادوکس «انیشتین-پودولسکی-روزن» (Einstein-Podolsky-Rosen Paradox) منتشر کرد که در آن ثابت کرده بود دو معادله مطرح‌ شده از سوی انیشتین و بور پیش‌بینی‌های متفاوتی را ارائه داده‌اند.

اگر بخواهیم از دیدگاه واپس‌نگری (فهم یک موقعیت یا اتفاق پس از رخ دادن آن) به موضوع نگاه کنیم، این مقاله انقلابی و متحول‌کننده در تمام تاریخ علم فیزیک بود؛ اما توجه بسیار کمی به آن شد و تنها در مجله‌ای علمی که اصلاً شناخته‌ شده نبود، منتشر شد.
اما در سال ۱۹۷۲ فیزیکدانی به نام «جان کلاستر» (John Clauser) این مقاله را به‌صورت اتفاقی دید و شیفته آن شد؛ اما از خود بپرسید آیا شواهد تجربی برای اثبات مطالب ارائه‌ شده در این مقاله وجود دارد یا خیر؟ به همین دلیل تصمیم گرفت خودش آزمایش‌هایی را برای کسب اطمینان از درست بودن مطالب ارائه‌ شده در این مقاله انجام دهد.
وی برای انجام این آزمایش‌ها از «استوارت فریدمن» (Stuart Freedman)، دانشمندی در زمینه نوترینو نیز کمک گرفت و از پرتوهای لیزر که به‌تازگی کشف شده بود، استفاده کرد.
او برای انجام این آزمایش از روش ساده‌ای استفاده کرد و تنها ماده دربردارنده ‌اتم کلسیم را در معرض تابش لیزر قرارداد. در واقع در این آزمایش در هنگام تاباندن اشعه لیزر، دو ذره فوتون به ماده تابانیده می‌شد و طبق نظریه کوانتوم باید دو ذره فوتون با آن ماده کاملاً ترکیب و درهم‌تنیده می‌شدند. آن‌ها برای اندازه‌گیری میزان فوتون از تشخیص‌دهنده فوتون در پشت فیلتر استفاده می‌کردند.
آن‌ها در این آزمایش می‌خواستند ببینند آیا فوتون‌ها در هنگام عبور از فیلتر همبستگی نشان می‌دهند یا خیر. با کمال تعجب پیش‌بینی و نظریه بور درست از آب درآمد و مشخص شد همبستگی شبح‌وار بین ذرات فوتون با نتایج این آزمایش‌ها، مطابقت دارد.
البته برخی افراد نتایج این آزمایش را به‌طور کامل نپذیرفتند. برخی از افراد معتقد بودند که ممکن است فیلترهای مورد بررسی در این آزمایش آنطور که باید، تصادفی نبوده‌اند و به همین دلیل ممکن است نتایج آزمایش‌ها تحت تاثیر قرار گرفته باشند.
گره‌ های کوانتمی
در سال ۲۰۱۷ آزمایشی با استفاده از توپ کیهانی در دانشگاه وین به‌صورت کامل اجرا شد که در حقیقت آزمایشی مشابه آزمایش انجام‌ شده در سال ۱۹۷۴ بود؛ اما در این آزمایش از نور اختروش (یک هسته فعال با نور بسیار شدید فضای دوردست) با عمر ۸ میلیارد سال برای کنترل فیلترها در دو تلسکوپ مورد استفاده در آزمایش به‌کار گرفته شد. در این آزمایش هم نتیجه مشابهی به دست آمد و ثابت شد ذراتی هم که با یکدیگر فاصله دارند، همبستگی دارند.
در پشت پرده نحوه کار کامپیوترهای کوانتومی، مفهومی بنیادی قرار دارد. اجزای اساسی و بنیادین کامپیوترهای مدرن امروزی «بیت‌ها» هستند، زمانی که به‌صورت رشته‌ای با یکدیگر ترکیب می‌شوند، می‌توانند اطلاعات را رمزگشایی کنند و محاسبات را انجام دهند. از سوی دیگر بیت‌های کوانتومی که به‌ عنوان کیوبیت شناخته می‌شوند نیز با یکدیگر درهم‌تنیده هستند و ایجاد تغییر در یک بیت، بیت ثانوی را نیز تحت تاثیر قرار می‌دهد. این رفتار درهم‌تنیده و هم‌بسته از نظر حجم اطلاعاتی که می‌توانند ذخیره و تغییر داده شوند، کاملاً واضح و قابل توضیح است.
اگر بیشتر در مورد مبحث فکر کنیم، به‌خوبی درمی‌یابیم که برای درک و فهم بهتر از کامپیوترهای کوانتومی، باید ناشناخته‌های بیشتری در مورد فیزیک کوانتوم را کشف کنیم.
درهم تنیدگی کوانتومی تنها بخشی از معادله‌ای است که باعث می‌شود کامپیوترهای کوانتومی از اساس و پایه از کامپیوترهای کلاسیک متداول متمایز شوند. مفهوم بسیار مهم دیگری که باید در نظر گرفته شود، برهم‌نهی کوانتومی است. این اصل بیانگر این است که یک ذره کوانتومی تا زمانی که سنجش شود، روی ذره‌ای دیگر قرار می‌گیرد. اجازه دهید ابتدا در مورد بخش دوم نظریه کوانتومی که در مورد ذرات کوانتومی است، توضیح دهیم و آن را باز کنیم. این ویژگی با فیزیکدان اتریشی، «آروین شرودینگر» و آزمایش نظری او در مورد گربه‌ای در داخل جعبه ارتباط دارد.
به بیان ساده، شرودینگر معتقد است چنانچه گربه‌ای را به همراه چیزی که می‌تواند گربه را بکشد (یک اتم رادیواکتیو)، در جعبه‌ای قرار دهیم و آن را کاملاً مهروموم کنیم، تا زمانی که جعبه را باز نکنیم نمی‌توانیم بفهمیم گربه زنده است یا مرده؛ بنابراین تا زمانی که جعبه باز نشود، هم احتمال مرگ گربه و هم احتمال زنده بودن او وجود دارد.
اگر بخواهیم واضح‌تر این مسئله را بیان کنیم، باید بگویم تا زمانی که در جعبه بسته باشد، احتمال زنده‌بودن یا مرگ گربه کم نیست و تنها زمانی در مورد این موضوع می‌توانیم مطمئن شویم که در جعبه را باز کنید؛ اگرچه در این حالت اگرچه در مورد موضوع مطمئن شده‌ایم، اما به سیستم آسیب رسیده است.

اجازه دهید برای فهم بهتر این موضوع، مثال فنی‌تری را بیان کنیم. یک بیت کلاسیک تنها می‌تواند دو حالت داشته باشد و یا در وضعیت صفر یا وضعیت یک قرار داشته باشد؛ اما تفاوت بنیادی بیت کوانتوم و بیت کلاسیک این است که هم‌زمان بخشی از این بیت می‌تواند صفر و بخش دیگر آن می‌تواند یک باشد. چنین وضعیتی از دو مقدار کنار هم را برهم‌نهی می‌نامند؛ بنابراین به‌ عنوان‌ مثال قبل از سنجش کیوبیت ۲۵ درصد یک بیت می‌تواند در وضعیت صفر و ۷۵ درصد دیگر در وضعیت یک باشد؛ اما زمانی که اندازه‌گیری و سنجش انجام شد، وضعیت بیت تغییر می‌کند و مقدار مشاهده‌ شده یا صفر است یا یک (وجود هر دو حالت ممکن نیست).
می‌توان گفت در صورتی‌که با استفاده از یک کیوبیت، صدها هزار محاسبه را انجام دهید، احتمالاً در ۲۵ درصد محاسبات در وضعیت صفر و در ۷۵ درصد محاسبات در وضعیت یک قرار می‌گیرد؛ اما زمانی که هیچ محاسبه‌ای انجام نمی‌دهد، در وضعیت برهم‌نهی قرار دارد. ماهیت کوانتومی تصور ذهنی ما در مورد کامپیوتر که معمولاً هم بر اساس شناخت نسبت به کامپیوترهای متفاوت شکل گرفته است، از پایه و اساس تغییر می‌دهد و حتی ممکن است ما را شگفت‌زده کند؛ البته چنانچه از دید علم ریاضی به چنین ساختاری بنگریم، درمی‌یابیم که این سیستم به‌خوبی می‌تواند عمل کند.
اگر از دید قانون جبر بولی به کامپیوترهای کلاسیک به چشم سیستم انجام دهنده عملیات مختلف نگاه کنیم، می‌توانیم بگوییم کامپیوترهای کوانتومی هم طبق قانون جبر خطی عمل می‌کنند. این موضوع باعث می‌شود در فرایند طراحی کامپیوترهای کوانتومی، کار وارد سطح جدیدی از پیچیدگی می‌شود؛ اما از سوی دیگر فهم ساختار اصلی‌ترین اجزای تشکیل‌دهنده کامپیوترهای کوانتومی را راحت‌تر می‌کند.
درهم تنیدگی و برهم‌نهی را می‌توان به‌عنوان دو پدیده فیزیکی در نظر گرفت که می‌توانند رایانش کوانتومی را امکان‌پذیر کنند؛ اما متاسفانه بهره‌مندی از قدرت بدیهی و بالقوه ذرات کوانتوم به دلیل ناهمدوستی کوانتومی امکان‌پذیر نیست.
در حال حاضر جریان در ترانزیستورها برای قرارگیری در یکی از دو وضعیت صفر یا یک در حین محاسبات به‌راحتی امکان‌پذیر است و هیچ مشکلی از این بابت وجود ندارد؛ حتی حفظ جریان پس از زمانی که اطلاعات در حافظه پایدار ذخیره می‌شوند نیز بدون مشکل انجام می‌شود؛ اما در سیستم کامپیوترهای کوانتومی وضعیت این چنین نیست و کیوبیت‌ها با گذشت زمان تجزیه می‌شوند یا ناهمدوستی بین آن‌ها ایجاد می‌شود؛ بنابراین چگونگی انجام محاسبات با کامپیوترهای کوانتومی به مبحثی بسیار چالش‌برانگیز تبدیل شده است.

از سوی دیگر لزوم تلاش برای کنترل کیوبیت‌هایی که درهم‌تنیده شده‌اند را نیز باید در نظر بگیریم. این مسئله به عصر کامپیوترهای کوانتومی پرسروصدا (noisy )intermediate-scale quantum) که هم‌اکنون در آن هستیم، بازمی‌گردد. اگرچه کامپیوترهای کوانتومی در بهترین حالت می‌توانند ده‌ها کیوبیت را در خود جای دهند، اما از بین آن‌ها تنها ۳ تا ۵ کیوبیت برای انجام محاسبات مفید استفاده می‌شوند.
سایر کیوبیت‌ها عمدتاً برای رفع خطاهای ایجاد شده در محیط پرسروصدایی که در آن تلاش می‌شود سطح کوانتوم کنترل شود، به کار گرفته می‌شوند. فعالیت پژوهشی کنونی شدیداً در حال تلاش برای کنترل مناسب وضعیت کوانتوم‌ها علی‌رغم وجود سروصدا در هر ذره است.
خوشبختانه فیزیک کوانتومی امکان دستیابی به موفقیت‌های دست‌یافتنی بسیار زیادی را فراهم کرده است؛ اما باید به خاطر داشته باشیم که فهم نحوه کار مکانیک کوانتومی و نحوه کنترل و بهره‌مندی از قابلیت‌های مکانیک کوانتومی برای ساخت کامپیوترهای کوانتومی، دو چالش کاملاً متفاوت از یکدیگر هستند.
بیایید تصور کنیم که حتی برای یک دقیقه هم که شده، توانایی‌های فنی برای کنترل کامل ذرات کوانتومی برای انجام محاسبات به‌ دست ‌آمده و مشکل سروصدا هم کاملاً برطرف شده است. در چنین شرایطی چه کارهایی می‌توانیم با کامپیوترهای کوانتومی انجام دهیم که کامپیوترهای کلاسیک متداول قادر به انجام آن‌ها نیستند؟ یا از نظر فنی چه الگوریتم‌هایی تضمین‌کننده برتری کامپیوترهای کوانتومی به کامپیوترهای کلاسیک هستند؟
معروف‌ترین الگوریتم‌هایی که دانشمندان را برای سرمایه‌گذاری روی پژوهش‌های مرتبط با کامپیوترهای کوانتومی به‌شدت ترغیب می‌کنند، «الگوریتم شر» برای انجام محاسبات مرتبط با تجزیه اعداد طبیعی و «الگوریتم گرور» برای پژوهش و تحقیق است.
الگوریتم شر به این صورت است که اعداد صحیح مشخصی را در اختیار سیستم قرار می‌دهیم و از سیستم می‌خواهیم تمام عوامل اول آن‌ها را بیابد. تجزیه اعداد طبیعی اصلی‌ترین فعالیت محاسباتی در هنگام رمزنگاری محسوب می‌شود و دلیل آن هم لزوم انجام فعالیت‌های محاسباتی پیچیده برای تجزیه تعداد بسیار زیادی از اعداد صحیح است.
این الگوریتم کوانتومی بسیار سریع‌تر از بهترین کامپیوترهای متداول عمل می‌کند و دستیابی به چنین سرعتی به دلیل بهره‌مندی گسترده از ویژگی‌های ذکر شده برای درهم‌تنیدگی کوانتومی و برهم‌نهی کوانتومی امکان‌پذیر شده است؛ البته چنانچه استفاده از این الگوریتم به‌راحتی امکان‌پذیر شود، می‌توان در دنیای واقعی استفاده‌های جالبی از آن کرد؛ مثلاً چنانچه از کامپیوترهای کوانتومی برای اهداف مخرب استفاده شود، می‌توان امنیت رمزنگاری را کاملا بی‌اثر کرد.
رایانش کوانتومی
الگوریتم گرور نیز به همین میزان نسبت به الگوریتم‌های کلاسیک مورد استفاده برای تحقیق برتری دارد. با وجود این که در صورت استفاده از الگوریتم‌های کلاسیک در هنگام انجام عملیات تحقیقاتی اکثر موارد مورد تحقیق باید بررسی شوند، اما با استفاده از الگوریتم گرور می‌توان با دست یافتن به جذر تمام موارد مورد تحقیق و مطالعه، پژوهش را با اطمینان بالا از درست بودن نتیجه به پایان رساند.
به دلیل اینکه پژوهش، هسته اصلی بسیاری از الگوریتم‌ها محسوب می‌شود، استفاده از الگوریتم گرور می‌تواند چشم‌انداز تمام محاسبات علمی را به میزان بسیار چشمگیری تغییر دهد و سرعت اکتشافات برای حل مشکلات و معضل‌های بسیار مهم را افزایش دهد.
برای درک بهتر کاربرد برهم‌نهی کوانتومی مثالی را بیان می‌کنیم که می‌تواند ذهنتان را کاملاً درگیر کند. به نظر شما اگر قدرت الگوریتم شر و الگوریتم گرور را با یکدیگر ترکیب کنیم، چه اتفاقی رخ می‌دهد؟ اگر بخواهیم پسورد N بیتی را با کامپیوترهای متداول هک کنیم، این کامپیوترها باید تمام ترکیب‌های ممکن در یک پسورد را به‌صورت جداگانه و به ترتیب بررسی و امتحان کنند تا بتواند به گذرواژه درست دست یابند.
به همین دلیل رمزنگاری، در عصر حاضر فناوری بسیار مفیدی محسوب می‌شود اما در صورت استفاده از سیستم N کیوبیتی، ازنظر تئوری می‌توان تمام ترکیب‌های ممکن پسورد را به‌صورت هم‌زمان انجام داد. چنین موفقیتی می‌تواند خبر بسیار خوبی برای هکرها باشد! در ضمن می‌توان با استفاده از الگوریتم گرور، محتمل‌ترین ترکیب درست را به‌سرعت پیدا کرد.
هک کردن پسوردها و دور زدن رمزنگاری‌ها تنها کاربرد کامپیوترهای کوانتومی نیست (البته محبوب‌ترین کاربرد محسوب می‌شود). با استفاده از کامپیوترهای کوانتومی می‌توان کانال‌های ارتباطی بسیار امنی را طراحی کرد. فیزیکدانی به نام «جیان وی پن» (Jian-Wei Pan) نشان داده است در صورت بررسی دقیق سیستم کوانتومی‌ می‌توان از ویژگی‌های درهم‌تنیدگی کوانتومی برای کشف بسیاری از موضوعات پرده برداشت.
به دلیل اینکه ذرات درهم‌تنیده به احتمال بسیار زیاد باید رفتار مشابهی داشته باشند، ممانعت از انتقال اطلاعات به‌طور ذاتی می‌تواند ویژگی‌های یک ذره را تغییر دهد و آن را از ذره ثانوی جدا کند. در حال حاضر این فناوری در بانک‌ها و شرکت‌های محافظت‌کننده از اطلاعات جهت ارتقای امنیت زیرساخت‌های آن‌ها استفاده می‌شود؛ اینترنت کوانتومی هم می‌تواند به لطف پردازش کوانتومی امکان‌پذیر شود؛ البته درحال حاضر این فناوری تنها در حد تئوری و نظریه است و تنها می‌توان شیوه طراحی آن را تصور کرد.
البته دستیابی به این الگوریتم‌ها و عملی شدن آن‌ها در حال حاضر دور از ذهن است و به احتمال بسیار زیاد تحقق چنین اهدافی چندین دهه طول می‌کشد؛ زیرا برای دستیابی به چنین موفقیتی باید تعداد زیادی کیوبیت مطمئن در اختیار گرفته شود. در حال حاضر دانشمندان و پژوهشگران به دنبال دستیابی به الگوریتم‌های قابل‌ اجرا توسط کامپیوترهای NISQ هستند که بتواند برهم‌نهی کوانتومی در سیستمی پرسروصدا را ثابت کند.
رایانش کوانتومی
الگوریتم‌هایی مثل الگوریتم‌ VQE و الگوریتم QAOA شاخص‌ترین الگوریتم‌های مورد انتظار هستند که می‌توان در کوتاه‌مدت از آن‌ها برای دستیابی به قابلیت‌های بالقوه پردازش کوانتومی استفاده کرد. مطمئناً طراحی الگوریتم‌های کوانتومی می‌تواند دستاوردهای زیادی در سال‌های پیش رو داشته باشد؛ اما دانشمندان در زمان کنونی و عصر کامپیوترهای امروزی نیز به لطف این اتفاق بزرگ در حال دستیابی به الگوریتم‌های کلاسیک بهبودیافته هستند. بازخوردهای مستمر، زمینه را برای توسعه موفقیت‌های نوین در علم فراهم می‌کند و این اتفاق می‌تواند به ساخت پردازنده‌های کوانتومی در مقیاس‌های بزرگ و همچنین تسهیل دسترسی به آن‌ها منجر شود.
بدون تردید مبحث پردازش کوانتوم نیازمند توجه ویژه‌ای است و در ابعاد مختلف نوآوری می‌طلبد. اگر به نخستین روزهای پیدایش کامپیوترهای متداول نگاهی بیندازیم، می‌بینیم فرایندهای مرتبط با فناوری‌های ساخت سخت‌افزارها بارها تکرار شده‌اند و وسایل جدیدی هم اختراع شد.
در حال حاضر طراحی کیوبیت‌ها و سیستم کوانتومی و مباحث مرتبط ازجمله نوع ذرات اتمیک مورد استفاده، نحوه دگرگون‌سازی کوانتوم برای انجام محاسبات و نحوه سنجش سیستم، موضوعاتی هستند که تحقیقات زیادی پیرامون آن‌ها انجام می‌شود.
چالش بزرگ دیگر در عصر پس از کامپیوترهای کوانتومی پرسروصدا، کاهش سروصدا است، متاسفانه ناهمدوستی کوانتومی بهره‌مندی از قابلیت‌های پردازش کوانتومی را محدود می‌کند. کسب دانش در مورد نحوه ایجاد سیستم سخت‌افزاری و نرم‌افزاری قابل‌اعتماد و مناسب، یادآور فعالیت‌های انجام‌ شده در سال‌های دهه‌های ۱۹۶۰ و ۱۹۷۰ است.
در آن سال‌ها منابع قابل‌استفاده برای ساخت کامپیوترهای کلاسیک امروزی، کمیاب و غیرقابل‌اعتماد بودند. برای توسعه کامپیوترهای کوانتومی نیز باید برای ساخت سیستم‌های کارآمد کوانتومی به دانش کافی دست پیدا کنیم که خود چالش بزرگی محسوب می‌شود.
کامپیوتر کوانتومی
ساخت سیستم‌های رایانش کوانتومی قابل‌ استفاده برای انجام محاسبات، سرگرمی و انجام پژوهش‌های علمی، هدف نهایی حوزه پردازش کوانتومی محسوب می‌شود. برای رسیدن به این هدف باید ببینیم چگونه می‌توان پردازنده‌های کوانتومی را با کامپیوترهای متداول ادغام کرد. همچنین باید ببینیم کتابخانه‌ها، کامپایلرها، واسط‌های برنامه‌نویسی (واسط‌های برنامه‌نویسی ابزاری هستند که امکان استفاده نرم‌افزارها از ویژگی‌های سیستم‌عامل کامپیوتر را فراهم می کنند) و دیگر ابزارهای سیستمی که امکان ایجاد برنامه برای ذرات فیزیکی بنیادی طبیعت را فراهم می‌کنند، در کجا یافت می‌شوند؟
در ضمن باید به دنبال یافتن کاربردها و فواید بالقوه کامپیوترهای کوانتومی نیز باشیم و ببینیم پردازش کوانتومی چگونه دنیای ما را تغییر می‌دهد و چگونه باید با آن تعامل داشته باشیم.
برای گفتگو با کاربران، وارد حساب کاربری خود شوید.
تمامی حقوق برای وبسایت دیجیاتو محفوظ است.

source

توسط techkhabari

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *