رایانش کوانتومی چیست و چه زمانی شاهد اولین کامپیوتر کوانتومی به‌معنای واقعی خواهیم بود؟

رایانش کوانتومی محاسبات کوانتومی دریچه‌ ورود به دنیایی است که پیچیده‌ترین پردازش‌ها در کسری از ثانیه انجام می‌شوند. این همان تحول بزرگی است که شاید فاصله زیادی با آن داشته باشیم، اما به سرعت در حال نزدیک ‌شدن به آن هستیم…

خوشبختانه در برهه‌ای از زمان قرار داریم که فناوری مورد توجه شرکت‌ها و دولت‌ها قرار گرفته و روزانه میلیاردها کاربر در سراسر جهان از فناوری‌های جذاب و پیچیده برای انجام کارهای شخصی و تجاری استفاده می‌کنند. تاکنون چند نقطه‌ عطف تاریخی بزرگ در دنیای محاسبات به وجود آمده که ظهور کامپیوترهای مکانیکی، ساخت کامپیوترهای شخصی مبتنی بر ترانزیستور و در نهایت ساخت گوشی‌های هوشمند از بزرگ‌‌ترین تحولات این حوزه است. با این حال، محاسبات کوانتومی را باید سرآغازی بر یک تحول بزرگ‌تر توصیف کرد که همه چیز را دستخوش تغییرات اساسی خواهد کرد.

یکی از بزرگ‌ترین و مهم‌ترین محدودیت‌های کامپیوتر‌های کلاسیک کوچک‌سازی ترانزیستورها است. درحال‌حاضر شرکت‌های تراشه‌سازی واحدهای ترانزیستور را به اندازه یک اتم کوچک کرده‌اند تا قانون مور حفظ شود. به بیان دقیق‌تر، کاری که دانشمندان انجام داده‌اند این است که در سیلیکونی به ابعاد یک سکه کوچک میلیاردها ترانزیستور را قرار داده‌اند تا کامپیوترها بتوانند کارهای محاسباتی باورنکردنی انجام دهند.

امروزه تراشه‌های محاسباتی در دستگاه‌های مختلفی قرار دارند که به کاربران اجازه ارسال ایمیل، تعامل با دوستان در شبکه‌های محاسباتی، خریدهای آنلاین، انجام بازی‌های ویدئویی و غیره را می‌دهند، اما توان پردازشی لازم برای انجام کارهای تحقیقاتی محاسباتی پیشرفته‌ای مثل کاوش در ناشناخته‌های دنیای علم مثل کالبدشکافی و دست‌کاری بی‌عیب و نقص ژنوم انسان، ارزیابی دقیق عناصر تشکیل‌دهنده سیاه‌چاله و حل محاسبات پیچیده ریاضی را ندارند. به طور کلی، کامپیوتر‌های امروزی بر مبنای دو تکنیک ساده قادر به انجام محاسبات هستند. آن‌ها می‌توانند اعداد را در حافظه ذخیره و اعداد ذخیره‌شده را با عملیات ساده ریاضی (مانند جمع و تفریق) پردازش کنند. به‌علاوه، آن‌ها می‌توانند با پردازش عملیات ساده در قالب مفهومی به نام الگوریتم، کارهای پیچیده‌تری انجام دهند. هر دو ترفند کلیدی کامپیوتر‌های کلاسیک (ذخیره و پردازش)، با استفاده از سوئیچ‌هایی به نام ترانزیستور و در قالب صفرها و یک‌ها انجام می‌شود.

کامپیوترهای کنونی به اشباع‌شدن نزدیک می‌شوند

کامپیوتر‌های امروزی برای انجام محاسبات از واحدهایی به نام بیت استفاده می‌کنند. بیت جریانی از پالس‌های الکتریکی یا نوری توصیف‌کننده اعداد صفر یا یک است. تمامی فعالیت‌هایی که توسط سامانه‌های هوشمند انجام می‌دهید از توییت‌ها و ایمیل‌ها گرفته تا آهنگ‌ها و محتوای ویدئویی، رشته‌های طولانی از اعداد دودویی هستند. در این میان، ترانزیستورها وظیفه ذخیره و پردازش این اعداد دودویی را بر عهده دارند. این سوئیچ‌های کوچک عملکردی شبیه به کلیدهای پریز برق دارند که می‌توانند روشن یا خاموش باشند. از حالت روشن آن‌ها می‌توان برای ذخیره‌سازی اعداد دودویی یک و حالت خاموش آن‌ها برای اعداد دودویی صفر استفاده کرد. به بیان دقیق‌تر، هر یک از صفرها یا یک‌ها، عدد دوتایی یا بیت نامیده می‌شود. بر مبنای این اصل با یک رشته هشت بیتی می‌توان ۲۵۵ کاراکتر مختلف نظیر A-Z ، a-z ، 0-9 و رایج‌ترین نمادها را ذخیره کرد. عملکرد کامپیوترها با استفاده از مدارهایی به نام دروازه‌های منطقی که از تعدادی ترانزیستور متصل به هم ساخته شده‌اند محاسبه می‌شوند. دروازه‌های منطقی الگوهای بیت‌هایی که در حافظه‌های موقت (رجیستر) ذخیره می‌شوند را مقایسه و آن‌ها را به الگوهای جدیدی از بیت‌ها تبدیل می‌کنند. به بیان دقیق‌تر، عملیات ساده جمع، تفریق، ضرب و تقسیم را انجام می‌دهد. از نظر فیزیکی، الگوریتمی که محاسبه خاصی را انجام می‌دهد، به شکل یک مدار الکترونیکی ساخته‌ شده از تعدادی دروازه منطقی است و خروجی از یک دروازه به عنوان ورودی بعدی وارد می‌شود. این درست همان نقطه‌ای است که توان محاسباتی کامپیوترها به مرز اشباع نزدیک می‌شوند. هرچه اطلاعات بیشتری برای ذخیره‌سازی نیاز باشد، به بیت‌ها و ترانزیستورهای بیشتری نیاز است. بنابراین، ترانزیستورها وظیفه مهمی در کامپیوترهای امروزی دارند. در حالی که نیاز ما به انجام محاسباتی پیشرفته و توان پردازشی قدرتمند زیادتر می‌شود به سرعت در حال حرکت به سمت محدودیت‌های کوچک‌سازی ترانزیستورها هستیم. امروزه، شرکت‌های تراشه ساز بزرگ مثل TSMC در حال تحقیق روی تراشه‌های یک نانومتری هستند. اصلی‌ترین چالش شرکت‌های سازنده تراشه یافتن ساختار ترانزیستور و مواد ترانزیستوری مناسب است. در این میان، تماس‌های ترانزیستوری که نیرو را به ترانزیستور می‌رسانند، برای عملکرد آن‌ها (ترانزیستورها) حیاتی هستند. کوچک‌سازی بیشتر فناوری‌های استفاده‌شده در صنعت نیمه‌هادی مقاومت در تماس را افزایش می‌دهد و عملکرد آن‌ها را محدود می‌کند، به همین دلیل TSMC و تراشه سازان به دنبال ماده تماسی هستند که مقاومت کمی داشته باشد، جریان‌های زیادی را انتقال دهد و برای تولید در حجم انبوه مقرون‌به‌صرفه باشد. در مجموع باید بگوییم ما با استفاده از روش‌های کلاسیک به محدودیت‌های بهره‌وری انرژی نزدیک شده‌ایم و با استناد به گزارش انجمن صنایع نیمه هادی تا سال ۲۰۴۰ دیگر مواد لازم برای ساخت این ترانزیستورها را نخواهیم داشت. به همین دلیل است که متخصصان در تلاش هستند تا کامپیوترهای کوانتومی را در مقیاس تجاری تولید کنند. در حالی که ساخت کامپیوترهای کوانتومی در مقیاس گسترده و تجاری کار ساده‌ای نیست،  اما خروجی کار ما را به دنیای جدیدی از محاسبات وارد می‌کند.

محاسبات کوانتومی چیست؟

نظریه کوانتوم شاخه‌ای از فیزیک است که به دنیای اتم‌ها و ذرات کوچک‌تر درون آن‌ها می‌پردازد. به بیان دقیق‌تر، منشأ پیدایش محاسبات کوانتومی نتیجه سال‌ها تحقیق دانشمندان روی کوچک‌ترین ذرات طبیعت مثل اتم‌ها، فوتون‌ها یا الکترون‌ها است. باب سوتور، مدیر بخش محاسبات کوانتومی آی‌بی‌ام می‌گوید: «محاسبات کوانتومی تقلید از طبیعت برای حل مشکلات فوق‌العاده دشوار است.» نکته مهمی که باید به آن دقت کنید این است که در مقیاس اتمی، قوانین تغییر می‌کنند و بیشتر قوانین کلاسیک فیزیک دنیای روزمره دیگر کاربردی ندارند. کنترل موفقیت‌آمیز این ذرات در کامپیوتر کوانتومی می‌تواند رشد انفجاری قدرت محاسبات را به همراه داشته باشد، به‌طوری که می‌توان از توان پردازشی ریز اتم‌ها برای کشف داروها، مدل‌سازی آب‌وهوا و بهینه‌سازی مالی استفاده کرد.

کامپیوتر کوانتومی چیست؟

ایده ساخت رایانش کوانتومی به این صورت این است که می‌توان از خواص و قوانین فیزیک کوانتوم برای ذخیره‌سازی و انجام عملیات روی داده‌ها استفاده کرد. رایانش کوانتومی با تکیه‌ بر ویژگی‌های کوانتوم ذرات زیراتمی، برخی محاسبات را سریع‌تر از کامپیوترهای کلاسیک انجام می‌دهند. در کامپیوترهای سنتی، محاسبات در مبنای 2 انجام می‌شوند و هر بیت در وضعیت خاموش یا روشن قرار دارد، اما واحد اطلاعات کوانتومی، کیوبیت (qbit)، با استفاده از ویژگی‌های مبتنی‌ بر کوانتوم می‌تواند وضعیت خاموش، روشن یا هر مقداری بین آن‌ها را داشته باشد که برهم‌نهی نام دارد. افرادی همچون ریچارد فاینمن، دیوید دویچ و یوری مانین از فیزیک‌دانان امریکایی در تحقیقات خود به ایده مدل مکانیکی کوانتومی از یک ماشین تورینگ دست یافتند که نشان می‌داد از یک کامپیوتر کوانتومی می‌توان برای شبیه‌سازی چیزهایی استفاده کرد که به‌سادگی نمی‌توان آن‌ها را از طریق کامپیوتر کلاسیک و با استفاده از فیزیک کلاسیک شبیه‌سازی کرد. به طور مثال، در سال ۱۹۹۴ دان سیمون در نظریه‌ای نشان داد که یک کامپیوتر کوانتومی می‌تواند از نظر نمایی سریع‌تر از یک کامپیوتر کلاسیک باشد. کامپیوترهای کوانتومی قصد جایگزینی کامپیوتر‌های کلاسیک را ندارند، زیرا آن‌ها ابزار متفاوت، گران و پیچیده‌ای هستند که برای حل مشکلات پیچیده‌ای که خارج از توانایی‌های یک کامپیوتر کلاسیک است، قابل استفاده هستند.

ورود به دنیای داده‌های بزرگ که در آن اطلاعات مورد نیاز برای ذخیره رشد می‌کنند، نیاز به تعداد بیشتری بیت و ترانزیستور برای پردازش آن وجود دارد. در بیشتر موارد کامپیوتر‌های کلاسیک محدود به انجام یک کار در یک زمان هستند؛ بنابراین هرچه مشکل پیچیده‌تر باشد، زمان بیشتری برای انجام پردازش‌ها صرف می‌شود؛ مشکلی که نیاز به قدرت و زمان بیشتری نسبت به کامپیوتر‌های امروزی دارد و یک مشکل حل نشدنی نامیده می‌شود. این‌ها مشکلاتی هستند که پیش‌بینی می‌شود رایانش کوانتومی با بهره‌گیری از خواص عجیب و بسیار متمایزشان آن‌ها را حل کنند. کیوبیت‌ها عناصر اصلی و زیربنایی هستند که کامپیوتر‌های کوانتومی قدرت پردازشی‌شان را از آن‌ها می‌گیرند. کیوبیت‌ها همتای کوانتومی بیت‌ها در کامپیوترهای سنتی هستند که در ابتدای مقاله به آن‌ها اشاره کردیم. یکی از تفاوت‌های مهم کامپیوترهای سنتی و کوانتومی برهم‌نهی است. کامپیوتر کلاسیک مبتنی ‌بر حالت باینری یک یا صفر  است، درحالی‌که یک کامپیوتر کوانتومی می‌تواند حالت صفر، یک یا ترکیب هر دو حالت را داشته باشد. وقتی وارد دنیای ذرات اتمی و زیر اتمی می‌شوید، همه چیز شروع به رفتارهای غیرمنتظره می‌کند. در حقیقت، این ذرات می‌توانند در بیش از یک حالت در یک زمان وجود داشته باشند. این توانایی است که رایانش کوانتومی از آن استفاده می‌کند و این ویژگی خاص را کیوبیت‌ها برای کامپیوترهای کوانتومی به ارمغان می‌آورند. برای نشان دادن تفاوت، یک کُره را تصور کنید. بیت می‌تواند در هر یک از دو قطب کُره باشد؛ اما یک کیوبیت می‌تواند در هر نقطه از کُره وجود داشته باشد.

مفهومی از برهم‌نهی کوانتومی

ورود به دنیای داده‌های بزرگ که در آن اطلاعات مورد نیاز برای ذخیره رشد می‌کنند، نیاز به تعداد بیشتری بیت و ترانزیستور برای پردازش آن وجود دارد. در بیشتر موارد کامپیوتر‌های کلاسیک محدود به انجام یک کار در یک زمان هستند؛ بنابراین هرچه مشکل پیچیده‌تر باشد، زمان بیشتری برای انجام پردازش‌ها صرف می‌شود؛ مشکلی که نیاز به قدرت و زمان بیشتری نسبت به کامپیوتر‌های امروزی دارد و یک مشکل حل نشدنی نامیده می‌شود. این‌ها مشکلاتی هستند که پیش‌بینی می‌شود کامپیوترهای کوانتومی با بهره‌گیری از خواص عجیب و بسیار متمایزشان آن‌ها را حل کنند. کیوبیت‌ها عناصر اصلی و زیربنایی هستند که کامپیوتر‌های کوانتومی قدرت پردازشی‌شان را از آن‌ها می‌گیرند. کیوبیت‌ها همتای کوانتومی بیت‌ها در کامپیوترهای سنتی هستند که در ابتدای مقاله به آن‌ها اشاره کردیم. یکی از تفاوت‌های مهم کامپیوترهای سنتی و کوانتومی برهم‌نهی است. کامپیوتر کلاسیک مبتنی ‌بر حالت باینری یک یا صفر  است، درحالی‌که یک کامپیوتر کوانتومی می‌تواند حالت صفر، یک یا ترکیب هر دو حالت را داشته باشد. وقتی وارد دنیای ذرات اتمی و زیر اتمی می‌شوید، همه چیز شروع به رفتارهای غیرمنتظره می‌کند. در حقیقت، این ذرات می‌توانند در بیش از یک حالت در یک زمان وجود داشته باشند. این توانایی است که کامپیوتر‌های کوانتومی از آن استفاده می‌کنند و این ویژگی خاص را کیوبیت‌ها برای کامپیوترهای کوانتومی به ارمغان می‌آورند. برای نشان دادن تفاوت، یک کُره را تصور کنید. بیت می‌تواند در هر یک از دو قطب کُره باشد؛ اما یک کیوبیت می‌تواند در هر نقطه از کُره وجود داشته باشد.

درهم‌تنیدگی کوانتومی چیست؟

یکی دیگر از ویژگی‌های کامپیوتر‌های کوانتومی پدیده درهم‌تنیدگی است. این نوعی پیوستگی کوانتومی بین کیوبیت‌ها است. تصور کنید که یک یون به‌عنوان کیوبیت عمل می‌کند و در ترکیب فوق صفر و یک قرار دارد و آن را با یک یون دوم درگیر می‌کنید. این دو یون درهم‌تنیده رابطه خاصی را حفظ خواهند کرد. درواقع، جالب بودن ماجرا را جایی درک خواهید کرد که متوجه شوید، اعمال تغییرات در یکی از یون‌ها بر دیگری نیز تأثیر می‌گذارد و این می‌تواند در حالی اتفاق بیفتد که هر دو یون با فاصله بسیار دوری از هم جدا شده باشند. فرض مشترک ما این است که اشیا دارای خواصی قابل دید و خواص نهان هستند و معتقدیم که اعمال تغییرات در یکی، نمی‌تواند بر دیگری تأثیر بگذارد؛ درهم‌تنیدگی کوانتومی که آلبرت اینشتین آن را اقدام وحشتناک از راه دور می‌نامد، این فرض را رد می‌کند و استدلال‌های غیرقابل‌انکاری را ارائه می‌دهد. انیشتین می‌گوید: «درهم‌تنیدگی کوانتومی پدیده‌ای است که در مقیاس کوانتومی مشاهده می‌شود که در آن ذرات درهم‌تنیده به‌نوعی به هم متصل می‌شوند؛ به‌طوری که اعمال انجام‌شده روی یکی از ذرات، بدون توجه به فاصله بین دو ذره، بر دیگری تأثیر می‌گذارد.»

رایانش کوانتومی چگونه کار می‌کند؟

یک کامپیوتر کوانتومی از نظر و نحوه پردازش اطلاعات متفاوت از کامپیوترهای امروزی است. در حال حاضر روش‌های مختلفی برای ساخت کامپیوتر کوانتومی و کیوبیت‌ها وجود دارد و شرکت‌ها به‌نوعی در حال آزمون‌وخطا برای دست‌ یافتن به فرمولی بهتر از رقبا هستند. به طور مثال، گوگل و آی‌بی‌ام از مدارهای ابررسانا استفاده می‌کنند که تقریباً در سرمای صفر مطلق خنک می‌شوند. از طرف دیگر، هانی ول طراحی تله یونی کیوبیت‌ها را از اتم‌های ایتربیم مجهز به بار الکتریکی تولید می‌کند. کیوبیت‌های اینتل الکترون‌های منفردی هستند که توسط ویژگی مکانیکی کوانتومی چرخش از دیگران متمایز می‌شوند و Xanadu برای کیوبیت‌هایش از فوتون بهره می‌گیرد و پردازنده‌های کوانتومی آن در دمای اتاق کار می‌کنند. برای روشن شدن این مسئله بهتر است یکی از طرح‌های برجسته را بررسی کنیم. یک رشته لامپ را تصور کنید که وارونه آویزان است که در واقع پیچیده‌ترین چیزی محسوب می‌شود که تابه‌حال دیده‌اید. به جای یک پیچ باریک سیم، دسته‌های نقره‌ای آن‌ها را سازماندهی کرده و در اطراف یک هسته بافته شده است. آن‌ها در لایه‌هایی چیده شده‌اند که با پایین رفتن باریک می‌شوند و سپس صفحات طلایی ساختار را به بخش‌هایی تقسیم می‌کنند. قسمت بیرونی این کالبد را به دلیل شباهت انکارناپذیر لوستر می‌نامند. این یخچال فوق شارژ است که از مخلوط هلیوم مایع مخصوص برای خنک‌کردن تراشه کوانتومی کامپیوتر تا صفر مطلق استفاده می‌کند‌. در چنین دماهای پایینی، مدارهای ابررسانای کوچک در تراشه خواص کوانتومی خود را به دست می‌آورند؛ خواصی که برای انجام کارهای محاسباتی که عملاً در کامپیوتر‌های کلاسیک غیرممکن است، مورد استفاده قرار می‌گیرد. دستگاه‌های کوانتومی اغلب بسیار متفاوت از نمونه‌های قدیمی خود هستند؛ اما در یک استثنا، قطعه مرکزی برخی از پیشرفته‌ترین کامپیوترهای کوانتومی هنوز یک تراشه است؛ با این تفاوت که این ماده از سیلیکون ساخته نشده، بلکه از موادی ابررسانا ساخته شده است. ابررساناها مواد عجیب و غیرمعمولی نیستند؛ زیرا آلومینیوم یکی از مهم‌ترین آن‌ها است و نیوبیم یکی دیگر از مواردی است که مورد استفاده قرار می‌گیرد. بااین‌حال، ابررساناها موادی حیاتی هستند که در صورت خنک‌شدن تا دمای مشخص و بدون هیچ‌گونه مقاومتی، می‌توانند الکتریسیته را هدایت کنند و مصرف انرژی را کاهش بدهند. این امر در جهانی که بیش از همیشه نیاز به کاهش مصرف انرژی دارد، امری اجتناب‌ناپذیر و حیاتی است.

تا ساخت رایانش کوانتومی چقدر فاصله داریم؟

در حالی که از ایده ساخت کامپیوترهای کوانتومی نزدیک به سه دهه می‌گذرد، اما همچنان از دسترس کاربران عادی دور هستند. با این حال، پیشرفت‌های امیدوارکننده‌ای در شناخت و درک ماشین کوانتومی صورت گرفته است. سال 2000 دو دستاورد بزرگ در این زمینه رخ داد. اول آنکه آقای چاونگ، استاد MIT، با استفاده از 5 اتم فلورین توانست یک کامپیوتر کوانتومی خام 5 کیوبیتی بسازد. در همان سال، محققان آزمایشگاه ملی Los Alamos راه ساخت یک ماشین 7 کیوبیتی با استفاده از یک قطره مایع را پیدا کردند. 5 سال بعد، محققان دانشگاه Innsbruck یک کیوبیت بیشتر به ‌آن اضافه کردند و اولین کامپیوتر کوانتومی را ساختند که می‌توانست یک کیلوبایت (شامل 5 کیوبیت) را دست‌کاری کند و بعداً موفق شدند آن را به 14 کیوبیت برسانند. شکی نیست که تمام اینها پیشرفت‌های فوق‌العاده مهمی هستند و شواهد حاکی از آن است که با این رشد پیوسته سرانجام روزی می‌رسد که فناوری کوانتوم موفق به ایجاد انقلابی در محاسبات خواهد شد. در دسامبر 2017، مایکروسافت از کیت کامل توسعه کوانتوم رونمایی کرد که شامل یک زبان جدید برنامه‌نویسی به نام Q می‌شد و به طور ویژه برای اپلیکیشن‌های کوانتومی توسعه داده شده بود. در اوایل سال 2018، شرکت D-Wave خبر از برنامه‌های خود برای ارائه توان کوانتومی به پلتفرم محاسبات ابری داد. چند هفته بعد، گوگل Bristlecome را معرفی کرد، یک پردازنده کوانتومی که بر اساس یک آرایه 72 کیوبیتی بود و ممکن است روزی به‌عنوان یکی از پایه‌های بنیادی در ساخت کامپیوترهای کوانتومی باشد و بتواند مشکلات دنیای واقعی را حل کند. گوگل در اکتبر 2019 اعلام کرد که به یک موفقیت بزرگ دیگر که دستیابی به برتری کوانتومی است دست پیدا کرده که البته بزرگانی مثل IBM این ادعا را رد کرد. اما در یک نکته جای هیچ بحثی نیست. محاسبات کوانتومی خیلی هیجان‌انگیز است. در سال 2019، سرویس محاسبات ابری AWS متعلق به شرکت آمازون سرویس جدیدی به نام Braket را معرفی کرد که به کاربران امکان دسترسی به شبیه‌سازهای محاسبات کوانتومی مبتنی بر ماشین‌هایی را می‌دهد که توسط سه شرکت بزرگ فناوری یعنی D-Wave، IonQ و Rigletti ارائه شده‌اند. پلتفرم ابر آژور مایکروسافت سرویسی به نام Azure Quantom را معرفی کرد و وب‌سایت Quantom Ai گوگل امکان دسترسی به تحقیقات و منابع خود را می‌دهد.

با تمام این پیشرفت‌ها، هنوز این حوزه در ابتدای راه است و بیشتر محققان هم‌عقیده هستند که سال‌ها طول می‌کشد تا شاهد کامپیوترهای کوانتومی واقعی و کاربردی باشیم. در گزارش مؤسسه National Academies  آماده است: «هنوز خیلی زود است که بتوانیم زمان مشخصی را برای دستیابی به کامپیوتر کوانتومی عملی در مقیاس گسترده پیش‌بینی کنیم و همچنان چالش‌های فنی زیادی باقی مانده که قبل از تولید انبوه باید آنها را حل کنیم.»

منبع: مجله شبکه

دوره آموزشی +Network

 

آموزش های عصر شبکه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *