هوش مصنوعی | متن کامل رایگان | H-QNN: یک شبکه عصبی کوانتومی-کلاسیک ترکیبی برای طبقه‌بندی تصویر باینری بهبود یافته

۱٫ مقدمه

در طول دو دهه گذشته، شبکه های عصبی به طور قابل توجهی بر حوزه های مختلف از طریق ظرفیت خود برای مدل سازی الگوهای پیچیده و ایجاد پیش بینی های دقیق تأثیر گذاشته اند. یکی از زمینه هایی که به ویژه پیشرفت کرده است طبقه بندی تصاویر است که تصاویر را به کلاس های از پیش تعریف شده دسته بندی می کند. [۱]. طبقه بندی تصاویر باینری که هدف آن تمایز بین دو کلاس است، به ویژه در کاربردهایی مانند تصویربرداری پزشکی رایج است. [۲]تشخیص شی [۳]و کنترل کیفیت در تولید روش‌های سنتی برای قابلیت‌های استخراج ویژگی ماهرانه خود به شبکه‌های عصبی کانولوشنال (CNN) متکی هستند. [۴,۵]به آنها اجازه می دهد تا الگوهای درون تصاویر را شناسایی کنند. با این حال، با پیچیدگی و حجم فزاینده داده‌ها، این مدل‌های مرسوم اغلب به منابع محاسباتی قابل توجهی نیاز دارند که در نتیجه سرعت پردازش و بازده انرژی تنگناهایی ایجاد می‌شود. [۶,۷]. از این رو، نیاز به کشف مدل های محاسباتی کارآمدتر و انعطاف پذیرتر وجود دارد. این چالش نیازمند رویکرد جدیدی است که بتواند از مزایای محاسباتی مکانیک کوانتومی استفاده کند.
ادغام محاسبات کوانتومی با تکنیک‌های یادگیری ماشین کلاسیک (ML) باعث ایجاد زمینه نوآورانه ML کوانتومی (QML) شده است. [۸,۹]. خواص برهم نهی و درهم تنیدگی مکانیک کوانتومی مبنایی نظری برای استنتاج همبستگی های پیچیده در داده ها فراهم می کند. الگوریتم‌های کوانتومی، مانند الگوریتم گروور، سرعت‌های قابل‌توجهی را در کارهایی مانند جستجوی پایگاه داده ارائه می‌دهند، که مشابه بازیابی اطلاعات در یادگیری ماشین، از جمله طبقه‌بندی تصاویر است. مدارهای کوانتومی همچنین می توانند از فضاهای هیلبرت با ابعاد بالا استفاده کنند و استخراج ویژگی هایی را که شناسایی آنها برای شبکه های کلاسیک دشوار است آسان تر می کند. این قابلیت استخراج ویژگی پیشرفته برای بهبود دقت و تعمیم مدل بسیار مهم است. علاوه بر این، الگوریتم‌های کوانتومی پتانسیل را برای تسهیل فرآیندهای بهینه‌سازی کارآمدتر نشان می‌دهند. با استفاده از موازی‌سازی کوانتومی، این الگوریتم‌ها می‌توانند مناظر از دست دادن پیچیده را به طور مؤثرتری کاوش کنند، که منجر به همگرایی سریع‌تر و نتایج بهینه‌سازی بهتر می‌شود. این به ویژه در زمینه یادگیری عمیق، جایی که چالش‌های بهینه‌سازی رایج است، مفید است.
علیرغم مزایای ارائه شده توسط محاسبات کوانتومی و QML، تحقق عملی مدل‌های QML توسط مرحله فعلی فناوری کوانتومی، که با کوانتومی در مقیاس متوسط ​​پر سر و صدا (NISQ) مشخص می‌شود، محدود شده است. [۱۰,۱۱] دستگاه هایی که فقط تعداد محدودی کیوبیت ارائه می دهند و مستعد خطا هستند. چالش اصلی ایجاد یک مدل ترکیبی کوانتومی-کلاسیک عملی و کارآمد است که بتواند از نقاط قوت هر دو رویکرد برای دستیابی به دقت بالا در وظایف طبقه‌بندی تصویر استفاده کند. این مدل باید طوری طراحی شود که با ظرفیت‌های محدود کیوبیت دستگاه‌های NISQ کار کند و در عین حال کارایی برتر را در مقایسه با مدل‌های فقط کلاسیک نشان دهد. وضعیت نوپای فناوری های کوانتومی و نویز ذاتی موجود در دستگاه های کوانتومی فعلی تا حدی مانع بهره برداری کامل از QML می شود.
در حوزه خاص طبقه بندی تصاویر، CNN ها [۱۲,۱۳,۱۴,۱۵] به معیار طبقه بندی تصاویر تبدیل شده اند. توانایی آنها در استخراج ویژگی و وظایف شناسایی استاندارد بالایی را تعیین کرده است و به طور مداوم به سطوح دقت بالایی دست می یابد. قابل توجه است که مطالعات مختلف اثربخشی آنها را در حوزه های مختلف مانند تصویربرداری پزشکی نشان داده است [۱۳]طبقه بندی کلی اشیاء [۱۶]و تقسیم بندی تصویر [۱۷]. اخیراً، شبکه‌های عصبی کوانتومی (QNN) برای گسترش این موفقیت به قلمرو کوانتومی ظهور کرده‌اند. این شبکه ها از مدارهای کوانتومی پارامتری استفاده می کنند که شامل دستکاری از طریق زوایای چرخش، درهم تنیدگی و اندازه گیری می شود. زوایای چرخش برای کنترل حالات کیوبیت استفاده می شود که امکان مدیریت دقیق برهم نهی کیوبیت را فراهم می کند. عملیات درهم تنیدگی همبستگی هایی بین کیوبیت ها ایجاد می کند و برهمکنش های پیچیده ای را که برای محاسبات کوانتومی حیاتی است، ممکن می سازد. اندازه‌گیری‌هایی که معمولاً در امتداد پایه‌های خاص مانند پایه Z انجام می‌شوند، اطلاعات را از سیستم کوانتومی با تبدیل حالت‌های کیوبیت به بیت‌های کلاسیک استخراج می‌کنند. زوایای چرخش، درهم تنیدگی و اندازه‌گیری برای تنظیم و بهینه‌سازی پارامترهای مدار در طول فرآیند آموزش، مشابه نحوه انطباق وزن‌ها و بایاس‌ها در شبکه‌های عصبی کلاسیک، کار می‌کنند.

این مقاله یک مدل جدید برای طبقه‌بندی تصاویر باینری ارائه می‌کند که از یک رویکرد ترکیبی کوانتومی-کلاسیک استفاده می‌کند. با ترکیب نقاط قوت هر دو حوزه، محدودیت‌های سخت‌افزار کوانتومی فعلی و نیازهای محاسباتی مدل‌های CNN قابل رفع است. آثار اصلی این اثر به شرح زیر است:

  • ما یک مدل دو کیوبیت و شش لایه H-QNN را توسعه دادیم که به طور خاص برای برآورده کردن محدودیت‌های کیوبیت دستگاه‌های NISQ برای طبقه‌بندی تصویر طراحی شده است. مدل پیشنهادی ما نشان‌دهنده پیشرفت قابل‌توجهی در طبقه‌بندی تصاویر کوانتومی تقویت‌شده با وجود منابع کوانتومی محدود در دسترس است.

  • معماری کانولوشن کوانتومی پیشنهادی یک راه حل کارآمد از نظر دستیابی به دقت بالا با تعداد کمتری از تصاویر برای کارهای طبقه بندی باینری در مقایسه با معماری مشابه CNN ارائه می دهد. همچنین قدرت تمایز طبقه بندی تصاویر با دقت بالا را افزایش می دهد. علاوه بر این، معماری پیشنهادی انعطاف‌پذیری را برای مدیریت طبقه‌بندی چند طبقه فراهم می‌کند.

  • مدل H-QNN ما محاسبات کوانتومی را با شبکه‌های عصبی کلاسیک ترکیب می‌کند تا منابع محاسباتی را در سراسر شکاف کوانتومی-کلاسیک بهینه کند. این یک رویکرد مقیاس پذیر و موثر به QML در عصر NISQ ارائه می دهد.

ادامه این مقاله به شرح زیر سازماندهی شده است. بخش ۲ پیشینه مطالعه پیشنهادی را ارائه می‌کند و کار مرتبط را در ادبیات مرور می‌کند. بخش ۳ مدل پیشنهادی H-QNN را شرح می دهد. در بخش ۴، ما نتایج تجربی خود را ارائه و تجزیه و تحلیل می کنیم. بخش ۵ محدودیت های کار پیشنهادی را مورد بحث قرار می دهد. در نهایت، بخش ۶ این مقاله را به پایان می رساند.

۲٫ پس زمینه

این بخش با ارائه مفاهیم اساسی، اطلاعات پس زمینه و کارهای مرتبط، بینشی در مورد QNN ها ارائه می دهد. این کتاب موضوعات اساسی مانند کیوبیت‌های کوانتومی، دروازه‌های کوانتومی و مدارها را پوشش می‌دهد و یک نمای کلی از توسعه QNN، از جمله تاریخچه، تکامل و وضعیت فعلی آن ارائه می‌دهد. علاوه بر این، آخرین تحقیقات در زمینه QNN ها، از جمله پیشرفت در سخت افزار محاسبات کوانتومی، الگوریتم های کوانتومی، و ادغام QNN ها با شبکه های عصبی کلاسیک را مورد بحث قرار می دهد.

۲٫۱٫ مقدماتی

۲٫۱٫۱٫ کیوبیت ها، برهم نهی، دروازه های کوانتومی، درهم تنیدگی و اندازه گیری

  • کیوبیت ها: در محاسبات کلاسیک، واحد اصلی اطلاعات بیت است که می تواند هر یک را نشان دهد ۰ یا ۱. در محاسبات کوانتومی، واحد اساسی کیوبیت است که می تواند نشان دهد ۰، ۱یا ترکیبی از ۰ و ۱ به طور همزمان به دلیل خاصیتی به نام برهم نهی. این توانایی وجود در چندین حالت به طور همزمان چیزی است که به کامپیوترهای کوانتومی پتانسیل آنها را برای افزایش نمایی قدرت محاسباتی در مقایسه با کامپیوترهای کلاسیک می دهد. انواع مختلفی از فناوری های کیوبیت موجود است، مانند کیوبیت های ابررسانا، یون های به دام افتاده، اتم های خنثی و کیوبیت های اسپین سیلیکونی.

  • برهم نهی: برهم نهی یک اصل اساسی در مکانیک کوانتومی است که به کیوبیت ها اجازه می دهد در چندین حالت به طور همزمان وجود داشته باشند. به عنوان مثال، در حالی که یک بیت کلاسیک می تواند هر دو باشد ۰ یا ۱یک کیوبیت می تواند در برهم نهی هر دو حالت باشد، به این معنی که هر دو را نشان می دهد ۰ و ۱ در همان زمان تا اندازه گیری شود. این ویژگی کامپیوترهای کوانتومی را قادر می‌سازد تا محاسبات زیادی را به طور همزمان انجام دهند و به سرعت انواع خاصی از محاسبات را افزایش می‌دهند.

  • دروازه های کوانتومی: دروازه‌های کوانتومی بلوک‌های سازنده مدارهای کوانتومی هستند که مشابه دروازه‌های منطقی کلاسیک هستند. آنها بر روی کیوبیت ها عمل می کنند تا عملیاتی مانند چرخاندن وضعیت یک کیوبیت، درهم تنیدگی کیوبیت ها یا ایجاد برهم نهی ها را انجام دهند. دروازه های کوانتومی رایج شامل دروازه Pauli-X (شبیه به دروازه کلاسیک NOT)، دروازه هادامارد (برهم نهی) و دروازه CNOT (دو کیوبیت را در هم می بندد). این گیت ها حالت های کوانتومی کیوبیت ها را برای انجام محاسبات دستکاری می کنند. یک مدار کوانتومی اغلب شامل عملیات گیت های مختلفی است.

  • درهم تنیدگی: درهم تنیدگی یکی دیگر از ویژگی‌های منحصربه‌فرد مکانیک کوانتومی است که به کیوبیت‌ها اجازه می‌دهد به گونه‌ای همبستگی داشته باشند که وضعیت یک کیوبیت به حالت دیگری بستگی داشته باشد، حتی زمانی که آنها با فواصل زیاد از هم جدا شوند. این پدیده کامپیوترهای کوانتومی را قادر می سازد تا محاسبات خاصی را بسیار سریعتر از کامپیوترهای کلاسیک انجام دهند.

  • اندازه گیری ها: اندازه گیری در محاسبات کوانتومی به فرآیند استخراج اطلاعات از یک کیوبیت اشاره دارد. هنگامی که یک کیوبیت اندازه گیری می شود، برهم نهی آن فرو می ریزد و حالت معینی به خود می گیرد (یا ۰ یا ۱) با احتمال معینی که توسط ضرایب برهم نهی آن تعیین می شود. عمل اندازه گیری به طور غیر قابل برگشتی وضعیت کیوبیت را تغییر می دهد. در رایانه‌های کوانتومی فیزیکی، اندازه‌گیری‌ها معمولاً به یک مبنای محاسباتی، مانند پایه Z، محدود می‌شوند. به عنوان مثال، در رایانه های کوانتومی IBM، اندازه گیری ها معمولاً در امتداد محور Z کره بلوخ انجام می شود. این اندازه‌گیری مبتنی بر Z تعیین می‌کند که آیا حالت کیوبیت به هم می‌رسد یا خیر ۰ یا ۱ . پایه های دیگر، مانند پایه X یا Y، نیز می توانند مورد استفاده قرار گیرند، اما آنها به دروازه های کوانتومی اضافی نیاز دارند تا حالت های کیوبیت را قبل از اندازه گیری به پایه محاسباتی بچرخانند. این رویکرد اجرای اندازه گیری را ساده می کند اما اندازه گیری مستقیم را به مبنای محاسباتی محدود می کند.

۲٫۱٫۲٫ شبکه عصبی کوانتومی

یک QNN شامل بهینه سازی پارامتر یک مدار کوانتومی پارامتر شده برای به دست آوردن یک رابطه ورودی-خروجی مورد نظر است. یک QNN به طور کلی از سه بخش تشکیل شده است: (۱) یک مدار رمزگذاری (یا جاسازی) داده کلاسیک به کوانتومی، (۲) یک مدار پارامتری، و (iii) عملیات اندازه گیری.

در ادبیات، چندین روش رمزگذاری موجود است [۱۸]. طرح رمزگذاری زاویه پرکاربردترین روش برای متغیرهای پیوسته است. این روش یک ویژگی کلاسیک ورودی متغیر پیوسته را به عنوان یک چرخش کیوبیت در امتداد محور مورد نظر (X/Y/Z) رمزگذاری می‌کند. [۱۸,۱۹,۲۰]. اگر ویژگی های کلاسیک 'n' داشته باشیم، نیاز داریم ورود به سیستم ۲ n کیوبیت ها ما می توانیم چندین متغیر پیوسته را در یک کیوبیت با استفاده از چرخش های متوالی رمزگذاری کنیم. این به این معنی است که چندین دروازه چرخشی به صورت متوالی در یک کیوبیت به کار می‌روند که هر گیت نشان دهنده ویژگی متفاوتی است. حالت های ایجاد شده توسط یک چرخش کیوبیت در امتداد هر محور در ۲ تکرار می شود ص فواصل، بنابراین ویژگی ها را بین ۰ و ۲ مقیاس می کنیم ص (یا ص به ص ) در مرحله پیش پردازش داده ها.
مدار پارامتریک شامل عملیات درهم تنیدگی و چرخش های تک کیوبیتی پارامتری شده است. عملیات درهم تنیدگی مجموعه ای از عملیات چند کیوبیتی بین تمام کیوبیت ها برای ایجاد حالت های همبسته است. [۲۱]. این ترکیب از عملیات درهم تنیدگی و چرخش تک کیوبیت به عنوان یک لایه پارامتری در QNN نامیده می شود. [۱۹,۲۲].

۲٫۲٫ کار مرتبط

اخیرا QML به عنوان یک زمینه به سرعت در حال رشد در حوزه شبکه های عصبی ظهور کرده است. محققان در سراسر جهان به QML به دلیل پتانسیل آن برای استفاده از برتری محاسباتی کوانتومی برای حل مسائل پیچیده ای که کامپیوترهای کلاسیک نمی توانند از عهده آنها برآیند، علاقه نشان می دهند. QML اصول فیزیک کوانتومی را با الگوریتم های یادگیری ماشین ترکیب می کند که منجر به افزایش سرعت محاسباتی بالقوه در چندین زمینه مانند تجزیه و تحلیل داده ها، طبقه بندی تصاویر و هوش مصنوعی می شود. مطالعه شفارد و همکاران. [۲۳] نشان داد که QML دارای پتانسیل قابل توجهی در تجزیه و تحلیل داده ها است، در حالی که Ayoade و همکاران. [۲۴] روی طبقه بندی تصاویر با استفاده از QML کار کرد. علاوه بر این، Oroy [25] نشان داد که QML پتانسیل ایجاد انقلابی در زمینه هوش مصنوعی را دارد.
یکی از پیشرفت‌های کلیدی در این حوزه، توسعه QNN‌ها است که تلاش می‌کنند معماری شبکه‌های عصبی را در چارچوب کوانتومی تقلید کنند. QNN ها یک رویکرد جدید برای پردازش اطلاعات از طریق بیت های کوانتومی (کیوبیت ها) ارائه می دهند که می توانند در برهم نهی ها وجود داشته باشند، در نتیجه قدرت محاسباتی را برای کارهای خاص به شدت افزایش می دهند. [۲۶,۲۷]. جذابیت QNN ها در توانایی نظری آنها برای گرفتن همبستگی در داده های کوانتومی به طور طبیعی تر از همتایان کلاسیک آنها نهفته است که نویدبخش بهبود قابل توجهی در کارایی یادگیری و معیارهای عملکرد مانند دقت، دقت، یادآوری و امتیاز F1 است. [۲۸].
با توجه به محدودیت فعلی تعداد کیوبیت ها و در دسترس بودن تنها دستگاه های NISQ، محققان در حال بررسی استفاده از QCNN هیبریدی هستند که یک پیشرفت امیدوارکننده در رابط کوانتومی کلاسیک است. به عنوان مثال، علم و همکاران. [۲۹] دو مدل کوانتومی-کلاسیک H-QNN برای طبقه‌بندی تصویر، یعنی شبکه عصبی کوانوولوشنال و کاهش ابعاد با استفاده از یک الگوریتم کلاسیک به دنبال QNN پیشنهاد کرد. به همین ترتیب، ماهاجان [۳۰] یک مدل ترکیبی الهام گرفته از کوانتومی ارائه کرد که از نورون‌های کوانتومی و کلاسیک برای پیش‌بینی قیمت کالا استفاده می‌کند. ساموئل و همکاران [۳۱] یک شبکه عصبی کانولوشنال گراف کوانتومی-کلاسیک ترکیبی (QGCNN) برای یادگیری داده های فیزیک انرژی بالا (HEP) ایجاد کرد. این نشان دهنده کاربرد گسترده QNN های هیبریدی است. علاوه بر این، هوانگ و همکاران. [۳۲] اخیراً امکان‌سنجی مدل کوانتومی ترکیبی را در زمینه نمونه‌های خصمانه کلاسیک ارزیابی کرده و عملکرد برتر آن را نسبت به CNN نشان می‌دهد.

مدل H-QNN پیشنهادی ما بر اساس پیشرفت‌هایی در زمینه QML است که به صراحت برای طبقه‌بندی تصاویر باینری طراحی شده‌اند. برخلاف مدل‌های قبلی، H-QNN پیشنهادی ما از یک مدار کوانتومی فشرده ادغام شده با معماری کانولوشن کلاسیک استفاده می‌کند که آن را برای دستگاه‌های NISQ کارآمد می‌کند. این طراحی محدودیت‌های کیوبیت را برطرف می‌کند، دقت طبقه‌بندی را افزایش می‌دهد و با بیش از حد برازش در مجموعه‌های داده کوچک مقابله می‌کند.

۳٫ روش شناسی

این بخش روش های ترکیبی ترکیبی کلاسیک و محاسبات کوانتومی را ارائه می دهد. به طور خاص، ما تا حدی یک شبکه عصبی کلاسیک را به یک شبکه عصبی کوانتومی تبدیل می کنیم تا یک شبکه عصبی کوانتومی-کلاسیک ترکیبی ایجاد کنیم.

۳٫۱٫ نمای کلی

به منظور ادغام شبکه های عصبی کوانتومی و کلاسیک، یک لایه پنهان در شبکه عصبی ما گنجانده شده است که به عنوان یک مدار کوانتومی پارامتری شناخته می شود (در بخش ۲٫۱٫۲ بحث شد). مدار از یک بردار ورودی کلاسیک برای پیکربندی زوایای چرخش دروازه‌های کوانتومی استفاده می‌کند. خروجی از لایه شبکه عصبی قبلی به عنوان ورودی به این مدار پارامتر شده تغذیه می شود. آمار اندازه گیری از مدار پارامتری شده جمع آوری شده و به عنوان ورودی برای لایه بعدی شبکه عصبی مورد استفاده قرار می گیرد. این فرآیند تا رسیدن به لایه خروجی نهایی تکرار می شود. معماری ساده شده مدل پیشنهادی در شکل ۱ نشان داده شده است.
در شکل ۱، ب یک تابع غیر خطی است و ساعت n ارزش نورون است n در هر لایه پنهان R( ساعت n ) هر دروازه چرخشی حول زاویه ای برابر را نشان می دهد ساعت n و ج مقدار پیش بینی نهایی تولید شده از شبکه ترکیبی است.

۳٫۲٫ مدار کوانتومی (مدار پارامتری)

الگوریتم ۱ یک رابط ساده برای ایجاد و اجرای مدارهای کوانتومی پارامتری شده فراهم می کند. این مدار کوانتومی کلاس از دو رویه اصلی تشکیل شده است: IITALIZE و اجرا کنید.

با مراجعه به الگوریتم ۱، IITALIZE این روش یک مدار کوانتومی با تعداد مشخصی کیوبیت ایجاد می کند ( n _ q تو ب من تی س ) که در مورد ما ۲ کیوبیت است باطن (شبیه ساز) که مدار روی آن اجرا می شود و تعداد تکرارها برای اجرای مدار (عکس ها). گزینه های مختلفی از وجود دارد باطن شبیه سازهای موجود، مانند قاسم_شبیه ساز، statevector_simulatorو aer_simulator. با این حال، در مدل H-QNN خود، از آن استفاده کردیم aer_simulator باطن

الگوریتم یک پارامتر را معرفی می کند، من طراحی شده برای تسهیل تنظیم دینامیکی عملیات گیت در مدار (خط ۴). پیکربندی مدار با اعمال یک گیت هادامارد آغاز می شود اچ به همه کیوبیت ها، بنابراین آنها را در حالت برهم نهی قرار می دهد تا از موازی سازی کوانتومی استفاده شود (خط ۵). از نظر ریاضی، دروازه هادامارد به صورت نمایش داده می شود
اعمال کردن اچ به حالت پایه | ۰ یا | ۱ منجر به

اچ | ۰ = ۱ ۲ ( | ۰ + | ۱ ) ، اچ | ۱ = ۱ ۲ ( | ۰ | ۱ )

این احتمال یکسانی برای قرار گرفتن کیوبیت در حالت ایجاد می کند | ۰ یا | ۱ پایه گذاری برای پردازش موازی اطلاعات.

الگوریتم ۱ ماژول مدار کوانتومی
۱:

مدار کوانتومی کلاس

۲:

رویه مقدار دهی اولیه کنید( n _ q تو ب من تی س ، ب الف ج ک ه n د ، س ساعت O تی س )

۳:

ج ایجاد کنید الف کوانتومی مدار با n _ q تو ب من تی س

۴:

من تعریف کنید الف پارامترها من

۵:

ج درخواست کنید الف هادامارد دروازه به همه کیوبیت ها

۶:

ج اضافه کنید الف مانع

۷:

ج درخواست کنید یک آر y دروازه پارامتر شده توسط من به همه کیوبیت ها

۸:

ج اندازه گیری کنید همه کیوبیت ها

۹:

تنظیم کنید را باطن و شماره از عکس ها برای اعدام

۱۰:

پایان رویه

۱۱:
۱۲:

رویه اجرا کنید( Th )

۱۳:

تی ج Transpile را مدار برای را مشخص شده است باطن

۱۴:

برای هر کدام من من در Th انجام دهید

۱۵:

تی ج تی ج . اختصاص دهد _ پارامترها ( { من من من } )

۱۶:

آر ه س تو ل تی س اجرا کنید را مدار در را باطن با من من

۱۷:

پایان برای

۱۸:

مثال [ ] ▹ فهرستی برای ذخیره مقادیر مورد انتظار

۱۹:

برای هر کدام r ه س تو ل تی در آر ه س تو ل تی س انجام دهید

۲۰:

اگر نمونه ( آر ه س تو ل تی س ، فهرست ) سپس

۲۱:

برای هر کدام r ه س تو ل تی در آر ه س تو ل تی س انجام دهید

۲۲:

ج O تو n تی س np . آرایه ( فهرست ( نتیجه ( ) ) )

۲۳:

س تی الف تی ه س np . آرایه ( [ int ( state , result ) )

۲۴:

                p r o b a b i l i t i e s c o u n t s s h o t s

۲۵:

                E ( s t a t e s × p r o b a b i l i t i e s )

۲۶:

                Ex . append ( E )

۲۷:

           end for

۲۸:

        else if  isinstance ( r e s u l t s , dict )  then

۲۹:

            c o u n t s np . array ( list ( Results ( ) ) )

۳۰:

            s t a t e s np . array ( [ int ( state , result ) )

۳۱:

            p r o b a b i l i t i e s c o u n t s s h o t s

۳۲:

            E ( s t a t e s × p r o b a b i l i t i e s )

۳۳:

            Ex . append ( E )

۳۴:

        end if

۳۵:

    end for

۳۶:

    return  np . array ( Ex )

۳۷:

end procedure

Subsequently, a barrier is introduced (line 6) to demarcate different sections of the circuit. The barrier acts like a synchronization point in parallel computing, ensuring that operations before and after the barrier are treated as separate during optimization (transpilation). This prevents certain optimizations from spanning across the barrier, maintaining the intended logical separation of circuit segments. Following this, a rotation gate ( R y ) , parameterized by θ , is applied to all qubits (line 7). This parameterized rotation gate R y ( θ ) allows for dynamic adjustment of the qubit states based on classical inputs. Its matrix form is

R y ( θ ) = cos ( θ / ۲ ) sin ( θ / ۲ ) sin ( θ / ۲ ) cos ( θ / ۲ )

The rotation gate R y ( θ ) rotates the qubit state around the Y-axis of the Bloch sphere by an angle θ , which is determined during the training process. The parameter θ enables the quantum circuit to learn and adapt based on the data, effectively parameterizing the quantum neural network. Finally, all qubits are measured (line 8) following the backend, and the number of shots (repetitions) is set (line 9).

The RUN procedure builds a quantum circuit for a set of parameter values Θ (lines 12–۳۷). Initially, the circuit is optimized for the specified backend through a process called transpilation (line 13). This involves mapping the circuit to the backend’s topology, optimizing gate operations, and reducing the overall complexity. Then, the circuit is parameterized and executed on the backend for each parameter value θ i in the list Θ (lines 15–۱۶). This allows us to observe how the quantum circuit behaves under various parameter settings. The parameter θ is dynamically assigned different values from the list Θ . Each time, the circuit is executed with a different parameter value during each iteration of the loop. The results of these executions are collected for further analysis. An empty list ( Ex ) (line 18) is initialized to store the expectation values computed from the results.

Each result is processed to compute the expectation values ( E ) (line 25). If the results are in the form of a list (indicating multiple results), the procedure iterates over each result, converting the measurement counts into a NumPy array and the binary state strings into integers. The probabilities of each state are calculated by normalizing the counts by the total number of shots. The expectation value ( E ) is then computed as the weighted sum of states and their respective probabilities, and this value is appended to the expectations list ( Ex ) (line 26). If the results are a single dictionary (indicating a single result), a similar process is followed: the counts are converted to a NumPy array, states are decoded, probabilities are computed, and the expectation value is calculated and appended to the list.

The RUN procedure concludes by returning the list of expectation values ( Ex ) as a NumPy array, providing a comprehensive output of the quantum circuit’s behavior for the given parameter set (line 36). This structured approach can be used to create a quantum circuit efficiently.

۳٫۳٫ Hybrid Module

The proposed hybrid module integrates the quantum layer with classical layers. It also comprises two classes: the Hybrid class and the Gradient Calculation (GradCalc) class. Algorithm ۲ illustrates the proposed hybrid module that integrates a quantum circuit within a neural network architecture.

Algorithm ۲ provides the forward and backward pass methods for gradient calculation (lines 1–۸). The GradCalc class handles the integration of the quantum circuit into the gradient computation graph (line 2). Following this, a forward pass computes the expectation values using the quantum circuit (lines 3–۵). Similarly, the backward pass computes the gradients of the expectation values (lines 6–۸).

The Hybrid class extends nn.Module, which indicates that it is a custom module within the PyTorch framework (line 9). This inheritance allows the Hybrid class to integrate seamlessly with other PyTorch components. The Hybrid class is initialized with parameters specifying the quantum circuit configuration, such as the number of qubits ( Ψ n ), backend, and shots. It calculates the gradient shift based on these parameters as described in Section 3.4 (lines 10–۱۳). The Hybrid class constructs a QuantumCircuit object and stores it along with the shift ( φ ) value for later computations.
The forward method is defined for the Hybrid class (lines 15–۲۱), which adjusts the tensor input dimensions if necessary and then applies a gradient function (GradFunction). This function integrates the prepared quantum circuit into PyTorch’s computational graph, enabling both forward and backward propagation through the network. The conditional input adjustment (lines 16–۲۰) checks and modifies the tensor input shapes to ensure compatibility with the requirements of the quantum circuit. Specifically, if the input tensor has extra dimensions (i.e., the shape is not (1, 1)), it is squeezed to remove these singleton dimensions. If the shape is already (1, 1), the input tensor is indexed to ensure the correct format for the quantum circuit execution. Finally, the quantum circuit is executed using the adjusted input and returns the output of the forward method (line 21).

Algorithm 2 Hybrid quantum–classical module.
  ۱:

Class GradCalc(Inherits Gradient Function)

  ۲:

Integrates & computes gradient graph

  ۳:

procedure forward_pass( i n p u t , q u a n _ c i r c u i t , φ )

  ۴:

    Computes expectation values ← b a c k w a r d _ p a s s

  ۵:

end procedure

  ۶:

procedure backward_pass( g r a d _ o u t p u t )

  ۷:

    Compute gradients of the expected values

  ۸:

end procedure

  ۹:

Class Hybrid extends nn.Module

۱۰:

procedure Initialize( Ψ n , b a c k w a r d , s h o t s , φ )

۱۱:

    Call superclass initializer

۱۲:

    quan_circuit ← INITIALIZE( Ψ n , b a c k , s h o t s )

      // QuantumCircuit Algorithm 1

۱۳:

    self.shift ← φ

۱۴:

end procedure

۱۵:

procedure forward( i n p u t )

۱۶:

    if  i n p u t . s h a p e ( ۱ , ۱ )  then

۱۷:

         i n p u t torch.squeeze( i n p u t )

۱۸:

    else

۱۹:

         i n p u t i n p u t [ ۰ ]

۲۰:

پایان اگر

۲۱:

بازگشت FORWARD_PASS( من n ص تو تی ، q تو الف n _ ج من r ج تو من تی ، f )

۲۲:

پایان رویه

۳٫۴٫ محاسبه گرادیان

در روش پیشنهادی ما، از قانون تغییر پارامتر که توسط Gavin E. Crook ایجاد شده است استفاده می کنیم [۳۳] برای محاسبه گرادیان در مدارهای کوانتومی قانون تغییر پارامتر ما را قادر می سازد تا گرادیان مدار کوانتومی پارامتری شده را محاسبه کنیم که برای بهینه سازی الگوریتم های کوانتومی ضروری است. این قانون به ما اجازه می‌دهد تا گرادیان‌های مدارهای کوانتومی را بدون نیاز به کیوبیت‌های کمکی یا عملیات کنترل‌شده ارزیابی کنیم، و آن را به یک رویکرد کارآمد و عملی برای کارهای محاسباتی کوانتومی تبدیل می‌کند. علاوه بر این، ما همچنین می‌توانیم این قانون گرادیان را به گیت‌های چند کیوبیتی و تجزیه‌های گیت بسط دهیم تا بهینه‌سازی مدارهای کوانتومی، به‌ویژه در عصر NISQ فعلی را تسهیل کنیم. راه اندازی اولیه شامل یک مدار کوانتومی با یک گیت پارامتر شده است U جی ( من ) همانطور که در معادله (۴) توضیح داده شده است.

U جی ( من ) = ه من الف من جی

کجا جی مولد هرمیتی است و الف یک ثابت واقعی است تابع هدف f ( من ) مربوط به این مدار را می توان به صورت

f ( من ) = ص | U جی ( من ) الف U جی ( من ) | ص

اینجا ص بردار حالت است و الف اپراتور هرمیتی است. این f ( من ) با توجه به پارامترها من با استفاده از قانون تغییر پارامتر توسط

د د من f ( من ) = r f من + ص ۴ r f من ص ۴ r

جایی که پارامتر shift r به عنوان تعریف شده است r = الف ۲ ( ه ۱ ه ۰ ) و ه ۰ و ه ۱ مقادیر ویژه مولد هستند جی. قانون تغییر پارامتر برای پیاده سازی گیت های تک و چند کیوبیتی در زیر مورد بحث قرار گرفته است.

۳٫۴٫۱٫ دروازه های تک کیوبیت

دروازه‌های تک کیوبیتی، مانند دروازه‌های چرخشی پائولی، در محاسبات کوانتومی اساسی هستند. این گیت ها را می توان تعریف کرد و شیب آنها را می توان با استفاده از قانون تغییر پارامتر محاسبه کرد:

  • این Xدروازه چرخش به صورت تعریف شده است

    آر x ( من ) = ه من ۱ ۲ من X

    با یک جابجایی ثابت r = ۱ ۲ .

  • این Y– دروازه چرخشی

    آر y ( من ) = ه من ۱ ۲ من Y

    همچنین یک تغییر ثابت دارد r = ۱ ۲ .

  • این ز– دروازه چرخشی

    آر ز ( من ) = ه من ۱ ۲ من ز

    به طور مشابه استفاده می کند r = ۱ ۲ .

این دروازه‌های چرخشی، حالت‌های کوانتومی را با چرخاندن آنها حول محورهای مربوطه در کره بلوخ، دستکاری می‌کنند.

۳٫۴٫۲٫ دروازه های چند کیوبیت

برای عملیات کوانتومی پیچیده‌تر که شامل چند کیوبیت است، مانند دروازه متعارف دو کیوبیتی، قانون تغییر پارامتر را می‌توان با تجزیه گیت به برهمکنش‌های ساده‌تر اعمال کرد:

  • دروازه متعارف دو کیوبیتی را می توان به صورت بیان کرد

    U می تواند = انقضا من ص ۲ ( تی x ( X X ) + تی y ( Y Y ) + تی ز ( ز ز ) )

    کجا تی x ، تی y و تی ز ضرایبی هستند که قدرت عبارات برهمکنش را در یک دروازه چند کیوبیتی برای تعیین می کنند X X ، Y Y و ز ز به ترتیب. این دروازه می تواند به تعاملات شامل تجزیه شود X X ، Y Y و ز ز .

این تجزیه امکان ارزیابی گرادیان‌ها را برای هر جزء دروازه فراهم می‌کند و بهینه‌سازی مدارهای کوانتومی را که عملیات درهم‌تنیدگی را شامل می‌شوند، تسهیل می‌کند.

۳٫۵٫ رسیدگی به خطا

مدارهای کوانتومی ذاتاً مستعد انواع مختلفی از خطاها از جمله ناهمدوسی، خطاهای دروازه و خطاهای اندازه گیری هستند. این خطاها می توانند به طور قابل توجهی بر عملکرد و قابلیت اطمینان QNN ها تأثیر بگذارند. با این حال، مدل H-QNN با ترکیب چندین تکنیک کاهش خطا به این چالش ها می پردازد.

۳٫۵٫۱٫ انتقال و بهینه سازی گیت

ترانسپیلاسیون با استفاده از تابع transpile Qiskit قبل از اجرای مدارهای کوانتومی انجام می شود. این فرآیند با نگاشت کارآمد عملیات کوانتومی به کیوبیت ها و گیت های موجود، مدار کوانتومی را برای باطن خاص بهینه می کند. ترانسپیلاسیون اغلب منجر به کاهش تعداد کلی گیت و عمق مدار می شود که احتمال خطاهای ناشی از عیوب گیت و عدم انسجام را به حداقل می رساند.

مدار کوانتومی داده شده است تی QC با n کیوبیت، فرآیند انتقال را می‌توان به صورت ریاضی توصیف کرد

تی منتقل شده است = انتقال دادن ( تی QC ، ج ، ب الف ج ک ه n د )

کجا تی منتقل شده است مدار بهینه شده برای سخت افزار کوانتومی خاص است و ج تابع هزینه است که برای ارزیابی و بهینه سازی مدار کوانتومی استفاده می شود.

۳٫۵٫۲٫ تصحیح اندازه گیری

پس از اجرای مدارهای کوانتومی، نتایج اندازه گیری جمع آوری شده و برای محاسبه مقادیر مورد انتظار پردازش می شود. این مرحله شامل تبدیل تعداد خام به احتمالات و محاسبه مقادیر مورد انتظار حالت های اندازه گیری شده است. برای رسیدگی به اختلافات احتمالی در نتایج اندازه‌گیری، از یک قالب ثابت برای پردازش نتایج استفاده می‌شود که در زیر مورد بحث قرار می‌گیرد.

اجازه دهید { ص من } احتمال اندازه گیری حالت کوانتومی باشد { | من } . مقدار مورد انتظار E اندازه گیری کوانتومی با کجا داده می شود من نشان دهنده حالت اندازه گیری شده و ص من احتمال اندازه گیری حالت است من. برای محاسبه ص من ما از شمارش های اندازه گیری از چندین عکس استفاده می کنیم: کجا n من شمارش حالت اندازه گیری است من و ن تعداد کل شلیک ها است. در H-QNN، ما با پردازش نتایج همانطور که در الگوریتم ۱ (خطوط ۱۹-۳۴) ارائه شده است، اختلافات بالقوه در نتایج اندازه گیری را مدیریت می کنیم.

این رویکرد تفسیر دقیق نتایج اندازه گیری را حتی در حضور نویز و خطا از طریق تمرین میانگین گیری در چندین شات و به کارگیری روش های آماری برای استخراج مقادیر مورد انتظار تضمین می کند.

۳٫۶٫ معماری مدل پیشنهادی

شکل ۲ معماری پیشنهادی H-QNN را نشان می دهد. جزئیات هر جزء در زیر آورده شده است:
  • ورودی: مرحله اولیه شامل پیش پردازش داده های تصویر است، که در آن اندازه همه تصاویر به اندازه استاندارد تغییر داده می شود. برای معماری H-QNN، ما از اندازه تصویر ۷۲۰ × ۷۲۰ استفاده کردیم. این تغییر اندازه یکنواختی در ابعاد ورودی را تضمین می کند. علاوه بر این، مقادیر پیکسل نرمال می شوند تا در محدوده خاصی از اطراف قرار بگیرند [−۱, ۱].

  • اجزای شبکه عصبی کلاسیک: پس از پیش پردازش داده ها، یک CNN با شش لایه کانولوشن (Conv2d) شروع می شود (شکل ۲). این لایه ها داده های پیکسلی تصاویر را با اعمال فیلترهای مختلف (هسته) پردازش می کنند. فیلترها سلسله مراتب فضایی و ویژگی هایی مانند لبه ها، بافت ها و اشکال را ثبت می کنند. هر لایه کانولوشن با یک تابع فعال سازی ReLU دنبال می شود. این امر غیرخطی بودن را معرفی می کند که به مدل در یادگیری الگوهای پیچیده تر کمک می کند. بعد از هر لایه کانولوشن، لایه های max-pooling (MaxPool2d) اعمال می شود. ادغام ابعاد هر نقشه ویژگی را کاهش می دهد و در عین حال مهم ترین اطلاعات را حفظ می کند. این کمک می کند تا بدون توجه به تغییرات در اندازه و جهت اشیاء در تصویر، ویژگی های ثابت را شناسایی کنید. علاوه بر این، ابعاد نقشه‌های ویژگی را کاهش می‌دهد که به نوبه خود بار محاسباتی را کاهش می‌دهد و پردازش را سریع‌تر و کارآمدتر می‌کند. پس از لایه کانولوشنال نهایی، یک لایه ادغام میانگین تطبیقی ​​(AdaptiveAvgPool2d) اعمال می شود. این ابعاد فضایی را به اندازه (۱، ۱) کاهش می دهد، و به طور موثر ویژگی های استخراج شده توسط پیچیدگی ها را در یک عدد واحد برای هر نقشه ویژگی خلاصه می کند.
  • لایه های کاملا متصل: سپس شبکه از لایه های کانولوشن به سه لایه کاملا متصل (خطی) تبدیل می شود. این لایه ها نمایش ویژگی های آموخته شده را به اندازه خروجی مورد نظر ترسیم می کنند. خروجی آخرین دنباله لایه کانولوشن مسطح می شود و از لایه های کاملاً متصل عبور می کند تا یک بردار ویژگی ایجاد شود.

  • جزء مدار کوانتومی/مدار پارامتری شده: بعد از لایه‌های کاملاً متصل، لایه‌های پنهان مدل H-QNN هستند که فقط از یک جزء کوانتومی تشکیل شده‌اند. ورودی تولید شده توسط آخرین لایه کلاسیک (یعنی لایه کلاسیک کاملاً متصل) از طریق یک مدار کوانتومی پردازش می‌شود که شامل گیت‌های هادامارد، دروازه‌های چرخشی پارامتری شده است. آر y ) و اندازه گیری ها مدار ورودی ها را از طریق حالت های کوانتومی پردازش می کند و خروجی تولید می کند که اطلاعات یکپارچه را از ورودی می گیرد.

    در مدل H-QNN ما (شکل ۲)، مدار پارامتری شامل ۲ کیوبیت و دارای ۴ گیت کوانتومی است. برای ادغام مدار کوانتومی در گذر رو به جلو شبکه، آن را با کلاس تابع PyTorch از طریق یک ادغام می کنیم. اتوگراد تابع روش فوروارد مقادیر مورد انتظار مدار کوانتومی را با اجرای عملیات کوانتومی و سپس اندازه‌گیری حالت‌های نهایی برای تولید یک خروجی کلاسیک محاسبه می‌کند. این مقادیر انتظاری به عنوان ورودی لایه بعدی یا خروجی نهایی شبکه عمل می کنند.
    در طول گذر به عقب، ما از انتشار پس‌انداز برای آموزش شبکه با جابجایی جزئی ورودی‌ها با استفاده از قانون تغییر پارامتر، همانطور که در بخش ۳٫۴ توضیح داده شد، استفاده می‌کنیم. ما گرادیان مدار کوانتومی را با توجه به پارامترهای ورودی محاسبه می‌کنیم و شبکه را قادر می‌سازیم تا این پارامترها را یاد بگیرد و به‌روزرسانی کند. پس از محاسبه گرادیان‌ها، مدار را مجددا اجرا می‌کنیم تا پارامترها را تأیید و تنظیم کنیم و گذر به عقب را تکمیل کنیم.
  • ترکیب اجزای کلاسیک و کوانتومی: ماژول هیبریدی مدار کوانتومی را با عملکردهای شبکه عصبی کلاسیک که در بخش ۳٫۳ توضیح داده شده است، ترکیب می کند. در یکی از لایه های نهایی مدل، به ویژه پس از آخرین لایه کاملا متصل معماری کلاسیک CNN، ادغام شده است. این لایه کلاسیک نهایی مسئول تبدیل ویژگی های سطح بالا استخراج شده توسط لایه های کانولوشن به فرمتی مناسب برای پردازش توسط مدار کوانتومی است.

    لایه هیبریدی این ورودی ها را از طریق مدار کوانتومی پردازش می کند و خروجی حاصل مانند هر خروجی لایه دیگر در یک شبکه عصبی رفتار می شود. پس از فرآیندهای مدار کوانتومی، ورودی‌ها و اندازه‌گیری‌ها گرفته می‌شوند و خروجی از این اندازه‌گیری‌ها در صورت وجود، به لایه‌های بعدی منتقل می‌شود. در این تنظیمات ترکیبی، اندازه‌گیری‌های مدار کوانتومی اساساً خروجی‌های نهایی لایه هیبریدی هستند. این خروجی ها می توانند به لایه های بیشتر در یک شبکه پیچیده تر وارد شوند یا به طور مستقیم به پیش بینی نهایی مدل کمک کنند.

  • خروجی: لایه خروجی مدل H-QNN نتایج مدار کوانتومی را با نتایج شبکه عصبی کلاسیک ادغام می‌کند تا خروجی طبقه‌بندی نهایی را تولید کند. ویژگی‌های تقویت‌شده کوانتومی از مدار کوانتومی پارامتری شده در فرآیند کلی تصمیم‌گیری ادغام می‌شوند که دقت و عملکرد نهایی مدل را بهبود می‌بخشد.

۴٫ نتایج

این بخش نتایج تجربی مدل H-QNN پیشنهادی ما را ارائه می‌کند. ما آزمایش‌هایی را روی رایانه‌ای انجام دادیم که مجهز به پردازنده Intel(R) Core i7-13700 با فرکانس پردازنده ۳٫۵۰ گیگاهرتز، ۳۲٫۰ گیگابایت حافظه دسترسی تصادفی (RAM) و اجرای اوبونتو ۲۲٫۰۴٫۴، نسخه LTS بود.

۴٫۱٫ تجزیه و تحلیل عملکرد مقایسه ای

ما اثربخشی مدل ترکیبی خود را با استفاده از سه مجموعه داده مجزا که از Kaggle تهیه شده بود، ارزیابی کردیم. ما از ۲۰۰۰ تصویر برای هر کلاس در مجموعه داده ماشین در مقابل دوچرخه، ۵۰۰۰ تصویر برای هر کلاس در مجموعه داده Dump vs. Recycle Waste، و ۱۵۰۰ تصویر برای هر کلاس در مجموعه داده فوتبال در مقابل راگبی استفاده کردیم. ما تصاویر را به طور تصادفی از مجموعه داده ها انتخاب کردیم.

نتایج مدل H-QNN پیشنهادی ما در جدول ۱ ارائه شده است. مدل پیشنهادی H-QNN ما پارامترهای مشابهی با مدل سنتی CNN دارد (شش لایه کانولوشن و سه لایه کاملاً متصل). نتایج نشان می‌دهد که مدل H-QNN ما از نظر دقت بهتر از مدل سنتی CNN عمل می‌کند. به طور خاص، مدل ما با وجود داشتن پارامترهای یکسان، به دقت ۹۰٫۱٪ برای مجموعه داده ماشین در مقابل دوچرخه، در مقایسه با دقت ۸۸٫۲٪ مدل CNN، دست یافت.
علاوه بر این، جدول ۲ عملکرد H-QNN و CNN را در سه مجموعه داده مقایسه می کند. مقایسه برای دو مجموعه آزمایش انجام شده است: یکی با ۱۰۰۰ تصویر در هر کلاس و دیگری با ۵۰۰ تصویر در هر کلاس. هدف از این آزمایش‌ها ارزیابی عملکرد مدل‌ها با داده‌های آموزشی کافی و محدود به منظور دستیابی به بینش در مورد قابلیت‌های تعمیم آن‌ها است.

در آزمایشات با ۱۰۰۰ تصویر در هر کلاس، H-QNN به طور مداوم از CNN در تمام مجموعه داده ها بهتر عمل می کند و استحکام خود را با داده های آموزشی بزرگتر نشان می دهد. به طور مشابه، هنگامی که تعداد تصاویر در هر کلاس به ۵۰۰ کاهش می یابد، H-QNN عملکرد پایدارتری نسبت به CNN حفظ می کند. این پایداری نشان‌دهنده قابلیت‌های تعمیم برتر H-QNN است و آن را برای برنامه‌هایی با داده‌های آموزشی محدود مناسب‌تر می‌کند. در مقابل، CNN تمایل دارد با داده‌های کاهش‌یافته بیش‌ازحد تناسب داشته باشد، که بر مزایای استفاده از H-QNN برای عملکرد قابل اعتماد و ثابت در وظایف طبقه‌بندی تصویر تأکید می‌کند.

علاوه بر این، ما عملکرد مدل H-QNN و CNN کلاسیک خود را با استفاده از متریک فاصله اطمینان (با اطمینان ۹۵٪) در مجموعه داده‌های ماشین در مقابل دوچرخه، فوتبال در مقابل راگبی، و تخلیه در مقابل زباله ارزیابی می‌کنیم. در اینجا لازم به ذکر است که ما آزمایشاتی را روی دو نوع مختلف از هر مجموعه داده انجام دادیم که در آن نوع اول شامل ۱۰۰۰ تصویر در هر کلاس و نوع دوم شامل ۵۰۰ تصویر در هر کلاس است. نتایج به‌دست‌آمده در جدول ۳ نشان داده شده است. همانطور که در جدول ۳ مشاهده می‌شود، H-QNN ما در بیشتر موارد به فواصل اطمینان بهتری در مقایسه با CNN کلاسیک دست می‌یابد. به عنوان مثال، H-QNN ما در هنگام استفاده از ۱۰۰۰ تصویر در هر کلاس، فاصله اطمینان کمی در مجموعه داده فوتبال در مقابل راگبی دارد. به طور مشابه، هنگام آزمایش بر روی ۵۰۰ تصویر در هر کلاس، H-QNN ما فاصله اطمینان بهتری را در مجموعه داده‌های ماشین در مقابل دوچرخه، فوتبال در مقابل راگبی، و Dump در مقابل زباله ایجاد می‌کند. مقادیر فاصله اطمینان به‌دست‌آمده نشان می‌دهد که اطمینان پیش‌بینی مدل ما در یک فاصله اطمینان باریک و در عین حال بالاتر در هر یک از انواع مجموعه داده، همانطور که در جدول ۳ نشان داده شده است، نهفته است.

۴٫۲٫ تجزیه و تحلیل منحنی ضرر

شکل ۳ منحنی های تلفات مدل های H-QNN و CNN را در سه مجموعه داده مختلف در دوره های آموزشی نشان می دهد. این منحنی ها برای درک میزان یادگیری و تثبیت هر مدل ضروری هستند. مدل H-QNN کاهش شدیدی در از دست دادن دارد، که نشان‌دهنده نرخ یادگیری سریع‌تر و قابلیت تعمیم بالقوه بهتر است. منحنی ها همچنین نوسانات کمتری را نشان می دهند که نشان می دهد مولفه های کوانتومی به تثبیت دینامیک یادگیری کمک می کنند. از سوی دیگر، مدل‌های CNN کاهش تدریجی اتلاف با نوسانات قابل‌توجه دارند، به‌ویژه در مراحل اولیه آموزش، که ممکن است نشان‌دهنده مشکل در تطبیق داده‌ها یا گیر افتادن در حداقل‌های محلی باشد. بر اساس تحلیل مقایسه‌ای این منحنی‌های تلفات، می‌توان نتیجه گرفت که مدل H-QNN سریع‌تر یاد می‌گیرد، تلفات کمتری به دست می‌آورد و در نتیجه روی این مجموعه داده‌ها عملکرد بهتری دارد.

۴٫۳٫ استخراج ویژگی t-SNE

شکل ۴ تکنیک تعبیه تصادفی همسایه t توزیع شده (t-SNE) را برای استخراج ویژگی نشان می دهد، که برای کاهش ابعاد برای تجسم ویژگی های ابعاد بالا که توسط مدل های H-QNN و CNN آموخته شده است، استفاده می شود. این ما را قادر می سازد تا کیفیت خوشه بندی و جداسازی ویژگی ها را بین کلاس های مختلف ارزیابی کنیم. نمودارهای ویژگی برای مدل H-QNN خوشه‌های کاملاً مشخص و متمایز را نشان می‌دهند، که نشان‌دهنده اثربخشی آن در یادگیری ویژگی‌های متمایز است که به خوبی در فضای ویژگی از هم جدا شده‌اند. برعکس، نمودارهای ویژگی CNN خوشه‌های متمایز کمتری را با برخی همپوشانی بین کلاس‌های مختلف نشان می‌دهند، که می‌تواند منجر به نرخ‌های طبقه‌بندی اشتباه بالاتر شود، زیرا مدل ممکن است برای تمایز بین کلاس‌های نزدیک به خوشه‌ای تلاش کند. این نمودارهای t-SNE نشان می‌دهد که مدل H-QNN بهتر از CNN عمل می‌کند، زیرا می‌تواند ویژگی‌های مفیدتر و جداگانه‌تری را برای وظایف طبقه‌بندی تصویر بیاموزد.

۴٫۴٫ تجزیه و تحلیل عملکرد بازیابی تصویر

این بخش ارزیابی کمی و کیفی دقیق CNN و H-QNN پیشنهادی ما را برای کار بازیابی تصویر در سه مجموعه داده مختلف (شامل مجموعه داده ماشین در مقابل دوچرخه، فوتبال در مقابل راگبی، و مجموعه داده Dump در مقابل بازیافت) ارائه می‌کند. انگیزه ارزیابی مدل های آموزش دیده (از جمله CNN و H-QNN) برای وظایف بازیابی تصویر، اطمینان از کارایی آنها از نظر استخراج ویژگی و سازگاری برای کارهای پایین دستی (یعنی بازیابی تصویر، تشخیص اشیا و تقسیم بندی تصویر) است. برای انجام آزمایش‌های بازیابی تصویر، ۱۰۰ تصویر در هر کلاس از سه مجموعه داده جمع‌آوری کردیم که در نتیجه یک مجموعه آزمایشی حاوی ۶۰۰ تصویر بود. به طور معمول، برای یک کار بازیابی تصویر، عملکرد یک مدل را می توان بر اساس بازیابی های صحیح برای یک تصویر پرس و جو مورد بررسی قرار داد. با پیروی از همان معیارهای ارزیابی، طرح ارزیابی پیشنهادی ما برای کار بازیابی تصویر از متریک top-k استفاده می‌کند، که در آن k∈ {۵، ۱۰، و ۱۵} است. متغیر ک تعداد بازیابی ها را بر اساس شباهت آنها با تصویر پرس و جو نشان می دهد. دقت بازیابی نهایی به صورت زیر در رابطه (۱۰) محاسبه می شود:

تی O ص ک الف ج ج تو r الف ج y = ن تو متر ب ه r O f ج O r r ه ج تی r ه تی r من v الف ل س ن تو متر ب ه r O f تی O تی الف ل r ه تی r من v الف ل س

نتایج بازیابی کمی به‌دست‌آمده از CNN پایه و H-QNN ما در سه مجموعه داده در جدول ۴ ارائه شده است. مقادیر جدول‌بندی شده اثربخشی مدل H-QNN پیشنهادی ما را نشان می‌دهد، که به طور متوسط ​​۱۲٫۴۱% نسبت به CNN پایه در CNN بهبود یافته است. مجموعه داده ماشین در مقابل دوچرخه. در مجموعه داده های فوتبال در مقابل راگبی و دامپ در مقابل بازیافت، CNN خط پایه نتایج بهتری در مقایسه با H-QNN در هر متریک top-k به دست می آورد. علاوه بر این، نتایج کیفی به‌دست‌آمده از سه آزمون با تصاویر جستجوی مختلف با استفاده از معیارهای ۱۰ بالا در شکل ۵ نشان داده شده است. از نتایج فهرست‌شده در جدول ۴، می‌توان دریافت که نتایج به‌دست‌آمده در کار بازیابی تصویر با طبقه‌بندی متفاوت است. نتایج به دلیل اهداف متمایز و معیارهای ارزیابی آنها است. در طبقه‌بندی تصویر، یک مدل قصد دارد برچسب درستی را به هر تصویر از مجموعه‌ای از دسته‌های از پیش تعریف‌شده اختصاص دهد، در حالی که در بازیابی تصویر، بر یافتن و رتبه‌بندی تصاویر بر اساس شباهت آنها به یک تصویر جستجو تمرکز می‌کند.

۵٫ بحث و محدودیت

نتایج ارائه شده در بخش ۴ پتانسیل H-QNN را برای طبقه بندی تصاویر باینری نشان می دهد. مدل H-QNN به طور موثر مزایای محاسبات کوانتومی و شبکه‌های عصبی کلاسیک را با هم ترکیب می‌کند، که منجر به بهبود دقت و قابلیت‌های تعمیم در مقایسه با مدل‌های سنتی CNN می‌شود. به طور خاص، مدل H-QNN به نرخ دقت ۹۰٫۱ درصد در مجموعه داده‌های تصویر باینری دست یافت که از مدل‌های CNN بهتر بود. ادغام یک مدار کوانتومی دو کیوبیت در معماری کانولوشن کلاسیک نشان داده است که از نظر محاسباتی در دستگاه‌های NISQ کارآمد است و آن را به یک رویکرد امیدوارکننده برای برنامه‌های کاربردی محاسبات کوانتومی تبدیل می‌کند. علاوه بر این، نتایج تجربی نشان می‌دهد که مدل H-QNN می‌تواند به مسئله تطبیق بیش از حد با مجموعه داده‌های کوچک، که یک چالش رایج در یادگیری ماشین است، بپردازد. تجزیه و تحلیل منحنی تلفات و استخراج ویژگی t-SNE نشان می‌دهد که مدل H-QNN سریع‌تر یاد می‌گیرد، تلفات کمتری به دست می‌آورد و خوشه‌های ویژگی به خوبی جدا شده تولید می‌کند که به عملکرد برتر آن در طبقه‌بندی تصویر و وظایف بازیابی تصویر کمک می‌کند.

با وجود مزایای ارائه شده توسط مدل H-QNN، محدودیت هایی وجود دارد که باید در نظر گرفته شوند. پیاده سازی فعلی مدل H-QNN با قابلیت های دستگاه های NISQ که دارای تعداد محدودی کیوبیت هستند و مستعد نویز و خطا هستند، محدود شده است. وفاداری گیت و نویز کوانتومی عوامل مهمی هستند که بر عملکرد مدارهای کوانتومی تأثیر می گذارند. وفاداری پایین دروازه می تواند خطاهایی را در محاسبات ایجاد کند، در حالی که نویز کوانتومی، از جمله خطاهای ناهمدوسی و عملیاتی، می تواند دقت مدل را کاهش دهد. مشاهدات تجربی ما نشان می‌دهد که خطاهای گیت و نویز می‌تواند منجر به کاهش قابل توجه عملکرد شود.

برای کاهش محدودیت‌های دستگاه‌های NISQ، ما از چندین استراتژی، از جمله تکنیک‌های کاهش خطا مانند تصحیح اندازه‌گیری و انتقال استفاده کردیم. این تکنیک ها به مقابله با اثرات نامطلوب نویز کمک می کند و به مدل H-QNN ما اجازه می دهد تا به نتایج قابل اعتمادتری دست یابد. پیشرفت‌های مداوم در سخت‌افزار کوانتومی، به‌ویژه در افزایش وفاداری گیت و کاهش نویز، برای استقرار عملی شبکه‌های عصبی کوانتومی بسیار مهم خواهد بود. در حالی که مدل H-QNN بهبود قابل توجهی را در طبقه بندی تصاویر باینری نشان می دهد، مقیاس پذیری آن برای طبقه بندی چند طبقه و مجموعه داده های بزرگتر همچنان باید به طور کامل بررسی شود. کارایی و دقت مدل H-QNN در مدیریت وظایف پیچیده تر با تعداد کلاس های بالاتر و حجم داده های بزرگتر نیاز به بررسی بیشتر دارد.

طراحی مدار کوانتومی در مدل H-QNN نسبتا ساده است و فقط یک مدار دو کیوبیتی را شامل می شود. طراحی‌های پیچیده‌تر مدار کوانتومی می‌تواند عملکرد مدل را افزایش دهد، اما به سخت‌افزار کوانتومی پیشرفته‌تر و تکنیک‌های بهینه‌سازی نیاز دارد. آموزش مدل H-QNN مستلزم منابع محاسباتی و زمان قابل توجهی است، به ویژه هنگام شبیه سازی مدارهای کوانتومی بر روی سخت افزار کلاسیک. این می تواند مانعی برای پذیرش گسترده QML باشد، زیرا نیاز به دسترسی به منابع محاسباتی با کارایی بالا و شبیه سازهای کوانتومی کارآمد دارد.

مطالعه حاضر بر وظایف طبقه بندی تصاویر باینری متمرکز است. تعمیم مدل H-QNN به سایر حوزه‌ها و انواع داده‌ها، مانند پردازش زبان طبیعی یا تجزیه و تحلیل سری‌های زمانی، هنوز مورد بررسی قرار نگرفته است و همچنان یک سؤال باز است. محاسبات کوانتومی به دلیل عدم پیوستگی و نقص دروازه مستعد خطا هستند. استراتژی های موثر کاهش خطا برای بهبود قابلیت اطمینان و دقت مدل H-QNN بسیار مهم است. راهبردهای کاهش خطای مدارهای کوانتومی هنوز حوزه تحقیقات در حال انجام است. پرداختن به این محدودیت‌ها برای پیشبرد کاربردهای عملی مدل‌های H-QNN در حوزه‌های مختلف و تحقق کامل پتانسیل یادگیری ماشینی تقویت‌شده کوانتومی ضروری است. کار آینده در این زمینه باید بر توسعه مدارهای کوانتومی قوی‌تر، بهبود تکنیک‌های کاهش خطا، و بررسی مقیاس‌پذیری و تعمیم مدل‌های H-QNN به کاربردهای گسترده‌تر متمرکز شود.

۶٫ نتیجه گیری و کار آینده

شبکه‌های عصبی کوانتومی (QNN) نوید قابل توجهی برای پیشبرد وظایف طبقه‌بندی تصویر با استفاده از ویژگی‌های منحصربه‌فرد مکانیک کوانتومی دارند. این مطالعه پتانسیل QNN های ترکیبی (H-QNN) را در پیشبرد طبقه بندی تصاویر باینری نشان می دهد. مدل پیشنهادی H-QNN ما، که به طور خاص برای وظایف طبقه‌بندی تصاویر باینری طراحی شده است، به طور یکپارچه مزایای محاسباتی مکانیک کوانتومی را با تکنیک‌های یادگیری ماشین سنتی ادغام می‌کند. مدل پیشنهادی به طور قابل‌توجهی دقت طبقه‌بندی را در دستگاه‌های NISQ بهبود می‌بخشد، و به نرخ دقت چشمگیر ۹۰٫۱% در مجموعه داده‌های ماشین در مقابل دوچرخه دست می‌یابد که از عملکرد مدل کلاسیک CNN 1.9% پیشی می‌گیرد.

مدل پیشنهادی H-QNN ما شامل یک معماری دو کیوبیت و شش لایه است که برای رسیدگی به محدودیت‌های کیوبیت دستگاه‌های NISQ، همراه با یک معماری کانولوشن کوانتومی جدید طراحی شده است که با تعداد کمتری از تصاویر به دقت بالایی دست می‌یابد. رویکرد ترکیبی کوانتومی-کلاسیک، منابع محاسباتی را در سراسر طیف کوانتومی-کلاسیک بهینه می‌کند و راه‌حلی مقیاس‌پذیر و مؤثر در عصر NISQ ارائه می‌دهد. سازگاری معماری پیشنهادی ما برای رسیدگی به طبقه بندی چند کلاسه، پتانسیل آن را در کاربردهای مختلف دنیای واقعی بیشتر نشان می دهد.

این کار همچنین بر استحکام مدل H-QNN ما نسبت به نویز کوانتومی و توانایی آن در تعمیم خوب حتی با داده‌های آموزشی محدود تأکید می‌کند، برخلاف تمایل CNN سنتی به بیش از حد برازش. این یافته‌ها نشان می‌دهد که مدل‌های ترکیبی نشان‌دهنده یک تغییر پارادایم در هوش مصنوعی تقویت‌شده با کوانتومی است، که امکان‌های بیشتری را برای پرداختن به محدودیت‌های رویکردهای کلاسیک یا کوانتومی صرفاً در برنامه‌های پرمخاطره و دنیای واقعی باز می‌کند.

علیرغم نتایج امیدوارکننده برای مدل‌های H-QNN، حوزه‌های مختلفی برای کار آینده وجود دارد که می‌تواند کاربرد و عملکرد مدل‌های H-QNN را بهبود بخشد. تحقیقات آینده می‌تواند بر توسعه طرح‌های پیچیده‌تر مدار کوانتومی متمرکز شود که از سخت‌افزار کوانتومی پیشرفته و تکنیک‌های بهینه‌سازی برای افزایش بیشتر عملکرد مدل بهره می‌برد. علاوه بر این، گسترش مدل H-QNN برای دسته بندی چند طبقه و مجموعه داده های بزرگتر می تواند کاربرد آن را به طور قابل توجهی گسترش دهد.

بررسی تعمیم مدل H-QNN به سایر حوزه‌ها، مانند پردازش زبان طبیعی و تحلیل سری‌های زمانی، می‌تواند بینشی در مورد تطبیق پذیری آن ارائه دهد. علاوه بر این، پیشبرد استراتژی‌های کاهش خطا برای مدارهای کوانتومی برای بهبود قابلیت اطمینان و دقت مدل‌های H-QNN بسیار مهم خواهد بود. در نهایت، بررسی مقیاس‌پذیری مدل‌های H-QNN برای سیستم‌های کوانتومی بزرگ‌تر و ادغام آن‌ها با فناوری‌های کوانتومی نوظهور (به عنوان مثال، بازپخت کوانتومی و کیوبیت‌های توپولوژیکی) می‌تواند به کاربردهای عملی‌تر و گسترده‌تر در یادگیری ماشین کوانتومی پیشرفته منجر شود.


منبع: https://www.mdpi.com/2673-2688/5/3/70

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *