فیزیک عجیبی که مغز ماشین را بیدار کرد

فیزیک عجیبی که مغز ماشین را بیدار کرد

سرویس فناوری - در دهه ۱۹۸۰، زمانی که دانشمندان هنوز تصویری روشن از چگونگی ساخت ماشین‌هایی با توانایی یادگیری نداشتند، یک فیزیکدان حالت‌جَمَد به نام جان هاپفیلد، روشی نوآورانه برای ساخت حافظه در ماشین‌ها ارائه کرد. او با الهام از رفتار عجیب موادی موسوم به شیشه‌های اسپینی (Spin Glasses)، مدلی از شبکه‌های عصبی ساخت که می‌توانستند اطلاعات را ذخیره و بازیابی کنند، بدون نیاز به جست‌وجو در حافظه یا پایگاه داده. ...

به گزارش سرویس فناوری جیرجیرک به نقل از فرادید - هوش مصنوعی مدرن، میراث فیزیکی از موادی است که هیچ کس فکر نمی کرد به کار آیند: شیشه های اسپینی.

در دهه ۱۹۸۰، زمانی که دانشمندان هنوز تصویری روشن از چگونگی ساخت ماشین هایی با توانایی یادگیری نداشتند، یک فیزیکدان حالت جَمَد به نام جان هاپفیلد، روشی نوآورانه برای ساخت حافظه در ماشین ها ارائه کرد. او با الهام از رفتار عجیب موادی موسوم به «شیشه های اسپینی» (Spin Glasses)، مدلی از شبکه های عصبی ساخت که می توانستند اطلاعات را ذخیره و بازیابی کنند، بدون نیاز به جست وجو در حافظه یا پایگاه داده.

اگرچه شیشه های اسپینی در ظاهر بی فایده به نظر می رسند، نظریه های فیزیکیِ ابداع شده برای توضیح رفتار غیرمعمول آن ها، بذر شبکه های عصبی هوشمند امروز را کاشتند. این شبکه ها بعدها زیربنای انقلاب یادگیری عمیق و مدل های زبانی بزرگی مانند ChatGPT شدند.

در سال ۲۰۲۴، جان هاپفیلد به همراه جفری هینتون، دیگر پیشگام عرصه هوش مصنوعی، جایزه نوبل فیزیک را به خاطر پژوهش هایشان در زمینه فیزیک آماری شبکه های عصبی دریافت کردند؛ جایزه ای که برخی آن را بیشتر یک افتخار برای هوش مصنوعی دانستند تا فیزیک. با این حال، دانش پشت این فناوری همچنان عمیقاً فیزیکی باقی مانده است، فیزیکی که حالا نه فقط برای حافظه، بلکه برای تخیل ماشین ها نیز به کار می آید.

جرقه ای از دل یک مشکل واقعی

جان هاپفیلد، فیزیکدان آمریکایی، مسیر علمی اش را با مطالعه نیمه هادی ها آغاز کرد، اما به گفته خودش، در اواخر دهه ۱۹۶۰ دیگر «مسئله ای که بتواند به آن معنا ببخشد» پیدا نمی کرد. پس از ورود کوتاه مدت به زیست بیوشیمی، او به سوی علوم اعصاب و پرسشی بنیادین کشیده شد: ذهن چگونه از مغز پدید می آید؟

او متوجه شد که مفهوم «حافظه تداعی گر»، یعنی به یادآوردن چیزها از طریق نشانه ها و تداعی ها، مسئله ای است که می توان با ابزارهای فیزیک آماری سراغش رفت. برخلاف حافظه دیجیتال رایانه ها که مبتنی بر آدرس دهی دقیق است، حافظه انسانی با یک بو، صدا یا تصویر ناقص فعال می شود. هاپفیلد به دنبال مدلی رفت که بتواند چنین سازوکاری را بازسازی کند.

شیشه های اسپینی: بی نظم، ولی هوشمند

مواد موسوم به «شیشه های اسپینی» در دهه ۱۹۵۰ به واسطه رفتار مغناطیسی عجیبشان مورد توجه فیزیکدان ها قرار گرفتند. برخلاف آهنرباهای معمول، این مواد در دمای پایین خاصیت مغناطیسی گذرایی را حفظ می کنند و انرژی آن ها در وضعیت های مختلف می تواند در حالت های گوناگون گیر کند، مثل تپه ماهورهایی پر از دره های عمیق و کم عمق.

این وضعیت، که «چشم انداز انرژی» نام دارد، به فیزیکدان ها اجازه داد مدلی آماری برای توصیف چنین سیستم های پیچیده ای بسازند. هاپفیلد نیز از همین ایده برای مدل سازی حافظه استفاده کرد: اگر بتوانیم دره های انرژی را طوری شکل دهیم که هرکدام نماینده یک الگو یا خاطره باشند، شبکه عصبی به طور طبیعی به سمت آن ها «سرازیر» می شود.

از مغناطیس تا ماشین های مولد

در ادامه، هاپفیلد شبکه ای از نورون های مصنوعی طراحی کرد که هرکدام می توانستند در وضعیت «روشن» یا «خاموش» باشند. با تغییر شدت تعامل بین نورون ها، او موفق شد الگوهایی را در حافظه این شبکه ها بنشاند. هر بار که بخشی از اطلاعات به شبکه داده می شد، مثلاً تصویری ناقص از یک گربه، شبکه با تکمیل تدریجی آن به سوی یادآوری کامل الگو می رفت؛ مانند انسان که با شنیدن ابتدای یک ترانه، ادامه آن را به خاطر می آورد.

جفری هینتون در دهه ۱۹۸۰ با توسعه این ایده ها، مدل بولتزمان را معرفی کرد که اساس شبکه های یادگیرنده و در نهایت یادگیری عمیق را شکل داد. با ورود به دهه ۲۰۱۰، شبکه های عصبی عمیق به چنان موفقیتی دست یافتند که صنعت فناوری را متحول کردند.

بازگشت دوباره مدل ها

در سال های اخیر، پژوهشگران دریافته اند که مدل ها و اصول هاپفیلد هنوز حرف هایی برای گفتن دارند. در سال ۲۰۲۰ مشخص شد بخشی از ساختار «ترنسفورمر» ها، یعنی همان معماری پشت مدل هایی مثل GPT، عملاً نوعی شبکه هاپفیلد مدرن هستند. این کشف الهام بخش معماری های تازه ای مانند «ترنسفورمر انرژی» شد؛ مدلی که به جای اتکا بر آزمون و خطا، با طراحی آگاهانه «چشم انداز انرژی» ساخته می شود.

همچنین مدل های تولیدی مانند Midjourney، که با افزودن و حذف نویز به تصاویر کار می کنند، از اصول مشابهی با شبکه های هاپفیلد استفاده می کنند. پژوهشگران نشان داده اند که این مدل ها با بزرگ تر شدن داده ها، نه تنها فراموش نمی کنند، بلکه شروع به خلق «خاطرات جعلی» می کنند، درست مانند مدل های پخش یا Diffusion.

از فیزیک تا فهم ماشین ها

ظهور رفتارهای «برآمده» یا Emergent در شبکه های یادگیری عمیق، همچنان یکی از رازهای ناشناخته علم است. این پدیده ها از دل تعاملات جمعی ساده به وجود می آیند و فیزیک آماری یکی از معدود ابزارهایی است که توانسته تصویری از آن ها ارائه دهد.

شاید در آینده، همان طور که فیزیک به فهم حافظه مصنوعی کمک کرد، بتواند رازهای پیچیده تری مانند خلاقیت و ادراک را نیز در ماشین ها آشکار کند.

منبع: خبرآنلاین