برخی کارشناسان معتقدند سرعت پیشرفت هوش مصنوعی کاهش یافته و تواناییهای این فناوری در آینده با تواناییهای کنونی آن تفاوتی نخواهد داشت. آیا واقعاً چنین خواهد شد.
سرعت پیشرفت هوش مصنوعی در آینده موضوع اصلی این هفته «سربرال ولی اِیآی سامیت» (Cerebral Valley AI Summit) در سان فرانسیسکو بود؛ نشستی که با حضور حدود ۳۵۰ مدیرعامل، مهندس و سرمایهگذار در حوزه هوش مصنوعی برگزار شد.
تاکنون، چرخه هیجان هوش مصنوعی (AI hype cycle) بر این نظریه استوار بوده که با استفاده از دادهها و محاسبات بیشتر برای آموزش مدلهای جدید هوش مصنوعی، میتوان به نتایج بهمراتب بهتری دست یافت اما گوگل و سایر غولهای فناوری اکنون با مشکل بازده کاهشی در آموزش مدلهای جدید خود مواجه شدهاند. فرضیه موانع مختلف بر سر راه پیشرفت هوش مصنوعی که ازاینپس بهعنوان فرضیه «دیوار» از آن یاد میکنیم، این احتمال را که آن نسل بعدی مدلهای اصلی هوش مصنوعی بهطور قابلتوجهی باهوشتر از مدلهای موجود خواهند بود، به چالش میکشد.
«الکساندر وانگ» (Alexandr Wang)، مدیرعامل «اسکیل آپ» (Scale AI)، شرکتی که به OpenAI، متا و دیگران در آموزش مدلهایشان کمک میکند، در اولین جلسه نشست به «اریک نیوکامر» (Eric Newcomer)، میزبان آن، گفت:
آیا ما به دیوار خوردهایم؟ هم بله هم نه.
شاید اینطور به نظر برسد که مدلهای هوش مصنوعی متعلق به آنتروپیک، OpenAI و دیگر شرکتها چندان باهوشتر از مدلهای فعلی نباشند اما افرادی که با AI کار میکنند، بر این باورند که مدلهای AI هنوز جای زیادی برای بهتر شدن و متفاوت شدن با مدلهای کنونی دارند. بااینکه قابلیت «استدلال» که OpenAI در o1، مدل جدید خود، ارائه داده است، درحالحاضر قابلیت پرهزینهای محسوب میشود و بسیار کند عمل میکند، این قابلیت نشاندهنده تغییری در آینده حوزه AI است که به نظر میرسد همه با آن موافق باشند؛ پیشرفت بعدی هوشمندترکردن مدلهای زبانی بزرگ امروزی خواهد بود (همه کارشناسان هوش مصنوعی بر سر این موضوع اتفاقنظر دارند.)
الکساندر وانگ در سخنرانی خود در سربرال ولی اِیآی سامیت گفت:
درک افراد از مفهوم پیشرو بودن به میزان قابلتوجهی تغییر کرده است.
او به این موضوع اشاره کرد که بخش بزرگی از سرمایهگذاریهای انجامشده در هوش مصنوعی بر این باور استوار بود که «قانون مقیاس» همچنان پابرجا خواهد بود اما اینکه این قانون واقعاً پابرجا میماند یا خیر بزرگترین سؤال کنونی حوزه هوش مصنوعی است. قانون مقیاس در هوش مصنوعی به این موضوع اشاره میکند که عملکرد مدلهای یادگیری ماشین، بهویژه مدلهای بزرگ زبانی، با افزایش منابع مختلف مانند دادههای آموزشی، توان محاسباتی و اندازه مدل پیوسته و قابلپیشبینی بهبود مییابد.
کند شدن سرعت پیشرفت هوش مصنوعی ممکن است باتوجهبه شتاب این حوزه در سال گذشته، اتفاق بدی نباشد. هنگام برگزاری رویداد سربرال ولی اِیآی سامیت در مارس ۲۰۲۳، هنوز سام آلتمن اخراج و دوباره استخدام نشده بود؛ مارک زاکربرگ هنوز تصمیم نگرفته بود مدل لاما را بهصورت عمومی عرضه کند و ایلان ماسک که برای راهاندازی xAI اعضای تیمش را جمع میکرد، تقاضای توقف توسعه هوش مصنوعی را مطرح کرد. همان زمان، «عماد مستقی» (Emad Mostaque)، بنیانگذار Stability AI، مدعی بود میخواهد «یکی از بزرگترین و بهترین شرکتهای جهان» را بسازد اما این شرکت اکنون تقریباً سقوط کرده و مستقی هم دیگر مدیرعامل آن نیست!
اکنون در محافل هوش مصنوعی، «عاملها» (Agents) موردتوجهاند. عاملها مدلهای زبانی بزرگی هستند که میتوانند کنترل کامپیوتر را به دست بگیرند و بهجای کاربر اقدام کنند. شایعاتی وجود دارد که گوگل ماه آینده عامل «جمینی» خود را معرفی خواهد کرد و پسازآن OpenAI در ژانویه از نسخه خود رونمایی خواهد کرد. متا نیز درحال کار روی عاملهاست. «داریو آمودِی» (Dario Amodei)، مدیرعامل آنتروپیک پایان روز برگزاری همایش همراه 2 محافظ شخصیاش حضور یافت. این شرکت بهتازگی عامل سادهای را از طریق API خود عرضه کرده.
الکساندر وانگ درمورد آینده عاملها اینگونه پیشبینی کرده است:
برای عاملها هم لحظهای مشابه ChatGPT اتفاق میافتد؛ شما یک عامل عمومی خواهید داشت که احتمالاً بسیار محبوب خواهد شد.
البته او معتقد است آزمایشگاههای هوش مصنوعی برای رسیدن به این هدف به نوع جدیدی از دادهها برای آموزش نیاز دارند.
وی درباره این موضوع گفت:
اینترنت بهطرز شگفتآوری دادههای کمی درباره اقدامات انسانی و مستندسازی فرایندهای فکری آنها حین انجام این اقدامات دارد.
براساس شنیدهها، داریو آمودِی تنها مدیرعامل هوش مصنوعی مخالف نظریه به بنبستخوردن قانون مقیاسپذیری است. او بهتازگی ۴ میلیارد دلار دیگر از آمازون گرفته تا در سرویس ابری آمازون وبسرویس و تراشههای داخلی این شرکت سرمایهگذاری کند. آمودِی در سخنرانیاش در سربرال ولی اِیآی سامیت گفت:
هیچچیز در این حوزه ندیدهام که با آنچه در ۱۰ سال گذشته مشاهده کردهام، ناسازگار باشد یا من را به این نتیجه برساند که روند پیشرفت AI کند خواهد شد
البته آمودِی استدلالهای زیادی برای اثبات این ادعا نداشت. او توضیح نداد چرا آنتروپیک هنوز نسخه بعدی «اوپوس» (Opus)، پیشرفتهترین و گرانترین مدل کلاد «Claude» خود، را که مدتهاست آن را تبلیغ میکند، عرضه نکرده. وقتی اریک نیوکامر او را برای اعلام زمان دقیق این مدل تحت فشار قرار داد، فقط در پاسخ گفت: «بهطورکلی، هرچند ماه یک بار مدلهای بهتری خواهیم دید.» و حضار به حرفش خندیدند.
آمودِی ادعا کرد «هوش عمومی مصنوعی» (AGI) ممکن است بهزودی و حتی تا سال آینده محقق شود. به گفته او باوجود تمام هیجانات، «تحقق این سطح پیشرفته از هوش مصنوعی، زندگی ما را بهسرعت تحتتأثیر قرار نخواهد داد». تطبیق پیشبینیهای مرتبط با هوش مصنوعی عمومی با وضعیت فعلی حوزه هوش مصنوعی کمی دشوار است؛ هوش مصنوعی عمومی به سطحی از این فناوری گفته میشود که در زمینههای شناختی و نتیجهگیری توانایی رقابت با انسان را دارد.
افرادی مثل آمودِی همچنان به پایداری سرعت پیشرفت هوش مصنوعی معتقدند و باور دارند این فناوری در آینده بهطرز چشمگیری قدرتمندتر خواهد شد. او ابتدای روز برگزاری همایش، در نشستی دیگر به میزبانی مؤسسه ایمنی هوش مصنوعی ایالات متحده، به ریاست «جینا ریموندو»، وزیر بازرگانی آمریکا، صحبت کرد. وی در نشست «سربرال ولی» (Cerebral Valley)، از دیدگاه «مارک آندریسن» درباره ایمنی هوش مصنوعی انتقاد کرد؛ این دیدگاه بهصورت لسهفر (بیمداخله) و با این استدلال که «هوش مصنوعی فقط ریاضیات است»، ایمنی را بیاهمیت میداند.
آمودِی پاسخ داد: «آیا مغز شما هم فقط ریاضی نیست؟ وقتی یک نورون شلیک میکند و سیناپسها را جمع میزند، آن هم ریاضی است؛ پس نباید از هیتلر بترسیم. او هم فقط ریاضی است، درست است؟»