در تحقیقات هوش مصنوعی یا هر تحقیق علمی دیگر، ظهور و سقوط ایده ها بر اساس شایسته سالاری ساده نیست. معمولاً دانشمندان و شرکت هایی که بیشترین منابع و بزرگترین پلتفرم را دارند بیشترین تأثیر را در این زمینه خواهند داشت.
در بخش هوش مصنوعی، قدرت در دست چند شرکت از جمله متا، گوگل، OpenAI، مایکروسافت و آنتروپیک متمرکز شده است. در حال حاضر، این فرآیند ناقص ایجاد اجماع بهترین چیزی است که ما داریم، اما هر روز محدودتر می شود. زیرا تحقیقاتی که زمانی عمدتاً جلوی چشم همه انجام می شد، اکنون کاملاً مخفیانه انجام می شود.
در طول دهه گذشته، زمانی که شرکتهای بزرگ فناوری به پتانسیل تجاری عظیم هوش مصنوعی پی بردند، سعی کردند با پیشنهادات بسیار وسوسهانگیز، دانشآموزان را از دانشگاه دور کنند و به سمت دره سیلیکون سوق دهند. بسیاری از دانشجویان دکتری دیگر منتظر فارغ التحصیلی برای پیوستن به آزمایشگاه های این شرکت ها نیستند و بسیاری از محققانی که تصمیم به ماندن در دانشگاه دارند، برای انجام پروژه های خود از این شرکت ها بودجه دریافت می کنند. امروزه تحقیقات زیادی در زمینه هوش مصنوعی در شرکت های فناوری انجام می شود که سعی می کنند با ارزش ترین دستاوردهای خود را از رقبای تجاری خود پنهان کنند.
OpenAI یکی از آن شرکت هایی است که به صراحت اعلام کرده است که هدف همه پروژه هایشان دستیابی به AGI است. این شرکت مرموز محرمانه بودن پروژه های خود را به خطرات هوش مصنوعی نسبت داده و مدعی است هر چیزی که بتواند مسیر ابرهوشی را تسریع بخشد باید به شدت تحت نظارت و کنترل قرار گیرد، در غیر این صورت می تواند به تهدیدی برای بشریت تبدیل شود.
البته OpenAI آشکارا اعتراف کرده است که مخفی نگه داشتن پروژه های خود به آن اجازه می دهد تا فاصله خود را با رقبا حفظ کند. ایلیا سوتسکیور، دانشمند ارشد OpenAI در ماه مارس به The Verge گفت: «توسعه GPT-4 کار آسانی نیست. تقریباً تمام کارمندان شرکت برای مدت بسیار طولانی در توسعه این مدل زبان مشارکت داشته اند. شرکت های زیادی هستند که می خواهند دقیقاً همان کاری را که ما انجام می دهیم انجام دهند. »
آیا باید از پروژه *Q بترسیم؟
افرادی مانند بنیانگذاران OpenAI که نگران تهدیدی هستند که هوش مصنوعی برای بشریت ایجاد می کند، از این می ترسند که توانایی هایی مانند قدرت استدلال می تواند منجر به ظهور هوش مصنوعی افسار گسیخته شود. اگر چنین سیستمهای هوش مصنوعی اجازه داشته باشند اهداف خود را تعیین کنند و در دنیای فیزیکی و دیجیتالی مداخله کنند، مسائل امنیتی بزرگی به وجود میآیند.
اما حتی اگر توانایی حل مسائل ریاضی می تواند ما را به سیستم های قدرتمند هوش مصنوعی نزدیک کند، حل این مدل از مسائل به معنای ظهور ابر هوش نیست. البته این اولین بار نیست که یک مدل جدید برای دستیابی به AGI جنجال برانگیخته است. سال گذشته، محققان همین ایده را در مورد مدل All-in-one Gato توسعه یافته توسط DeepMind گوگل داشتند.
طبق گزارش MIT Technology Review، گاتو سیستمی است که «چند کار مختلف را همزمان یاد میگیرد و میتواند بین آنها جابهجا شود و مهارتهای جدید را بدون فراموش کردن مهارتهای قبلی بیاموزد». گاتو مدلی است که میتواند بازیهای آتاری، تصاویر زیرنویس، چت، و حتی مکعبها را با بازوی ربات واقعی بازی کند.
در آن زمان، برخی از محققان هوش مصنوعی ادعا کردند که DeepMind “نزدیک” به دستیابی به AGI است زیرا گاتو می تواند بسیاری از وظایف مختلف را به خوبی انجام دهد. این نیز داستان هوش مصنوعی LaMDA گوگل است که ادعا می کند خودآگاه می شود. جنجال و هیاهو در مورد هوش مصنوعی جدید نیست، فقط از یک پروژه و شرکت متفاوت است.
این جنجالها میتوانند ابزار بسیار مؤثری برای تقویت وجهه شرکتها باشند، اما بیشتر از اینکه به صنعت هوش مصنوعی کمک کنند، آسیب میرسانند زیرا مردم را از مشکلات واقعی و ملموس هوش مصنوعی منحرف میکنند. اگرچه شایعات مربوط به یک مدل قدرتمند هوش مصنوعی می تواند زنگ خطری برای صنعت غیرقانونی فناوری باشد. چیزی برای نهایی کردن قانون هوش مصنوعی برای اتحادیه اروپا باقی نمانده است.
یکی از بزرگترین کشمکشها در میان قانونگذاران این روزها این است که آیا شرکتهای فناوری باید قدرت بیشتری برای قانونگذاری مدلهای هوش مصنوعی خود داشته باشند یا خیر. مدتی پیش، اجلاس امنیت هوش مصنوعی برای اولین بار در تاریخ برگزار شد تا راه حلی برای کنترل هوش مصنوعی قبل از شروع به کار پیدا کند.
در نهایت، به جرات می توان گفت که تقریباً هر شرکتی در فضای هوش مصنوعی به دنبال دستیابی به AGI است و OpenAI دوست دارد اولین کسی باشد که به این هدف دست می یابد. محققان این شرکت قبلاً پیشبینی کردهاند که رسیدن به AGI تنها ده سال طول میکشد. از کجا می دانی؟ شاید *Q یک گام بزرگ در این مسیر باشد.