درواقع پیش از برگزاری اجلاس، کاخ سفید قدرت خود را برای تنظیم دستور کار هوش مصنوعی آشکار کرد. بر اساس فرمان اجرایی صادرشده جو بایدن، رئیسجمهور آمریکا، شرکتهای فناوری موظف شدند نتایج آزمایش سیستمهای هوش مصنوعی قدرتمند را قبل از انتشار عمومی به دولت ارائه دهند و نحوه تضمین ایمنی ابزارهای خود را به اشتراک بگذارند.
این فرمان اجرایی که بر آسیبهای جاری مانند حریم خصوصی، امنیت، تبعیض و اطلاعات نادرست تمرکز دارد، بیش از ۲۵ سازمان دولتی را در بر میگیرد. این جامعترین تلاش تا به امروز برای تنظیم مقررات بزرگترین شرکتهای هوش مصنوعی در جهان است.
کامالا هریس، معاون بایدن، در روز اول اجلاس در لندن دربارهی هوش مصنوعی سخنرانی کرد و از تأسیس مؤسسهی ایمنی هوش مصنوعی خبر داد که مشابه با چیزی بود که سوناک در سخنرانی ۲۶ اکتبر گفته بود. او بر اقداماتی که دولت بایدن برای پاسخگویی شرکتهای فناوری انجام داده است، تأکید کرد. هریس در روز دوم اجلاس گفت که اقدام جسورانهی ایالات متحده باید برای سایر کشورها الهامبخش و آموزنده باشد.
در بین کشورهای جهان، آمریکا بیشترین تسلط را بر تحقیق و توسعهی هوش مصنوعی دارد. براساس گزارش وضعیت هوش مصنوعی در سال ۲۰۲۳، ایالات متحده در سه سال گذشته بیش از ۷۰ درصد از مقالات تحقیقاتی هوش مصنوعی را تولید کرده است. در این گزارش، چین و بریتانیا در رتبهی دوم و سوم قرار دارند.
شرکتها و دانشگاههای مستقر در ایالات متحده به رهبری گوگل، متا و مایکروسافت، ۹ مؤسسه از ۱۰ مؤسسه تحقیقاتی برتر را تشکیل میدهند. تنها استثنا DeepMind لندن است که گوگل آن را در سال ۲۰۱۴ خریداری کرد. در سال ۲۰۲۲، این سه شرکت تقریباً ۶۰۰ میلیارد دلار درآمد ایجاد کردند. ارزش بازار آنها در مجموع ۵ تریلیون دلار است که بیش از دو برابر ارزش ۱۰۰ شرکت برتر فهرستشده در فهرست بریتانیا (۲٫۴ تریلیون دلار) است.
شرکتهای مذکور در حال حاضر فقط به کدهای اخلاقی خودشان پایبندند و با محدودیتهای کمی برای چگونگی توسعهی هوش مصنوعی مواجه هستند. اما ریشی سوناک، نخست وزیر بریتانیا، گفت که مؤسسات ایمنی بینالمللی مدلهای پیشتاز را آزمایش خواهند کرد و ایالات متحده تأیید کرد که با ایجاد مؤسسه ایمنی خود از نمونهی بریتانیا الگوبرداری میکند.
هریس که رهبری تدوین سیاست هوش مصنوعی دولت آمریکا را بر عهده داشته است، در سخنرانی در سفارت ایالات متحده در لندن، توضیح داد که واشنگتن بازرسیهای سرزدهی بیشتری از شرکتهای بزرگ تدارک خواهد دید. او گفت که تاریخ نشان داده است در غیاب مقررات و نظارت قوی دولت، برخی از شرکتهای فناوری سود را بر رفاه مشتریان خود، ایمنی جوامعشان و ثبات دموکراسیهای دولت ترجیح میدهند.
با وجود تنشهای ژئوپلیتیکی معاون وزیر علوم و فناوری چین، وو ژائوهوی، در این مراسم سخنرانی کرد. ایالات متحده به دلیل نگرانی های امنیت ملی در تلاش است تا پیشرفت هوش مصنوعی چین را محدود کند. محدود کردن فروش تراشههای هوش مصنوعی پیشرفته به چین از جمله اقدامات دیگر آمریکا علیه چین است.
بریتانیا چین را به این اجلاس دعوت کرد، زیرا چین در زمینهی هوش مصنوعی پیشرو است و کنار گذاشتن این کشور عقلانی نیست. وو در سخنرانی خود گفت چین مایل است گفتوگو و ارتباطات را در زمینهی ایمنی هوش مصنوعی با همه طرفها تقویت کند. او اعلام کرد که با سایر سران در مورد ارزشهای مشترک «دموکراسی» و «آزادی» و مبارزه با استفادههای مخرب هوش مصنوعی اتفاق نظر دارد.
به گفتهی نمایندهای حاضر در نشست، یکی از دلایلی که چین را در ایجاد موضع مشترک در مورد حکمرانی جهانی هوش مصنوعی بسیار انعطافپذیر کرده، این است که «خوب بازی کردن» و «مسئولیتپذیری» ممکن است در آینده به تقویت گفتوگوها در مورد کاهش موانع تجاری تحمیلشده توسط ایالات متحده به چین، کمک کند.
دستاوردهای نشست ایمنی هوش مصنوعی
بریتانیا با مؤسسه ایمنی هوش مصنوعی ایالات متحده و با سنگاپور برای همکاری در آزمایش ایمنی هوش مصنوعی موافقت کرد. شرکتهای پیشرو هوش مصنوعی موافقت کردند که به این دولتها اجازه دهند تا آخرین مدلهایشان را قبل از عرضه به کسبوکارها و مصرفکنندگان، از نظر امنیت ملی و خطرات دیگر آزمایش کنند.
درنهایت شرکتهایی از جمله OpenAI، گوگل دیپمایند، Anthropic، متا، مایکروسافت و آمازون نشست دو روزه را با امضای رهنمود کلی که البته قانون لازمالاجرا نیست، خاتمه دادند. دولتهایی شامل استرالیا، کانادا، اتحادیه اروپا، فرانسه، آلمان، ایتالیا، ژاپن و کره جنوبی نیز سند موسوم به «اعلامیه بلچلی» را امضا کردند؛ چین هم در بین امضاکنندگان بود.
همچنین هیئتی بینالمللی متشکل از کارشناسان تشکیل شد تا گزارش سالانهای را درباره خطرات هوش مصنوعی، از جمله سوگیری، اطلاعات غلط و خطرات شدیدتری که بشریت را مورد تهدید قرار میدهند، مانند کمک به توسعه سلاحهای شیمیایی، ارائه دهند. یوشوا بنجیو، از پدران هوش مصنوعی و استاد علوم کامپیوتر در دانشگاه مونترال، رهبری «گزارش خطرات هوش مصنوعی» که بین ۲۰ کشور مورد توافق قرار گرفته است را به عهده خواهد داشت.
تعهدات گستردهی ۲۸ کشور برای همکاری با یکدیگر برای مقابله با خطرات ناشی از هوش مصنوعی پیشرفته و همچنین جذب چهرههای برجسته فناوری مثل ایلان ماسک و سم آلتمن، مدیرعامل OpenAI باعث شد بسیاری اجلاس هوش مصنوعی سوناک را موفقیتآمیز تلقی کنند. البته یکی دیگر از دستاوردهای دیپلماتیک سوناک، قرار دادن آمریکا و چین در یک جبهه علیه خطرات هوش مصنوعی است.
فرانسه و کره میزبان نشستهای بعدی ایمنی هوش مصنوعی سال آینده هستند. درحالیکه رویداد بلچلی بر روی همسویی حول آنچه باید انجام شود، متمرکز شده بود، رویداد بعدی بر روی اقداماتی مانند مقررات مشخص و پیشنهادات تحقیقاتی برای چگونگی ارزیابی مدلهای هوش مصنوعی، تمرکز خواهد داشت.
از نظر برخی از مقامات صنعت فناوری، تمرکز این اجلاس بسیار محدود بوده است. آنها میگویند که با محدود نگه داشتن اجلاس به مدلهای هوش مصنوعی پیشتاز، فرصت تشویق مشارکت اعضای جامعه فناوریِ فراتر از هوش مصنوعی پیشتاز از بین میرود.
ساچین دوگال، مدیرعامل استارتاپ هوش مصنوعی Builder.ai میگوید: «با تمرکز بر شرکتهایی که در حال حاضر مشغول ساخت مدلهای پیشتاز و توسعه آنها هستند، انگار میگوییم که هیچکس دیگری نمیتواند نسل بعدی مدلهای پیشتاز را بسازد.»
برخی از تمرکز اجلاس بر «تهدیدهای وجودی» پیرامون هوش مصنوعی ناامید شدهاند و فکر میکنند که دولتها باید به خطرات فوریتر مانند پتانسیل فناوری دیپ فیک برای دستکاری در انتخابات رسیدگی کنند.
واکنشهای متفاوت به نشست ایمنی هوش مصنوعی
در نهایت، میزبان مراسم ایمنی AI از نتیجهی اجلاس خوشحال و به آینده امیدوار بود. او بر این باور است که دستاوردهای اجلاس برگزارشده توازن را به نفع بشریت تغییر خواهد داد.
اما مهم است به یاد داشته باشیم که پایبندی به اعلامیهی بلچلی الزامآور نیست و امضای کشورهای شرکتکننده در این مرحله بیشتر حالتی نمادین دارد. کشورها میتوانند در سایهی امضای اعلامیه برای جلوگیری از خطرات، به اهدافی که فقط خودشان از آن خبر دارند، برسند و وانمود کنند که کماکان پیرو اهداف نشست بلچلی هستند.
ازطرفی دیگر، توسعهی هوش مصنوعی در مسیر خیر و برای اهداف تعالی، چیزی است که ما آرزو داریم دولتها به آن پایبند باشند. دولتها میتوانند در پشت صحنهی تست مدلهای هوش مصنوعی پیشتاز، خطرات آنها را بهنفع خودشان مخفی کنند؛ مثلاً از هوش مصنوعی برای قدرتطلبی و جنگافروزی استفاده کنند.
ورای درهای بستهی ساختمانی که اولین اجلاس ایمنی هوش مصنوعی در آن برگزار میشد، مردمی نشسته بودند که با دلهره به آنچه پیش خواهد آمد، فکر میکردند. آنها به خبرنگاران گفتند که دولتها چندان به فکر مردم نیستند و نتیجهی این اجلاس درنهایت تأثیری در بهبود زندگی آنها نخواهد داشت.
اگر دغدغهی این نشست خطراتی است که دولتها نگران مواجههی بشریت با آن هستند، آیا میتوان گفت اکنون بشریت در بهترین حالت خود قرار دارد؟ وقتی ایلان ماسک داشت از خطرات هوش مصنوعی میگفت، در همان حال داشت برای عرضهی هوش مصنوعی خودش «گراک» برنامهریزی میکرد. اگر او و افرادی چون او نگران از دست رفتن «معنی زندگی» در پی برآورده شدن تمام خواستههای بشر توسط هوش مصنوعی هستند، آیا یعنی آنها معنای زندگی را یافتهاند؟
سوالهایی که شاید زمان پاسخگویشان باشد.