اجلاس ایمنی هوش مصنوعی؛ راهی برای جلوگیری از نابودی بشر با AI؟


درواقع پیش از برگزاری اجلاس، کاخ سفید قدرت خود را برای تنظیم دستور کار هوش مصنوعی آشکار کرد. بر اساس فرمان اجرایی صادرشده جو بایدن، رئیس‌جمهور آمریکا، شرکت‌های فناوری موظف شدند نتایج آزمایش سیستم‌های هوش مصنوعی قدرتمند را قبل از انتشار عمومی به دولت ارائه دهند و نحوه تضمین ایمنی ابزارهای خود را به اشتراک بگذارند.

این فرمان اجرایی که بر آسیب‌های جاری مانند حریم خصوصی، امنیت، تبعیض و اطلاعات نادرست تمرکز دارد، بیش از ۲۵ سازمان دولتی را در بر می‌گیرد. این جامع‌ترین تلاش تا به امروز برای تنظیم مقررات بزرگ‌ترین شرکت‌های هوش مصنوعی در جهان است.

کامالا هریس، معاون بایدن، در روز اول اجلاس در لندن درباره‌ی هوش مصنوعی سخنرانی کرد و از تأسیس مؤسسه‌ی ایمنی هوش مصنوعی خبر داد که مشابه با چیزی بود که سوناک در سخنرانی ۲۶ اکتبر گفته بود. او بر اقداماتی که دولت بایدن برای پاسخگویی شرکت‌های فناوری انجام داده است، تأکید کرد. هریس در روز دوم اجلاس گفت که اقدام جسورانه‌ی ایالات متحده باید برای سایر کشورها الهام‌بخش و آموزنده باشد.

در بین کشورهای جهان، آمریکا بیشترین تسلط را بر تحقیق و توسعه‌ی هوش مصنوعی دارد. براساس گزارش وضعیت هوش مصنوعی در سال ۲۰۲۳، ایالات متحده در سه سال گذشته بیش از ۷۰ درصد از مقالات تحقیقاتی هوش مصنوعی را تولید کرده است. در این گزارش، چین و بریتانیا در رتبه‌ی دوم و سوم قرار دارند.

شرکت‌ها و دانشگاه‌های مستقر در ایالات متحده به رهبری گوگل، متا و مایکروسافت، ۹ مؤسسه از ۱۰ مؤسسه تحقیقاتی برتر را تشکیل می‌دهند. تنها استثنا DeepMind لندن است که گوگل آن را در سال ۲۰۱۴ خریداری کرد. در سال ۲۰۲۲، این سه شرکت تقریباً ۶۰۰ میلیارد دلار درآمد ایجاد کردند. ارزش بازار آن‌ها در مجموع ۵ تریلیون دلار است که بیش از دو برابر ارزش ۱۰۰ شرکت برتر فهرست‌شده در فهرست بریتانیا (۲٫۴ تریلیون دلار) است.

شرکت‌های مذکور در حال حاضر فقط به کدهای اخلاقی خودشان پایبندند و با محدودیت‌های کمی برای چگونگی توسعه‌ی هوش مصنوعی مواجه هستند. اما ریشی سوناک، نخست وزیر بریتانیا، گفت که مؤسسات ایمنی بین‌المللی مدل‌های پیشتاز را آزمایش خواهند کرد و ایالات متحده تأیید کرد که با ایجاد مؤسسه ایمنی خود از نمونه‌ی بریتانیا الگوبرداری می‌کند.

بخوانید  ست های ساختمانی Pokemon Mega Bloks فقط امروز بیش از 50٪ تخفیف دارند

هریس که رهبری تدوین سیاست هوش مصنوعی دولت آمریکا را بر عهده داشته است، در سخنرانی در سفارت ایالات متحده در لندن، توضیح داد که واشنگتن بازرسی‌‌های سرزده‌ی بیشتری از شرکت‌های بزرگ تدارک خواهد دید. او گفت که تاریخ نشان داده است در غیاب مقررات و نظارت قوی دولت، برخی از شرکت‌های فناوری سود را بر رفاه مشتریان خود، ایمنی جوامعشان و ثبات دموکراسی‌های دولت ترجیح می‌دهند.

با وجود تنش‌های ژئوپلیتیکی معاون وزیر علوم و فناوری چین، وو ژائوهوی، در این مراسم سخنرانی کرد. ایالات متحده به دلیل نگرانی های امنیت ملی در تلاش است تا پیشرفت هوش مصنوعی چین را محدود کند. محدود کردن فروش تراشه‌های هوش مصنوعی پیشرفته به چین از جمله اقدامات دیگر آمریکا علیه چین است.

بریتانیا چین را به این اجلاس دعوت کرد، زیرا چین در زمینه‌ی هوش مصنوعی پیشرو است و کنار گذاشتن این کشور عقلانی نیست. وو در سخنرانی‌ خود گفت چین مایل است گفت‌وگو و ارتباطات را در زمینه‌ی ایمنی هوش مصنوعی با همه طرف‌ها تقویت کند. او اعلام کرد که با سایر سران در مورد ارزش‌های مشترک «دموکراسی» و «آزادی» و مبارزه با استفاده‌های مخرب هوش مصنوعی اتفاق نظر دارد.

به گفته‌ی نماینده‌ای حاضر در نشست، یکی از دلایلی که چین را در ایجاد موضع مشترک در مورد حکمرانی جهانی هوش مصنوعی بسیار انعطاف‌پذیر کرده‌، این است که «خوب بازی کردن» و «مسئولیت‌پذیری» ممکن است در آینده به تقویت گفت‌وگوها در مورد کاهش موانع تجاری تحمیل‌شده توسط ایالات متحده به چین، کمک کند.

دستاوردهای نشست ایمنی هوش مصنوعی

بریتانیا با مؤسسه ایمنی هوش مصنوعی ایالات متحده و با سنگاپور برای همکاری در آزمایش ایمنی هوش مصنوعی موافقت کرد. شرکت‌های پیشرو هوش مصنوعی موافقت کردند که به این دولت‌ها اجازه دهند تا آخرین مدل‌هایشان را قبل از عرضه به کسب‌وکارها و مصرف‌کنندگان، از نظر امنیت ملی و خطرات دیگر آزمایش کنند.

بخوانید  نمای کلی مودم Neterbit NSL-224 اتصال با سرعت پایدار به ADSL و VDSL

درنهایت شرکت‌هایی از جمله OpenAI، گوگل دیپ‌مایند، Anthropic، متا، مایکروسافت و آمازون نشست دو روزه را با امضای رهنمود کلی که البته قانون لازم‌الاجرا نیست، خاتمه دادند. دولت‌هایی شامل استرالیا، کانادا، اتحادیه اروپا، فرانسه، آلمان، ایتالیا، ژاپن و کره جنوبی نیز سند موسوم به «اعلامیه بلچلی» را امضا کردند؛ چین هم در بین امضاکنندگان بود.

همچنین هیئتی بین‌المللی متشکل از کارشناسان تشکیل شد تا گزارش سالانه‌ای را درباره خطرات هوش مصنوعی، از جمله سوگیری، اطلاعات غلط و خطرات شدیدتری که بشریت را مورد تهدید قرار می‌دهند، مانند کمک به توسعه سلاح‌های شیمیایی، ارائه دهند. یوشوا بنجیو، از پدران هوش مصنوعی و استاد علوم کامپیوتر در دانشگاه مونترال، رهبری «گزارش خطرات هوش مصنوعی» که بین ۲۰ کشور مورد توافق قرار گرفته است را به عهده خواهد داشت.

تعهدات گسترده‌ی ۲۸ کشور برای همکاری با یکدیگر برای مقابله با خطرات ناشی از هوش مصنوعی پیشرفته و همچنین جذب چهره‌های برجسته فناوری مثل ایلان ماسک و سم آلتمن، مدیرعامل OpenAI باعث شد بسیاری اجلاس هوش مصنوعی سوناک را موفقیت‌آمیز تلقی کنند. البته یکی دیگر از دستاوردهای دیپلماتیک سوناک، قرار دادن آمریکا و چین در یک جبهه علیه خطرات هوش مصنوعی است.

فرانسه و کره میزبان نشست‌‌های بعدی ایمنی هوش مصنوعی سال آینده هستند. درحالی‌که رویداد بلچلی بر روی همسویی حول آنچه باید انجام شود، متمرکز شده بود، رویداد بعدی بر روی اقداماتی مانند مقررات مشخص و پیشنهادات تحقیقاتی برای چگونگی ارزیابی مدل‌های هوش مصنوعی، تمرکز خواهد داشت.

از نظر برخی از مقامات صنعت فناوری، تمرکز این اجلاس بسیار محدود بوده است. آن‌ها می‌گویند که با محدود نگه داشتن اجلاس به مدل‌های هوش مصنوعی پیشتاز، فرصت تشویق مشارکت اعضای جامعه فناوریِ فراتر از هوش مصنوعی پیشتاز از بین می‌رود.

ساچین دوگال، مدیرعامل استارتاپ هوش مصنوعی Builder.ai می‌گوید: «با تمرکز بر شرکت‌هایی که در حال حاضر مشغول ساخت مدل‌های پیشتاز و توسعه آن‌ها هستند، انگار می‌گوییم که هیچ‌کس دیگری نمی‌تواند نسل بعدی مدل‌های پیشتاز را بسازد.»

بخوانید  تام کروز در حال مذاکره برای بازی در جدیدترین فیلم تارانتینو است

برخی از تمرکز اجلاس بر «تهدیدهای وجودی» پیرامون هوش مصنوعی ناامید شده‌اند و فکر می‌کنند که دولت‌ها باید به خطرات فوری‌تر مانند پتانسیل فناوری دیپ‌ فیک برای دستکاری در انتخابات رسیدگی کنند.

واکنش‌های متفاوت به نشست ایمنی هوش مصنوعی

در نهایت، میزبان مراسم ایمنی AI از نتیجه‌ی اجلاس خوشحال و به آینده امیدوار بود. او بر این باور است که دستاوردهای اجلاس برگزارشده توازن را به نفع بشریت تغییر خواهد داد.

اما مهم است به یاد داشته باشیم که پایبندی‌ به اعلامیه‌ی بلچلی الزام‌آور نیست و امضای کشورهای شرکت‌کننده در این مرحله بیشتر حالتی نمادین دارد. کشورها می‌توانند در سایه‌ی امضای اعلامیه برای جلوگیری از خطرات، به اهدافی که فقط خودشان از آن خبر دارند، برسند و وانمود کنند که کماکان پیرو اهداف نشست بلچلی هستند.

ازطرفی دیگر، توسعه‌ی هوش مصنوعی در مسیر خیر و برای اهداف تعالی، چیزی است که ما آرزو داریم دولت‌ها به آن پایبند باشند. دولت‌ها می‌توانند در پشت‌ صحنه‌ی تست مدل‌های هوش مصنوعی پیشتاز، خطرات آن‌ها را به‌نفع خودشان مخفی کنند؛ مثلاً از هوش مصنوعی برای قدرت‌طلبی و جنگ‌افروزی استفاده کنند.

ورای درهای بسته‌ی ساختمانی که اولین اجلاس ایمنی هوش مصنوعی در آن برگزار می‌شد، مردمی نشسته بودند که با دلهره به آنچه پیش خواهد آمد، فکر می‌کردند. آن‌ها به خبرنگاران گفتند که دولت‌ها چندان به فکر مردم نیستند و نتیجه‌ی این اجلاس درنهایت تأثیری در بهبود زندگی آن‌ها نخواهد داشت.

اگر دغدغه‌ی این نشست خطراتی است که دولت‌ها نگران مواجهه‌ی بشریت با آن هستند، آیا می‌توان گفت اکنون بشریت در بهترین حالت خود قرار دارد؟ وقتی ایلان ماسک داشت از خطرات هوش مصنوعی می‌گفت، در همان حال داشت برای عرضه‌ی هوش مصنوعی خودش «گراک» برنامه‌ریزی می‌کرد. اگر او و افرادی چون او نگران از دست رفتن «معنی زندگی» در پی برآورده شدن تمام خواسته‌های بشر توسط هوش مصنوعی هستند، آیا یعنی آن‌ها معنای زندگی را یافته‌اند؟

سوال‌هایی که شاید زمان پاسخ‌گویشان باشد.