آخرالزمان هوش مصنوعی چقدر محتمل است؟


در سال 1945، درست قبل از آزمایش اولین بمب هسته ای در صحرای نیومکزیکو در ایالات متحده، انریکو فرمی، یکی از فیزیکدانانی که در ساخت این بمب همکاری کرده بود، با همکاران دانشمند خود شرط بندی کرد. آیا گرمای بی سابقه انفجار باعث آتش سوزی هسته ای در جو می شود؟ اگر چنین است، آیا طوفان آتش فقط نیومکزیکو را نابود خواهد کرد یا کل جهان را نابود خواهد کرد؟ البته این آزمایش به اندازه شرط بندی شیطنت آمیز فرمی بی پروا نبود. هانس بتهفیزیکدان دیگری محاسبه کرده بود که وجود چنین جهنمی تقریبا غیرممکن است.

امروزه نگرانی‌ها در مورد «تهدیدهای وجودی»، یعنی آن‌هایی که تهدیدی جدی برای کل نژاد بشر به‌عنوان یک گونه (و نه انسان‌ها به‌عنوان افراد) هستند، به دانشمندان نظامی محدود نمی‌شود. جنگ هسته‌ای، زمستان هسته‌ای، بیماری‌های جهانی (چه طبیعی مانند کووید-19 یا ساخت دست بشر)، برخورد سیارک‌ها با زمین و موارد بی‌شماری دیگر، می‌توانند بیشتر انسان‌ها یا حتی کل نژاد بشر را نابود کنند.

به گزارش اکونومیست، امروزه آخرین تهدید روز قیامت برای بشریت، هوش مصنوعی (AI) و پایان جهان و نسل بشر به دست این فناوری است. در ماه می، گروهی از چهره‌های برجسته در زمینه هوش مصنوعی نامه‌ای سرگشاده امضا کردند که در آن آمده بود: «کاهش خطر انقراض ناشی از هوش مصنوعی باید در کنار سایر خطرات اجتماعی مانند بیماری‌های جهانی و جنگ هسته‌ای، یک اولویت جهانی باشد.»

اما آیا منطقی است که نگران آن باشیم؟ 10 جولای (19 ژوئیه) گروهی از محققان از جمله عزرا کارگراقتصاددان در فدرال رزرو شیکاگو، و فیلیپ تتلاکدانشمند علوم سیاسی از دانشگاه پنسیلوانیا، مقاله ای را منتشر کرد که سعی دارد با بررسی سیستماتیک دو گروه مختلف از متخصصان، پاسخ این سوال را بیابد.

در یک طرف تحقیق متخصصان حوزه مورد بحث یا «منطقه ویژه» جنگ هسته‌ای، سلاح‌های بیولوژیکی، هوش مصنوعی و حتی خود موضوع «انقراض» و در طرف دیگر گروهی از «ابر پیش‌بینی‌کنندگان حرفه‌ای» حضور داشتند. یا پیش بینی کنندگان همه منظوره با پیش بینی های دقیق در مورد انواع موضوعات مختلف، از نتایج انتخابات تا شروع جنگ های مختلف.

بخوانید  Mortal Kombat 1 Omni-Man's Fatal Blow, Fatalities, and Brutalities So Far | Max Level CPU Gameplay

محققان در مجموع 89 ابر پیش بینی کننده، 65 متخصص حوزه و 15 متخصص “در معرض خطر” را انتخاب کردند. دو نوع مختلف بلایا برای ارزیابی به داوطلبان ارائه شد. فاجعه به عنوان “فاجعه طبیعی ناگهانی” تعریف می شود که تنها 10 درصد از جمعیت انسانی جهان یا حدود 800 میلیون نفر را می کشد. برای مقایسه، تخمین زده می شود که جنگ جهانی دوم حدود 3 درصد از جمعیت 2 میلیاردی جهان را کشته است. از سوی دیگر، “انقراض” به عنوان رویدادی تعریف شده است که همه انسان ها را به جز حداکثر 5000 فرد خوش شانس (یا بدشانس) از بین می برد.

اگر باید برویم، همه با هم می رویم

از هر دو گروه خواسته شد تا درباره احتمال همه چیز، از رویدادهای پایانی مانند انقراض ناشی از هوش مصنوعی یا جنگ هسته ای گرفته تا سؤالات کوچکتر، از جمله اینکه چه پیشرفت های هشداردهنده ای در قابلیت های هوش مصنوعی ممکن است به عنوان نشانه هایی در راه فاجعه در آینده رخ دهد، فکر کنند. در آینده، پیش بینی هایی ارائه کنید.

بارزترین یافته این مطالعه این است که کارشناسان در این زمینه، که معمولاً بر گفتگوهای عمومی در مورد خطرات وجودی تسلط دارند، آینده را بسیار تیره‌تر از پیش‌بینی‌کنندگان فوق‌العاده می‌بینند. کارشناسان تخمین زده اند که احتمال وقوع یک بلای طبیعی تا سال 2100 حدود 20 درصد و احتمال انقراض انسان حدود 6 درصد است. برای این رویدادها احتمالات 9 و 1 درصد توسط پیش بینی کنندگان در نظر گرفته شد.

این شکاف گسترده جزئیات جالبی را پنهان می کند. دو گروه در هنگام شناسایی خطرات ناشی از هوش مصنوعی بیشترین اختلاف نظر را داشتند. به طور متوسط، پیش بینی کنندگان تخمین زده اند که تا پایان قرن، احتمال یک فاجعه ناشی از هوش مصنوعی 2.1٪ و احتمال انقراض ناشی از AI 0.38٪ است. از سوی دیگر، کارشناسان حوزه هوش مصنوعی به ترتیب احتمال 12 و 3 درصد را برای این دو رویداد نسبت داده اند. وقتی نوبت به امور دنیوی می رسد، ابر پیش بینی ها نسبت به کارشناسان نسبت به خطرات بیماری های طبیعی بدبین تر بودند.

بخوانید  Final Fantasy XVI State of Play دارای مبارزات بلادرنگ و اکتشاف جهان است

شاید جالب ترین یافته این باشد که اگرچه دو گروه در مورد سطح دقیق خطر اختلاف نظر داشتند، اما هر دو هوش مصنوعی را به عنوان بزرگترین نگرانی در هنگام فکر کردن به یک فاجعه یا فاجعه انقراض رتبه بندی کردند. دن مریلندیک ابر پیش بینی که در این مطالعه شرکت کرده است معتقد است که یکی از دلایلی که هوش مصنوعی خطرناک تر است این است که به عنوان یک “افزایش دهنده نیرو” در تهدیدات دیگر مانند سلاح های هسته ای عمل می کند.

در صورت وقوع یک جنگ هسته ای یا حمله یک سیارک، هوش مصنوعی (مثلاً به شکل ربات های مسلح) می تواند انسان ها را مستقیماً به سمت مرگ بفرستد. همچنین ممکن است در تیز کردن تبرهای دیگر جلادان نقش داشته باشد. به عنوان مثال، اگر انسان‌ها از هوش مصنوعی برای طراحی سلاح‌های بیولوژیکی قوی‌تر استفاده کنند، هوش مصنوعی به طور اساسی، هرچند غیرمستقیم، در این فاجعه دخیل خواهد بود.

ابر پیش بینی ها، در حالی که نسبت به هوش مصنوعی بدبین بودند، تا حدودی در مورد آن نامطمئن بودند. جهان نزدیک به 80 سال است که با سلاح های هسته ای سر و کار دارد. این واقعیت که یک جنگ هسته ای همه جانبه هنوز اتفاق نیفتاده است داده های ارزشمندی را ارائه می دهد که می تواند در پیش بینی های آینده در مورد احتمال آن مفید باشد. اصطلاح هوش مصنوعی، حداقل به معنای فعلی آن، بسیار جدیدتر است. ظهور مدل های قدرتمند یادگیری ماشین امروزی به اوایل دهه 2010 برمی گردد. این زمینه به سرعت در حال توسعه و گسترش است. که داده های بسیار کمتری برای پیش بینی باقی می گذارد.

به طور خاص، دکتر تتلاک به طور گسترده روی مشکل پیش بینی آینده کار کرده است. او اولین کسی بود که “ابر پیش بینی ها” را شناسایی و نام برد. افرادی که به نظر می رسد در پیش بینی آینده فوق العاده خوب هستند. این افراد چندین ویژگی مشترک دارند، مانند تفکر عمیق مبتنی بر آمار و آگاهی از سوگیری های شناختی که می تواند آنها را گیج و گمراه کند. علیرغم فقدان تخصص خاص، ابر پیش بینی ها به عنوان کارشناسان موفق در بسیاری از زمینه های فنی دیگر، از مالی گرفته تا ژئوپلیتیک، شهرت دارند.

بخوانید  تأیید عرضه بازی Hollow Knight: Silksong برای پلی استیشن

به نظر می‌رسد که اختلاف نظر بین گروه‌ها تا حدی نشان‌دهنده تفاوت در مدل‌های آن‌ها از نحوه عملکرد جهان است. خطرات فاجعه بار نه تنها به پیچیدگی یا قدرت یک فناوری، بلکه به نحوه واکنش انسان ها به آن نیز بستگی دارد. به عنوان مثال، پس از ترس از جنگ هسته ای در آغاز جنگ سرد، ایالات متحده و اتحاد جماهیر شوروی، دو قدرت بزرگ هسته ای جهان، شروع به همکاری کردند. دو قدرت جهانی با ابتکاراتی مانند ایجاد «خطوط تماس مستقیم» بین مسکو و واشنگتن، توافق‌نامه‌هایی برای بازرسی تسلیحات یکدیگر و معاهدات برای محدود کردن حجم ذخایر، به کاهش خطرات جنگ هسته‌ای کمک کرده‌اند.

اما ظاهراً ابر پیش‌بینی‌کنندگان و کارشناسان هوش مصنوعی دیدگاه‌های بسیار متفاوتی در مورد نحوه واکنش جوامع به آسیب‌های کوچک ناشی از هوش مصنوعی داشتند. ابرپیش‌بینی‌کنندگان بر این باور بودند که چنین آسیب‌هایی باعث بررسی دقیق‌تر و مقررات سخت‌تر برای رسیدگی به مسائل بزرگ‌تر پیش‌رو می‌شود. در مقابل، کارشناسان در این زمینه تمایل داشتند بر این باور باشند که انگیزه های تجاری و ژئوپلیتیک می تواند بر نگرانی های امنیتی، حتی پس از وارد شدن خسارت واقعی، غلبه کند.

ابر پیش بینی ها و کارشناسان نیز در مورد حدود هوش نظرات متفاوتی داشتند. کریستی مورلیکی دیگر از ابرپیش‌بینی‌کنندگان شرکت‌کننده در این مطالعه به سادگی معتقد است که «کشتن همه انسان‌ها به این راحتی نیست». او خاطرنشان می کند که این احتمالاً مستلزم داشتن “قدری توانایی برای تعامل با دنیای فیزیکی است. ما احتمالاً قبل از رسیدن به آن به پیشرفت زیادی در دنیای رباتیک نیاز داریم.”

تحریریه مجله بازی یک گیمر