در سال 1945، درست قبل از آزمایش اولین بمب هسته ای در صحرای نیومکزیکو در ایالات متحده، انریکو فرمی، یکی از فیزیکدانانی که در ساخت این بمب همکاری کرده بود، با همکاران دانشمند خود شرط بندی کرد. آیا گرمای بی سابقه انفجار باعث آتش سوزی هسته ای در جو می شود؟ اگر چنین است، آیا طوفان آتش فقط نیومکزیکو را نابود خواهد کرد یا کل جهان را نابود خواهد کرد؟ البته این آزمایش به اندازه شرط بندی شیطنت آمیز فرمی بی پروا نبود. هانس بتهفیزیکدان دیگری محاسبه کرده بود که وجود چنین جهنمی تقریبا غیرممکن است.
امروزه نگرانیها در مورد «تهدیدهای وجودی»، یعنی آنهایی که تهدیدی جدی برای کل نژاد بشر بهعنوان یک گونه (و نه انسانها بهعنوان افراد) هستند، به دانشمندان نظامی محدود نمیشود. جنگ هستهای، زمستان هستهای، بیماریهای جهانی (چه طبیعی مانند کووید-19 یا ساخت دست بشر)، برخورد سیارکها با زمین و موارد بیشماری دیگر، میتوانند بیشتر انسانها یا حتی کل نژاد بشر را نابود کنند.
به گزارش اکونومیست، امروزه آخرین تهدید روز قیامت برای بشریت، هوش مصنوعی (AI) و پایان جهان و نسل بشر به دست این فناوری است. در ماه می، گروهی از چهرههای برجسته در زمینه هوش مصنوعی نامهای سرگشاده امضا کردند که در آن آمده بود: «کاهش خطر انقراض ناشی از هوش مصنوعی باید در کنار سایر خطرات اجتماعی مانند بیماریهای جهانی و جنگ هستهای، یک اولویت جهانی باشد.»
اما آیا منطقی است که نگران آن باشیم؟ 10 جولای (19 ژوئیه) گروهی از محققان از جمله عزرا کارگراقتصاددان در فدرال رزرو شیکاگو، و فیلیپ تتلاکدانشمند علوم سیاسی از دانشگاه پنسیلوانیا، مقاله ای را منتشر کرد که سعی دارد با بررسی سیستماتیک دو گروه مختلف از متخصصان، پاسخ این سوال را بیابد.
در یک طرف تحقیق متخصصان حوزه مورد بحث یا «منطقه ویژه» جنگ هستهای، سلاحهای بیولوژیکی، هوش مصنوعی و حتی خود موضوع «انقراض» و در طرف دیگر گروهی از «ابر پیشبینیکنندگان حرفهای» حضور داشتند. یا پیش بینی کنندگان همه منظوره با پیش بینی های دقیق در مورد انواع موضوعات مختلف، از نتایج انتخابات تا شروع جنگ های مختلف.
محققان در مجموع 89 ابر پیش بینی کننده، 65 متخصص حوزه و 15 متخصص “در معرض خطر” را انتخاب کردند. دو نوع مختلف بلایا برای ارزیابی به داوطلبان ارائه شد. فاجعه به عنوان “فاجعه طبیعی ناگهانی” تعریف می شود که تنها 10 درصد از جمعیت انسانی جهان یا حدود 800 میلیون نفر را می کشد. برای مقایسه، تخمین زده می شود که جنگ جهانی دوم حدود 3 درصد از جمعیت 2 میلیاردی جهان را کشته است. از سوی دیگر، “انقراض” به عنوان رویدادی تعریف شده است که همه انسان ها را به جز حداکثر 5000 فرد خوش شانس (یا بدشانس) از بین می برد.
اگر باید برویم، همه با هم می رویم
از هر دو گروه خواسته شد تا درباره احتمال همه چیز، از رویدادهای پایانی مانند انقراض ناشی از هوش مصنوعی یا جنگ هسته ای گرفته تا سؤالات کوچکتر، از جمله اینکه چه پیشرفت های هشداردهنده ای در قابلیت های هوش مصنوعی ممکن است به عنوان نشانه هایی در راه فاجعه در آینده رخ دهد، فکر کنند. در آینده، پیش بینی هایی ارائه کنید.
بارزترین یافته این مطالعه این است که کارشناسان در این زمینه، که معمولاً بر گفتگوهای عمومی در مورد خطرات وجودی تسلط دارند، آینده را بسیار تیرهتر از پیشبینیکنندگان فوقالعاده میبینند. کارشناسان تخمین زده اند که احتمال وقوع یک بلای طبیعی تا سال 2100 حدود 20 درصد و احتمال انقراض انسان حدود 6 درصد است. برای این رویدادها احتمالات 9 و 1 درصد توسط پیش بینی کنندگان در نظر گرفته شد.
این شکاف گسترده جزئیات جالبی را پنهان می کند. دو گروه در هنگام شناسایی خطرات ناشی از هوش مصنوعی بیشترین اختلاف نظر را داشتند. به طور متوسط، پیش بینی کنندگان تخمین زده اند که تا پایان قرن، احتمال یک فاجعه ناشی از هوش مصنوعی 2.1٪ و احتمال انقراض ناشی از AI 0.38٪ است. از سوی دیگر، کارشناسان حوزه هوش مصنوعی به ترتیب احتمال 12 و 3 درصد را برای این دو رویداد نسبت داده اند. وقتی نوبت به امور دنیوی می رسد، ابر پیش بینی ها نسبت به کارشناسان نسبت به خطرات بیماری های طبیعی بدبین تر بودند.
شاید جالب ترین یافته این باشد که اگرچه دو گروه در مورد سطح دقیق خطر اختلاف نظر داشتند، اما هر دو هوش مصنوعی را به عنوان بزرگترین نگرانی در هنگام فکر کردن به یک فاجعه یا فاجعه انقراض رتبه بندی کردند. دن مریلندیک ابر پیش بینی که در این مطالعه شرکت کرده است معتقد است که یکی از دلایلی که هوش مصنوعی خطرناک تر است این است که به عنوان یک “افزایش دهنده نیرو” در تهدیدات دیگر مانند سلاح های هسته ای عمل می کند.
در صورت وقوع یک جنگ هسته ای یا حمله یک سیارک، هوش مصنوعی (مثلاً به شکل ربات های مسلح) می تواند انسان ها را مستقیماً به سمت مرگ بفرستد. همچنین ممکن است در تیز کردن تبرهای دیگر جلادان نقش داشته باشد. به عنوان مثال، اگر انسانها از هوش مصنوعی برای طراحی سلاحهای بیولوژیکی قویتر استفاده کنند، هوش مصنوعی به طور اساسی، هرچند غیرمستقیم، در این فاجعه دخیل خواهد بود.
ابر پیش بینی ها، در حالی که نسبت به هوش مصنوعی بدبین بودند، تا حدودی در مورد آن نامطمئن بودند. جهان نزدیک به 80 سال است که با سلاح های هسته ای سر و کار دارد. این واقعیت که یک جنگ هسته ای همه جانبه هنوز اتفاق نیفتاده است داده های ارزشمندی را ارائه می دهد که می تواند در پیش بینی های آینده در مورد احتمال آن مفید باشد. اصطلاح هوش مصنوعی، حداقل به معنای فعلی آن، بسیار جدیدتر است. ظهور مدل های قدرتمند یادگیری ماشین امروزی به اوایل دهه 2010 برمی گردد. این زمینه به سرعت در حال توسعه و گسترش است. که داده های بسیار کمتری برای پیش بینی باقی می گذارد.
به طور خاص، دکتر تتلاک به طور گسترده روی مشکل پیش بینی آینده کار کرده است. او اولین کسی بود که “ابر پیش بینی ها” را شناسایی و نام برد. افرادی که به نظر می رسد در پیش بینی آینده فوق العاده خوب هستند. این افراد چندین ویژگی مشترک دارند، مانند تفکر عمیق مبتنی بر آمار و آگاهی از سوگیری های شناختی که می تواند آنها را گیج و گمراه کند. علیرغم فقدان تخصص خاص، ابر پیش بینی ها به عنوان کارشناسان موفق در بسیاری از زمینه های فنی دیگر، از مالی گرفته تا ژئوپلیتیک، شهرت دارند.
به نظر میرسد که اختلاف نظر بین گروهها تا حدی نشاندهنده تفاوت در مدلهای آنها از نحوه عملکرد جهان است. خطرات فاجعه بار نه تنها به پیچیدگی یا قدرت یک فناوری، بلکه به نحوه واکنش انسان ها به آن نیز بستگی دارد. به عنوان مثال، پس از ترس از جنگ هسته ای در آغاز جنگ سرد، ایالات متحده و اتحاد جماهیر شوروی، دو قدرت بزرگ هسته ای جهان، شروع به همکاری کردند. دو قدرت جهانی با ابتکاراتی مانند ایجاد «خطوط تماس مستقیم» بین مسکو و واشنگتن، توافقنامههایی برای بازرسی تسلیحات یکدیگر و معاهدات برای محدود کردن حجم ذخایر، به کاهش خطرات جنگ هستهای کمک کردهاند.
اما ظاهراً ابر پیشبینیکنندگان و کارشناسان هوش مصنوعی دیدگاههای بسیار متفاوتی در مورد نحوه واکنش جوامع به آسیبهای کوچک ناشی از هوش مصنوعی داشتند. ابرپیشبینیکنندگان بر این باور بودند که چنین آسیبهایی باعث بررسی دقیقتر و مقررات سختتر برای رسیدگی به مسائل بزرگتر پیشرو میشود. در مقابل، کارشناسان در این زمینه تمایل داشتند بر این باور باشند که انگیزه های تجاری و ژئوپلیتیک می تواند بر نگرانی های امنیتی، حتی پس از وارد شدن خسارت واقعی، غلبه کند.
ابر پیش بینی ها و کارشناسان نیز در مورد حدود هوش نظرات متفاوتی داشتند. کریستی مورلیکی دیگر از ابرپیشبینیکنندگان شرکتکننده در این مطالعه به سادگی معتقد است که «کشتن همه انسانها به این راحتی نیست». او خاطرنشان می کند که این احتمالاً مستلزم داشتن “قدری توانایی برای تعامل با دنیای فیزیکی است. ما احتمالاً قبل از رسیدن به آن به پیشرفت زیادی در دنیای رباتیک نیاز داریم.”