گوگل هنوز در مورد نتایج این تحقیق صحبتی نکرده است، اما به نظر می رسد که آماده گفتگو با محققان است.
محققان نگران کرم های هوش مصنوعی هستند
اگرچه عملکرد مخرب این کرم هوش مصنوعی در یک محیط کنترل شده نشان داده شده است، اما برخی از محققان بر این باورند که خطر کرم های هوش مصنوعی تولید شده در آینده موضوعی است که توسعه دهندگان اکنون باید آن را جدی بگیرند. این امر به ویژه زمانی اهمیت پیدا می کند که برنامه های هوش مصنوعی مجاز به انجام اقدامات به جای کاربران باشند. به عنوان مثال، یک ایمیل ارسال کنید یا یک قرار ملاقات رزرو کنید.
محققان 1 میلیون سیستم مبتنی بر LLM را در کمتر از پنج دقیقه جیل بریک کردند
در مطالعه اخیر دیگری، محققان امنیتی از سنگاپور و چین نشان دادند که چگونه توانستند میلیونها سیستم را بر اساس مدلهای زبان بزرگ در کمتر از پنج دقیقه جیلبریک کنند.
سحر عبدالنبیمحقق مرکز امنیت اطلاعات هلمهولتز وابسته به CISPA در آلمان، که قبلاً در مورد خطر کرمهای هوش مصنوعی هشدار داده بود، میگوید:
کرمهای هوش مصنوعی همچنین زمانی که مدلهای هوش مصنوعی دادهها را از منابع خارجی دریافت میکنند یا زمانی که چترباتهای مختلف هوش مصنوعی به طور مستقل عمل میکنند، احتمالاً گسترش مییابند.
عبدالنبی می گوید که ایده گسترش حملات تزریقی بسیار امکان پذیر است و همه اینها به هدفی که از مدل ها استفاده می شود بستگی دارد. به گفته وی، اگرچه در حال حاضر این نوع حمله تنها در محیط آزمایشگاهی شبیه سازی می شود، اما زمان زیادی نمی گذرد که به دنیای واقعی راه پیدا می کند.
خلاصه: چه زمانی باید نگران کرم های هوش مصنوعی باشیم؟
در مقاله خود، محققان پیشبینی میکنند که طی دو یا سه سال آینده، احتمالاً شاهد ظهور کرمهای هوش مصنوعی در دنیای واقعی خواهیم بود. با وجود این خطر، توسعه دهندگان سیستم های هوش مصنوعی تولیدی می توانند با استفاده از روش های امنیتی سنتی در برابر این کرم ها دفاع کنند.
آدام اسفوندامحقق تهدیدات سایبری در شرکت امنیتی هوش مصنوعی Robust Intelligence می گوید:
اکثر این مشکلات با طراحی مناسب و نظارت بر امنیت برنامه ها قابل حل است. هیچ جایی در برنامه شما وجود ندارد که به طور کامل به خروجی مدل های زبان بزرگ تکیه کنید.
Suvanda همچنین بر اهمیت مشارکت انسان در این فرآیند تأکید می کند و می گوید برای اطمینان از اینکه مدل های مختلف هوش مصنوعی نمی توانند بدون رضایت اقداماتی انجام دهند. به عنوان مثال، یک مدل هوش مصنوعی که ایمیل شما را می خواند نباید اجازه ارسال ایمیل های خودکار را داشته باشد. باید مرزهای مشخصی در این زمینه وجود داشته باشد. او گفت که اگر دستورالعملهای خاصی هزاران بار در سیستمهای هوش مصنوعی تکرار شوند، “نویز” ایجاد میکنند و ممکن است تشخیص آنها آسانتر شود.
در نهایت، ناسی می گوید توسعه دهندگان دستیاران هوش مصنوعی باید از چنین خطراتی آگاه باشند. او میگوید: «این چیزی است که آنها باید درک کنند و ببینند که آیا برنامههای این شرکت برای توسعه اکوسیستم و برنامههای هوش مصنوعی از چنین رویکردهایی پیروی میکند یا خیر».