ظهور کرم‌های هوش مصنوعی؛ تهدید جدید برای امنیت اینترنت

گوگل هنوز در مورد نتایج این تحقیق صحبتی نکرده است، اما به نظر می رسد که آماده گفتگو با محققان است.

محققان نگران کرم های هوش مصنوعی هستند

اگرچه عملکرد مخرب این کرم هوش مصنوعی در یک محیط کنترل شده نشان داده شده است، اما برخی از محققان بر این باورند که خطر کرم های هوش مصنوعی تولید شده در آینده موضوعی است که توسعه دهندگان اکنون باید آن را جدی بگیرند. این امر به ویژه زمانی اهمیت پیدا می کند که برنامه های هوش مصنوعی مجاز به انجام اقدامات به جای کاربران باشند. به عنوان مثال، یک ایمیل ارسال کنید یا یک قرار ملاقات رزرو کنید.

محققان 1 میلیون سیستم مبتنی بر LLM را در کمتر از پنج دقیقه جیل بریک کردند

در مطالعه اخیر دیگری، محققان امنیتی از سنگاپور و چین نشان دادند که چگونه توانستند میلیون‌ها سیستم را بر اساس مدل‌های زبان بزرگ در کمتر از پنج دقیقه جیلبریک کنند.

سحر عبدالنبیمحقق مرکز امنیت اطلاعات هلمهولتز وابسته به CISPA در آلمان، که قبلاً در مورد خطر کرم‌های هوش مصنوعی هشدار داده بود، می‌گوید:

کرم‌های هوش مصنوعی همچنین زمانی که مدل‌های هوش مصنوعی داده‌ها را از منابع خارجی دریافت می‌کنند یا زمانی که چت‌ربات‌های مختلف هوش مصنوعی به طور مستقل عمل می‌کنند، احتمالاً گسترش می‌یابند.

عبدالنبی می گوید که ایده گسترش حملات تزریقی بسیار امکان پذیر است و همه اینها به هدفی که از مدل ها استفاده می شود بستگی دارد. به گفته وی، اگرچه در حال حاضر این نوع حمله تنها در محیط آزمایشگاهی شبیه سازی می شود، اما زمان زیادی نمی گذرد که به دنیای واقعی راه پیدا می کند.

در مقاله خود، محققان پیش‌بینی می‌کنند که طی دو یا سه سال آینده، احتمالاً شاهد ظهور کرم‌های هوش مصنوعی در دنیای واقعی خواهیم بود. با وجود این خطر، توسعه دهندگان سیستم های هوش مصنوعی تولیدی می توانند با استفاده از روش های امنیتی سنتی در برابر این کرم ها دفاع کنند.

آدام اسفوندامحقق تهدیدات سایبری در شرکت امنیتی هوش مصنوعی Robust Intelligence می گوید:

اکثر این مشکلات با طراحی مناسب و نظارت بر امنیت برنامه ها قابل حل است. هیچ جایی در برنامه شما وجود ندارد که به طور کامل به خروجی مدل های زبان بزرگ تکیه کنید.

Suvanda همچنین بر اهمیت مشارکت انسان در این فرآیند تأکید می کند و می گوید برای اطمینان از اینکه مدل های مختلف هوش مصنوعی نمی توانند بدون رضایت اقداماتی انجام دهند. به عنوان مثال، یک مدل هوش مصنوعی که ایمیل شما را می خواند نباید اجازه ارسال ایمیل های خودکار را داشته باشد. باید مرزهای مشخصی در این زمینه وجود داشته باشد. او گفت که اگر دستورالعمل‌های خاصی هزاران بار در سیستم‌های هوش مصنوعی تکرار شوند، “نویز” ایجاد می‌کنند و ممکن است تشخیص آنها آسان‌تر شود.

در نهایت، ناسی می گوید توسعه دهندگان دستیاران هوش مصنوعی باید از چنین خطراتی آگاه باشند. او می‌گوید: «این چیزی است که آنها باید درک کنند و ببینند که آیا برنامه‌های این شرکت برای توسعه اکوسیستم و برنامه‌های هوش مصنوعی از چنین رویکردهایی پیروی می‌کند یا خیر».

منبع

تحریریه مجله بازی یک گیمر