محققان نشان دادند: جیلبریک ربات‌ها برای ردشدن از روی انسان و کارگذاری بمب آسان است

دیجیاتو دوشنبه 05 آذر 1403 - 16:02
محققان دریافتند که جیلبریک ربات‌های مبتنی بر مدل‌های زبانی بزرگ بسیار آسان است. The post محققان نشان دادند: جیلبریک ربات‌ها برای ردشدن از روی انسان و کارگذاری بمب آسان است appeared first on دیجیاتو.

محققان دانشگاه پنسیلوانیا دریافتند طیف وسیعی از سیستم‌های رباتیک مبتنی‌بر هوش مصنوعی به‌‌شکل خطرناکی در برابر جیلبریک و هک آسیب‌پذیر هستند. به گفته محققان با هک این ربات‌ها می‌توان از آنها برای جابه‌جایی بمب‌ها به مکان‌های عمومی یا کنترل خودروهای خودران برای زیرگرفتن عابران پیاده استفاده کرد.

براساس گزارش IEEE Spectrum، محققان دریافتند جیلبریک ربات‌های مبتنی‌بر مدل‌های زبانی بزرگ (LLM) به‌طرز شگفت‌انگیزی آسان است. در پژوهش جدید، محققان هک‌کردن چنین ربات‌هایی را با موفقیت کامل نشان می‌دهند. با دورزدن حفاظ‌های ایمنی، محققان توانستند سیستم‌های خودران را برای تصادف با عابران پیاده و انتقال بمب با سگ‌های رباتیک دستکاری کنند.

جیلبریک ربات‌ هوش مصنوعی

توانایی خارق‌العاده LLMها در پردازش متن، تعدادی از شرکت‌ها را بر آن داشته تا از این سیستم‌های هوش مصنوعی برای کمک به کنترل ربات‌ها از طریق دستورات صوتی بهره ببرند تا ارتباط‌ با ربات‌ها آسان باشد؛ برای نمونه، سگ رباتیک Spot از Boston Dynamics اکنون با ChatGPT یکپارچه شده است و می‌تواند در نقش تور لیدر عمل کند. یا ربات‌های انسان‌نمای فیگر و سگ رباتیک Go2 Unitree نیز به ChatGPT مجهز هستند.

البته باتوجه‌به مقاله محققان، این ربات‌های مبتنی‌بر LLM آسیب‌پذیری‌های امنیتی زیادی دارند. محققان دانشگاه پنسیلوانیا الگوریتم RoboPAIR را توسعه داده‌اند که برای حمله به هر ربات مجهز به LLM طراحی شده است. آنها دریافتند RoboPAIR فقط چند روز لازم دارد تا به نرخ 100 درصدی جیلبریک موفق برسد.

ابتدا این سگ رباتیک از انتقال بمب امتناع می‌کرد اما با الگوریتم RoboPAIR و پرامپتی که در تصویر می‌بینید، به‌سمت هدف حرکت کرد.

جالب اینجاست که LLM‌های جیلبریک‌شده این ربات‌ها پیشنهاداتی فراتر از پرامپت کاربر پیشنهاد دادند؛ برای مثال، هنگامی که از ربات جیلبریک‌شده خواسته شد محل اسلحه‌ها را پیدا کند، توضیح داد چگونه می‌توان از اشیای معمولی مانند میز و صندلی برای حمله به افراد استفاده کرد.

درکل، جیلبریک‌ ربات‌ها یا خودروهای خودران به روشی مشابه جیلبریک‌ چت‌بات‌های هوش مصنوعی آنلاین انجام می‌شود اما برخلاف چت‌بات‌ها در گوشی یا کامپیوتر، جیلبریک‌ LLM‌های رباتیک در دنیای فیزیکی عمل می‌کند و می‌تواند به ویرانی گسترده‌ای بینجامد.

منبع خبر "دیجیاتو" است و موتور جستجوگر خبر تیترآنلاین در قبال محتوای آن هیچ مسئولیتی ندارد. (ادامه)
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت تیترآنلاین مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویری است، مسئولیت نقض حقوق تصریح شده مولفان از قبیل تکثیر، اجرا و توزیع و یا هرگونه محتوای خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.