هشدار کارشناسان: Grok 3 خطرات جدی برای دنیای هوش مصنوعی و امنیت سایبری به همراه دارد

دیجیاتو پنج شنبه 02 اسفند 1403 - 21:32
به گفته کارشناسان گراک 3 به شدت در برابر «جیلبریک‌های ساده» آسیب‌پذیر است و امنیت آن با مدل‌های چینی برابری می‌کند. The post هشدار کارشناسان: Grok 3 خطرات جدی برای دنیای هوش مصنوعی و امنیت سایبری به همراه دارد appeared first on دیجیاتو.

محققان شرکت امنیت سایبری Adversa AI به این نتیجه رسیده‌اند مدل هوش مصنوعی جدید Grok 3 که این هفته توسط استارتاپ xAI متعلق به «ایلان ماسک» منتشر شده، می‌تواند منجر به یک فاجعه امنیت سایبری شود. به گفته این تیم گراک 3 به شدت در برابر «جیلبریک‌های ساده» آسیب‌پذیر است و هکرها می‌توانند از این آسیب‌پذیری سوء استفاده کنند.

طبق گزارش‌های منتشر شده، «الکس پولیاکوف» مدیرعامل و هم‌بنیان‌گذار Adversa می‌گوید که هکرها از این آسیب‌پذیری ممکن است برای «افشای روش‌هایی برای فریب کودکان، دفم جسد، استخراج DMT و البته ساخت بمب» استفاده کنند. او در ایمیل خود به Futurism می‌گوید:

«موضوع فقط آسیب‌پذیری‌های سمت جیلبریک نیست، بلکه تیم امنیت هوش مصنوعی ما نقص دیگری را کشف کرده که باعث می‌شود دستورالعمل‌های سیستم Grok به‌طور فاش شود. این سطح متفاوتی از خطر است.»

او در ادامه توضیح می‌دهد که جیلبریک‌ها به هکرها اجازه می‌دهند تا محدودیت‌های محتوایی را دور بزنند، اما با نقص اشاره شده در بالا، آنها به نقشه نحوه فکرکردن مدل نیز دسترسی پیدا می‌کنند که این امر انجام سوءاستفاده‌های بیشتر در آینده را بسیار ساده‌تر می‌کند.

علاوه بر افشای روش‌های ساخت بمب به مهاجمان، پولیاکوف و تیمش هشدار می‌دهند که این آسیب‌پذیری‌ها ممکن است به هکرها اجازه دهند که کنترل عامل‌های هوش مصنوعی را به دست بگیرند. این امر آنها را قادر می‌سازند تا به نمایندگی از کاربران اقداماتی را انجام دهند و این موضوع به گفته پولیاکوف یک «بحران امنیت سایبری» رو به رشد است.

امنیت هوش مصنوعی Grok 3 با مدل‌های چینی برابری می‌کند

پولیاکوف در انتها به Futurism می‌گوید:

«نتیجه‌گیری نهایی؟ ایمنی Grok 3 ضعیف است و با LLM‌های چینی برابری می‌کند، نه با امنیت مدل‌های غربی. به نظر می‌رسد تمام این مدل‌های جدید در حال رقابت برای سرعت هستند نه امنیت، و این موضوع کاملاً مشهود است.»

Grok 3 که این هفته توسط xAI معرفی شد، با استقبال بسیار خوبی همراه بود. نتایج اولیه آزمایشات نشان داد که این مدل به سرعت در صدر جدول‌های مدل‌های زبان بزرگ (LLM) قرار گرفت و برخی از کارشناسان آن را در محدوده‌ای از مدل‌های قوی OpenAI قرار دادند. با این‌حال گزارش امروز نگرانی‌هایی را درباره آن مطرح می‌کند.

منبع خبر "دیجیاتو" است و موتور جستجوگر خبر تیترآنلاین در قبال محتوای آن هیچ مسئولیتی ندارد. (ادامه)
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت تیترآنلاین مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویری است، مسئولیت نقض حقوق تصریح شده مولفان از قبیل تکثیر، اجرا و توزیع و یا هرگونه محتوای خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.