محققان شرکت امنیت سایبری Adversa AI به این نتیجه رسیدهاند مدل هوش مصنوعی جدید Grok 3 که این هفته توسط استارتاپ xAI متعلق به «ایلان ماسک» منتشر شده، میتواند منجر به یک فاجعه امنیت سایبری شود. به گفته این تیم گراک 3 به شدت در برابر «جیلبریکهای ساده» آسیبپذیر است و هکرها میتوانند از این آسیبپذیری سوء استفاده کنند.
طبق گزارشهای منتشر شده، «الکس پولیاکوف» مدیرعامل و همبنیانگذار Adversa میگوید که هکرها از این آسیبپذیری ممکن است برای «افشای روشهایی برای فریب کودکان، دفم جسد، استخراج DMT و البته ساخت بمب» استفاده کنند. او در ایمیل خود به Futurism میگوید:
«موضوع فقط آسیبپذیریهای سمت جیلبریک نیست، بلکه تیم امنیت هوش مصنوعی ما نقص دیگری را کشف کرده که باعث میشود دستورالعملهای سیستم Grok بهطور فاش شود. این سطح متفاوتی از خطر است.»
او در ادامه توضیح میدهد که جیلبریکها به هکرها اجازه میدهند تا محدودیتهای محتوایی را دور بزنند، اما با نقص اشاره شده در بالا، آنها به نقشه نحوه فکرکردن مدل نیز دسترسی پیدا میکنند که این امر انجام سوءاستفادههای بیشتر در آینده را بسیار سادهتر میکند.
علاوه بر افشای روشهای ساخت بمب به مهاجمان، پولیاکوف و تیمش هشدار میدهند که این آسیبپذیریها ممکن است به هکرها اجازه دهند که کنترل عاملهای هوش مصنوعی را به دست بگیرند. این امر آنها را قادر میسازند تا به نمایندگی از کاربران اقداماتی را انجام دهند و این موضوع به گفته پولیاکوف یک «بحران امنیت سایبری» رو به رشد است.
پولیاکوف در انتها به Futurism میگوید:
«نتیجهگیری نهایی؟ ایمنی Grok 3 ضعیف است و با LLMهای چینی برابری میکند، نه با امنیت مدلهای غربی. به نظر میرسد تمام این مدلهای جدید در حال رقابت برای سرعت هستند نه امنیت، و این موضوع کاملاً مشهود است.»
Grok 3 که این هفته توسط xAI معرفی شد، با استقبال بسیار خوبی همراه بود. نتایج اولیه آزمایشات نشان داد که این مدل به سرعت در صدر جدولهای مدلهای زبان بزرگ (LLM) قرار گرفت و برخی از کارشناسان آن را در محدودهای از مدلهای قوی OpenAI قرار دادند. با اینحال گزارش امروز نگرانیهایی را درباره آن مطرح میکند.