دیپ‌سیک در آزمایش‌های ایمنی مردود شد؛ شکست کامل مدل جنجالی!

دیجیاتو سه شنبه 16 بهمن 1403 - 13:33
محققان می‌گویند دیپ‌سیک نمی‌تواند در برابر درخواست‌های مخرب ایستادگی کند. The post دیپ‌سیک در آزمایش‌های ایمنی مردود شد؛ شکست کامل مدل جنجالی! appeared first on دیجیاتو.

محققان دانشگاه «پنسیلوانیا» و شرکت سیسکو دریافتند که مدل هوش مصنوعی DeepSeek R1 در برابر حملات مرتبط با ایمنی به‌شدت آسیب‌پذیر است و حتی یک تست ایمنی را با موفقیت پشت سر نگذاشته است.

در گزارشی که نخستین بار توسط «Wired» انتشار یافت، مشخص شد که DeepSeek نتوانسته هیچ‌یک از ۵۰ پرسش مخرب را که از مجموعه داده «HarmBench» انتخاب شده بودند، مسدود کند. این مجموعه شامل درخواست‌هایی در زمینه جرایم سایبری، انتشار اطلاعات نادرست، فعالیت‌های غیرقانونی و محتوای مضر است.

DeepSeek: پیشرفت چشمگیر، اما ناموفق در حفظ ایمنی

درحالی‌که دیگر مدل‌های برتر هوش مصنوعی حداقل تا حدی در برابر این حملات مقاومت نشان دادند، DeepSeek به‌طور کامل شکست خورد. شرکت DeepSeek مدعی است که مدل R1 آن می‌تواند با رقبای بزرگی مانند OpenAI رقابت کند، آن هم با هزینه‌ای بسیار پایین‌تر. البته تردیدهایی در این زمینه وجود دارد و به‌نظر می‌رسد که هزینه تولید پاسخ‌ها توسط این مدل اصلاً پایین نیست.

DeepSeek در تمامی تست‌های امنیتی مردود شد

اما ظاهراً صرفه‌جویی در هزینه آموزش، بهای سنگینی در زمینه امنیت داشته است. این مدل بدون هیچ مانعی می‌تواند برای انتشار اطلاعات نادرست، آموزش ساخت مواد منفجره یا اجرای دیگر حملات سایبری مورد سوءاستفاده قرار گیرد.

محققان همچنین پیشتر افشا کردند که DeepSeek یک پایگاه داده بزرگ و غیرایمن شامل داده‌های داخلی رمزنگاری‌نشده، تاریخچه چت‌ها و اطلاعات بک‌اند (Back-end) را روی سرورهای خود در دسترس قرار داده بود.

مشکلات امنیتی گسترده در مدل‌های هوش مصنوعی

مشکل امنیتی DeepSeek تنها به این شرکت محدود نمی‌شود. مدل متن‌باز Llama 3.1 از شرکت متا نیز در همین تست‌ها عملکردی ناامیدکننده داشت و با نرخ ۹۶ درصدی در برابر حملات شکست خورد. در مقابل، مدل جدید OpenAI با نام o1-preview عملکرد بسیار بهتری داشت و تنها در ۲۶ درصد موارد دچار آسیب‌پذیری شد.

DeepSeek

«الکس پولیاکوف»، مدیرعامل شرکت «Adversa AI»، در این زمینه گفت: «DeepSeek تنها نمونه‌ای از این حقیقت است که هر مدل هوش مصنوعی قابل هک‌شدن است؛ فقط مسئله زمان و تلاش است. اگر تیم شما به‌طور مداوم مدل را از نظر ایمنی بررسی نکند، در واقع از قبل آسیب‌پذیر شده‌اید.»

باتوجه‌به اهمیت امنیت و ایمنی در هوش مصنوعی و تأثیرات آن بر کاربران، DeepSeek باید به‌سرعت روی بهبود تدابیر محافظتی خود کار کند. در غیر این صورت، احتمال دارد که مدل‌های آن به دلیل ضعف ایمنی از بازار کنار گذاشته شوند و اعتماد کاربران و سرمایه‌گذاران را از دست بدهند.

منبع خبر "دیجیاتو" است و موتور جستجوگر خبر تیترآنلاین در قبال محتوای آن هیچ مسئولیتی ندارد. (ادامه)
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت تیترآنلاین مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویری است، مسئولیت نقض حقوق تصریح شده مولفان از قبیل تکثیر، اجرا و توزیع و یا هرگونه محتوای خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.