محققان دانشگاه «پنسیلوانیا» و شرکت سیسکو دریافتند که مدل هوش مصنوعی DeepSeek R1 در برابر حملات مرتبط با ایمنی بهشدت آسیبپذیر است و حتی یک تست ایمنی را با موفقیت پشت سر نگذاشته است.
در گزارشی که نخستین بار توسط «Wired» انتشار یافت، مشخص شد که DeepSeek نتوانسته هیچیک از ۵۰ پرسش مخرب را که از مجموعه داده «HarmBench» انتخاب شده بودند، مسدود کند. این مجموعه شامل درخواستهایی در زمینه جرایم سایبری، انتشار اطلاعات نادرست، فعالیتهای غیرقانونی و محتوای مضر است.
درحالیکه دیگر مدلهای برتر هوش مصنوعی حداقل تا حدی در برابر این حملات مقاومت نشان دادند، DeepSeek بهطور کامل شکست خورد. شرکت DeepSeek مدعی است که مدل R1 آن میتواند با رقبای بزرگی مانند OpenAI رقابت کند، آن هم با هزینهای بسیار پایینتر. البته تردیدهایی در این زمینه وجود دارد و بهنظر میرسد که هزینه تولید پاسخها توسط این مدل اصلاً پایین نیست.
اما ظاهراً صرفهجویی در هزینه آموزش، بهای سنگینی در زمینه امنیت داشته است. این مدل بدون هیچ مانعی میتواند برای انتشار اطلاعات نادرست، آموزش ساخت مواد منفجره یا اجرای دیگر حملات سایبری مورد سوءاستفاده قرار گیرد.
محققان همچنین پیشتر افشا کردند که DeepSeek یک پایگاه داده بزرگ و غیرایمن شامل دادههای داخلی رمزنگارینشده، تاریخچه چتها و اطلاعات بکاند (Back-end) را روی سرورهای خود در دسترس قرار داده بود.
مشکل امنیتی DeepSeek تنها به این شرکت محدود نمیشود. مدل متنباز Llama 3.1 از شرکت متا نیز در همین تستها عملکردی ناامیدکننده داشت و با نرخ ۹۶ درصدی در برابر حملات شکست خورد. در مقابل، مدل جدید OpenAI با نام o1-preview عملکرد بسیار بهتری داشت و تنها در ۲۶ درصد موارد دچار آسیبپذیری شد.
«الکس پولیاکوف»، مدیرعامل شرکت «Adversa AI»، در این زمینه گفت: «DeepSeek تنها نمونهای از این حقیقت است که هر مدل هوش مصنوعی قابل هکشدن است؛ فقط مسئله زمان و تلاش است. اگر تیم شما بهطور مداوم مدل را از نظر ایمنی بررسی نکند، در واقع از قبل آسیبپذیر شدهاید.»
باتوجهبه اهمیت امنیت و ایمنی در هوش مصنوعی و تأثیرات آن بر کاربران، DeepSeek باید بهسرعت روی بهبود تدابیر محافظتی خود کار کند. در غیر این صورت، احتمال دارد که مدلهای آن به دلیل ضعف ایمنی از بازار کنار گذاشته شوند و اعتماد کاربران و سرمایهگذاران را از دست بدهند.