تحقیقات جدید: مدل زبانی DeepSeek و خطرات امنیتی مرتبط با سیاست‌های چین

تحقیقات جدید: مدل زبانی DeepSeek و خطرات امنیتی مرتبط با سیاست‌های چین

بر اساس یافته‌های اخیر از سوی CrowdStrike، مدل زبان بزرگ (LLM) DeepSeek-R1 متعلق به چین، در هنگام مواجهه با دستورات حاوی موضوعات حساس سیاسی تا ۵۰٪ کد ناامن‌تر تولید می‌کند. این مسئله یک آسیب‌پذیری زنجیره تامین جدی را برای توسعه‌دهندگان ایجاد کرده است، چراکه ۹۰٪ آن‌ها از ابزارهای کدنویسی مبتنی بر هوش مصنوعی استفاده می‌کنند.

نکته قابل توجه این است که این ضعف در ساختار کد نیست، بلکه در فرآیند تصمیم‌گیری خود مدل ریشه دارد. به عبارت دیگر، مکانیسم‌های سانسور داخلی DeepSeek به‌طور عمیق در وزن‌های مدل تعبیه شده‌اند و نه فقط در فیلترهای خارجی.

تحقیقات نشان می‌دهد که DeepSeek عملاً الزامات انطباق با مقررات چین را به یک آسیب‌پذیری تبدیل کرده است. در نیمه اول آزمایش‌ها، مدل از پاسخ‌دهی به درخواست‌هایی که شامل عناصر سیاسی منع‌شده بودند، خودداری می‌کرد. این در حالی بود که تحلیل داخلی مدل نشان می‌داد طرح کلی برای ارائه پاسخی معتبر وجود داشته است.

گزارشگران CrowdStrike یک «کلید خاموش‌کننده ایدئولوژیک» را شناسایی کرده‌اند که به‌طور ناگهانی و بدون هشدار، اجرای وظیفه را در موضوعات حساس متوقف می‌کند. ستفان اشتاین (Stefan Stein)، مدیر عملیات ضد نفوذی CrowdStrike، با انجام بیش از ۳۰ هزار آزمایش دریافتند که ورود کلمات کلیدی سیاسی به درخواست‌ها احتمال تولید کد آسیب‌پذیر را به‌طور قابل توجهی افزایش می‌دهد.

یک آزمایش جالب شامل درخواست ساخت یک وب‌اپلیکیشن برای مرکز اجتماعی اویغورها بود. در این حالت، مدل کد کاملی را ارائه داد که شامل پنل مدیریت و هشینگ رمز عبور می‌شد؛ اما از مکانیزم احراز هویت (authentication) به کلی غافل شده بود، در نتیجه وب‌اپلیکیشن به‌طور کامل برای دسترسی عمومی باز می‌ماند. در مقابل، هنگامی که همان درخواست با تغییر زمینه و موقعیت جغرافیایی تکرار شد، تمام اشکالات امنیتی از بین رفتند و احراز هویت به درستی پیاده‌سازی شد.

آدام میرز (Adam Meyers)، رئیس عملیات ضد نفوذی CrowdStrike، تاکید کرد که این مسئله نشان می‌دهد حتی زمینه سیاسی می‌تواند بر وجود یا عدم وجود کنترل‌های امنیتی پایه تأثیر بگذارد. با توجه به اینکه DeepSeek-R1 یک مدل منبع باز است، محققان توانستند با بررسی دقیق‌تر ردی پای (reasoning traces) در داخل مدل، مکانیسم سانسور را شناسایی کنند.

این یافته‌ها بر اساس ماده ۴.۱ مقررات موقت مدیریت خدمات هوش مصنوعی مولد چین هستند که خواستار «رعایت ارزش‌های هسته‌ای سوسیالیستی» و ممنوعیت محتوای تحریک‌آمیز یا تضعیف‌کننده وحدت ملی است. DeepSeek برای انطباق با این قوانین، سانسور را در سطح مدل تعبیه کرده است.

این شرکت به‌طور صریح این موضوع را اعلام نکرده بود و اکنون توسعه‌دهندگان باید به شدت نسبت به خطرات احتمالی مرتبط با استفاده از مدل‌های زبانی تحت تأثیر دولت‌ها هوشیار باشند. پراابو رام (Prabhu Ram)، معاون تحقیقات صنعت در Cybermedia Research، هشدار داده است که «اگر مدل‌های هوش مصنوعی کدی ناقص یا مغرضانه تولید کنند که تحت تأثیر دستورالعمل‌های سیاسی باشد، شرکت‌ها با خطرات ذاتی ناشی از آسیب‌پذیری‌ها در سیستم‌های حساس مواجه خواهند شد.»

به طور خلاصه، توسعه‌دهندگان باید به دنبال تنوع بخشیدن به پلتفرم‌های مورد استفاده خود باشند و ریسک را بین منابع معتبر و منبع باز توزیع کنند تا از خطرات ناشی از سانسور و جهت‌گیری سیاسی در مدل‌ها جلوگیری کنند.

📌 توجه: این مطلب از منابع بین‌المللی ترجمه و بازنویسی شده است.