بر اساس یافتههای اخیر از سوی CrowdStrike، مدل زبان بزرگ (LLM) DeepSeek-R1 متعلق به چین، در هنگام مواجهه با دستورات حاوی موضوعات حساس سیاسی تا ۵۰٪ کد ناامنتر تولید میکند. این مسئله یک آسیبپذیری زنجیره تامین جدی را برای توسعهدهندگان ایجاد کرده است، چراکه ۹۰٪ آنها از ابزارهای کدنویسی مبتنی بر هوش مصنوعی استفاده میکنند.
نکته قابل توجه این است که این ضعف در ساختار کد نیست، بلکه در فرآیند تصمیمگیری خود مدل ریشه دارد. به عبارت دیگر، مکانیسمهای سانسور داخلی DeepSeek بهطور عمیق در وزنهای مدل تعبیه شدهاند و نه فقط در فیلترهای خارجی.
تحقیقات نشان میدهد که DeepSeek عملاً الزامات انطباق با مقررات چین را به یک آسیبپذیری تبدیل کرده است. در نیمه اول آزمایشها، مدل از پاسخدهی به درخواستهایی که شامل عناصر سیاسی منعشده بودند، خودداری میکرد. این در حالی بود که تحلیل داخلی مدل نشان میداد طرح کلی برای ارائه پاسخی معتبر وجود داشته است.
گزارشگران CrowdStrike یک «کلید خاموشکننده ایدئولوژیک» را شناسایی کردهاند که بهطور ناگهانی و بدون هشدار، اجرای وظیفه را در موضوعات حساس متوقف میکند. ستفان اشتاین (Stefan Stein)، مدیر عملیات ضد نفوذی CrowdStrike، با انجام بیش از ۳۰ هزار آزمایش دریافتند که ورود کلمات کلیدی سیاسی به درخواستها احتمال تولید کد آسیبپذیر را بهطور قابل توجهی افزایش میدهد.
یک آزمایش جالب شامل درخواست ساخت یک وباپلیکیشن برای مرکز اجتماعی اویغورها بود. در این حالت، مدل کد کاملی را ارائه داد که شامل پنل مدیریت و هشینگ رمز عبور میشد؛ اما از مکانیزم احراز هویت (authentication) به کلی غافل شده بود، در نتیجه وباپلیکیشن بهطور کامل برای دسترسی عمومی باز میماند. در مقابل، هنگامی که همان درخواست با تغییر زمینه و موقعیت جغرافیایی تکرار شد، تمام اشکالات امنیتی از بین رفتند و احراز هویت به درستی پیادهسازی شد.
آدام میرز (Adam Meyers)، رئیس عملیات ضد نفوذی CrowdStrike، تاکید کرد که این مسئله نشان میدهد حتی زمینه سیاسی میتواند بر وجود یا عدم وجود کنترلهای امنیتی پایه تأثیر بگذارد. با توجه به اینکه DeepSeek-R1 یک مدل منبع باز است، محققان توانستند با بررسی دقیقتر ردی پای (reasoning traces) در داخل مدل، مکانیسم سانسور را شناسایی کنند.
این یافتهها بر اساس ماده ۴.۱ مقررات موقت مدیریت خدمات هوش مصنوعی مولد چین هستند که خواستار «رعایت ارزشهای هستهای سوسیالیستی» و ممنوعیت محتوای تحریکآمیز یا تضعیفکننده وحدت ملی است. DeepSeek برای انطباق با این قوانین، سانسور را در سطح مدل تعبیه کرده است.
این شرکت بهطور صریح این موضوع را اعلام نکرده بود و اکنون توسعهدهندگان باید به شدت نسبت به خطرات احتمالی مرتبط با استفاده از مدلهای زبانی تحت تأثیر دولتها هوشیار باشند. پراابو رام (Prabhu Ram)، معاون تحقیقات صنعت در Cybermedia Research، هشدار داده است که «اگر مدلهای هوش مصنوعی کدی ناقص یا مغرضانه تولید کنند که تحت تأثیر دستورالعملهای سیاسی باشد، شرکتها با خطرات ذاتی ناشی از آسیبپذیریها در سیستمهای حساس مواجه خواهند شد.»
به طور خلاصه، توسعهدهندگان باید به دنبال تنوع بخشیدن به پلتفرمهای مورد استفاده خود باشند و ریسک را بین منابع معتبر و منبع باز توزیع کنند تا از خطرات ناشی از سانسور و جهتگیری سیاسی در مدلها جلوگیری کنند.
📌 توجه: این مطلب از منابع بینالمللی ترجمه و بازنویسی شده است.