هشدار کارشناسان امنیت سایبری: مقابله با آسیب‌پذیری‌های تزریق دستور در مدل‌های زبانی

هشدار کارشناسان امنیت سایبری: مقابله با آسیب‌پذیری‌های تزریق دستور در مدل‌های زبانی

کارشناسان امنیت سایبری هشدار داده‌اند که آسیب‌پذیری‌های مربوط به «تزریق دستور» (Prompt Injection) احتمالاً به‌طور کامل قابل رفع نخواهند بود. توصیه شده است متخصصان امنیت، تمرکز خود را بر کاهش اثرات این آسیب‌پذیری‌ها قرار دهند.

دیوید سی، مدیر فنی مرکز ملی امنیت سایبری (NCSC)، تاکید کرده‌اند که نباید رویکرد مقابله با تزریق دستور را مشابه حملات SQL injection در نظر گرفت. در حملات SQL Injection، داده‌ها به گونه‌ای دستکاری می‌شوند تا به‌عنوان دستورالعمل برای سیستم اجرا شوند – همان مسئله اساسی که در بسیاری از انواع آسیب‌پذیری‌های حیاتی دیگر مانند اسکریپت‌نویسی بین سایتی (Cross-Site Scripting) و سوءاستفاده از سرریز بافر (Buffer Overflow) نیز دیده می‌شود.

با این حال، قوانین مشابه برای تزریق دستور صدق نمی‌کنند زیرا مدل‌های زبانی بزرگ (LLMها) تمایزی بین داده‌ها و دستورالعمل‌ها قائل نیستند. دیوید سی توضیح داد: «زمانی که یک پرامپت را به LLM ارائه می‌دهید، متن را آن‌گونه که انسان درک می‌کند، درک نمی‌کند. این مدل صرفاً در حال پیش‌بینی محتمل‌ترین توکن بعدی از روی متن تا کنون است.»

از آنجا که هیچ تمایزی ذاتی بین «داده» و «دستورالعمل» وجود ندارد، بسیار محتمل است که حملات تزریق دستور به طور کامل قابل رفع نباشند. این موضوع دلیل شکست تلاش‌های متعددی مانند شناسایی تلاش‌های تزریق دستور، آموزش مدل‌ها برای اولویت‌بندی «دستورالعمل‌ها» بر روی «داده‌ها»، و توضیح دادن ماهیت «داده» به مدل است.

به جای تلاش برای یافتن راه‌حل کامل، رویکرد بهتر این است که تزریق دستور را نه به‌عنوان یک نشت کد (Code Injection) بلکه به‌عنوان سوءاستفاده از یک «نماینده قابل‌اشتباهِ به‌ظاهر معتبر» در نظر بگیریم. دیوید سی خاطرنشان کرد LLMها به دلیل عدم امکان رفع کامل خطر، ذاتاً قابل اشتباه هستند.

NCSC پیشنهاد می‌کند برای کاهش خطرات تزریق دستور، مراحلی را دنبال کنید که با الزامات Baseline Cyber Security (TS 104 223) سازمان ملل متحد برای مدل‌ها و سیستم‌های هوش مصنوعی همسو باشند. عدم رسیدگی به این چالش در مراحل اولیه می‌تواند منجر به وضعیتی مشابه حملات SQL Injection شود که اخیراً کمیاب‌تر شده‌اند.

استیو ویلسون، مدیر ارشد هوش مصنوعی شرکت Exabeam نیز با این نظر موافق است و معتقد است رویکردهای فعلی برای مقابله با تزریق دستور شکست می‌خورند. «مدیران ارشد امنیت اطلاعات (CISOs) باید دیدگاه خود را تغییر دهند. محافظت از عامل‌های هوش مصنوعی کمتر شبیه به ایمن‌سازی نرم‌افزارهای سنتی و بیشتر شبیه به حفاظت از انسان‌های درون سازمان است.» او افزود: «عامل‌ها، مانند افراد، آشفته، سازگار و مستعد دستکاری، اجبار یا سردرگمی هستند.»

📌 توجه: این مطلب از منابع بین‌المللی ترجمه و بازنویسی شده است.