کارشناسان امنیت سایبری هشدار دادهاند که آسیبپذیریهای مربوط به «تزریق دستور» (Prompt Injection) احتمالاً بهطور کامل قابل رفع نخواهند بود. توصیه شده است متخصصان امنیت، تمرکز خود را بر کاهش اثرات این آسیبپذیریها قرار دهند.
دیوید سی، مدیر فنی مرکز ملی امنیت سایبری (NCSC)، تاکید کردهاند که نباید رویکرد مقابله با تزریق دستور را مشابه حملات SQL injection در نظر گرفت. در حملات SQL Injection، دادهها به گونهای دستکاری میشوند تا بهعنوان دستورالعمل برای سیستم اجرا شوند – همان مسئله اساسی که در بسیاری از انواع آسیبپذیریهای حیاتی دیگر مانند اسکریپتنویسی بین سایتی (Cross-Site Scripting) و سوءاستفاده از سرریز بافر (Buffer Overflow) نیز دیده میشود.
با این حال، قوانین مشابه برای تزریق دستور صدق نمیکنند زیرا مدلهای زبانی بزرگ (LLMها) تمایزی بین دادهها و دستورالعملها قائل نیستند. دیوید سی توضیح داد: «زمانی که یک پرامپت را به LLM ارائه میدهید، متن را آنگونه که انسان درک میکند، درک نمیکند. این مدل صرفاً در حال پیشبینی محتملترین توکن بعدی از روی متن تا کنون است.»
از آنجا که هیچ تمایزی ذاتی بین «داده» و «دستورالعمل» وجود ندارد، بسیار محتمل است که حملات تزریق دستور به طور کامل قابل رفع نباشند. این موضوع دلیل شکست تلاشهای متعددی مانند شناسایی تلاشهای تزریق دستور، آموزش مدلها برای اولویتبندی «دستورالعملها» بر روی «دادهها»، و توضیح دادن ماهیت «داده» به مدل است.
به جای تلاش برای یافتن راهحل کامل، رویکرد بهتر این است که تزریق دستور را نه بهعنوان یک نشت کد (Code Injection) بلکه بهعنوان سوءاستفاده از یک «نماینده قابلاشتباهِ بهظاهر معتبر» در نظر بگیریم. دیوید سی خاطرنشان کرد LLMها به دلیل عدم امکان رفع کامل خطر، ذاتاً قابل اشتباه هستند.
NCSC پیشنهاد میکند برای کاهش خطرات تزریق دستور، مراحلی را دنبال کنید که با الزامات Baseline Cyber Security (TS 104 223) سازمان ملل متحد برای مدلها و سیستمهای هوش مصنوعی همسو باشند. عدم رسیدگی به این چالش در مراحل اولیه میتواند منجر به وضعیتی مشابه حملات SQL Injection شود که اخیراً کمیابتر شدهاند.
استیو ویلسون، مدیر ارشد هوش مصنوعی شرکت Exabeam نیز با این نظر موافق است و معتقد است رویکردهای فعلی برای مقابله با تزریق دستور شکست میخورند. «مدیران ارشد امنیت اطلاعات (CISOs) باید دیدگاه خود را تغییر دهند. محافظت از عاملهای هوش مصنوعی کمتر شبیه به ایمنسازی نرمافزارهای سنتی و بیشتر شبیه به حفاظت از انسانهای درون سازمان است.» او افزود: «عاملها، مانند افراد، آشفته، سازگار و مستعد دستکاری، اجبار یا سردرگمی هستند.»
📌 توجه: این مطلب از منابع بینالمللی ترجمه و بازنویسی شده است.