هوش مصنوعی سرکش: ابزاری خطرناک‌تر از تصور!

OpenClaw، یک دستیار هوش مصنوعی منبع باز که سابقاً با نام‌های Clawdbot و Moltbot شناخته می‌شد، در عرض تنها یک هفته بیش از ۱۸۰ هزار ستاره در GitHub به دست آورده و شاهد بازدید بیش از ۲ میلیون کاربر بوده است. این استقبال گسترده اما همزمان خطر بزرگی را نیز نمایان ساخته: افشای اطلاعات حساس.

محققان امنیتی، در بررسی‌های اینترنتی خود، بیش از ۱۸۰۰ نمونه‌ی آسیب‌پذیر پیدا کرده‌اند که کلیدهای API، تاریخچه‌های چت و نام کاربری و رمز عبور را لو داده‌اند. پروژه به دلیل مشکلات حقوقی تجاری Twice تغییر نام یافته است. این نشان‌دهنده‌ی رشد سریع و کنترل نشده‌ی جنبش هوش مصنوعی سازمانی (Agentic AI) است – یک سطح تهدید جدید که بیشتر ابزارهای امنیتی قادر به شناسایی آن نیستند.

تیم‌های هوش مصنوعی: گام‌هایی برای مقابله” class=”keyword-link” target=”_blank” rel=”noopener noreferrer” style=”text-decoration: none; color: #0056b3; border-bottom: 1px dotted #0056b3;”>امنیت سایبری شرکتی، OpenClaw را مستقیماً مستقر نکرده‌اند و نه فایروال‌ها، EDRها (Endpoint Detection and Response) یا SIEMها (Security Information and Event Management). وقتی که عامل‌ها بر روی دستگاه‌های BYOD (Bring Your Own Device) اجرا می‌شوند، سیستم‌های امنیتی کور می‌شوند. این شکافِ مهمی است که باید به آن توجه کرد.

اکثر تیم‌های امنیتی شرکتی، هوش مصنوعی سازمانی را صرفاً یک ابزار توسعه در نظر می‌گیرند که نیازمند کنترل دسترسی استاندارد است. OpenClaw ثابت می‌کند این فرضیه از نظر معماری اشتباه است. عامل‌ها با مجوزهای تعیین‌شده کار می‌کنند، اطلاعات محیطی را جمع‌آوری می‌کنند و اقدامات را به‌طور مستقل اجرا می‌کنند. دیوار آتش (Perimeter) هیچ‌کدام از این فعالیت‌ها را مشاهده نمی‌کند. یک مدل تهدید نادرست منجر به کنترل‌های نامناسب و در نتیجه نقاط کور می‌شود.

کارتر ریس، معاون هوش مصنوعی در Reputation، به VentureBeat می‌گوید: «حملات زمان اجرای (Runtime Attacks) هوش مصنوعی از نظر معنایی هستند تا نحوی. عبارتی بی‌ضرر مانند ‘دستورالعمل‌های قبلی را نادیده بگیر’ می‌تواند بارِ یک Overflow Buffer ویرانگر را حمل کند، در حالی که هیچ شباهتی به امضای نرم‌افزارهای مخرب شناخته شده ندارد.»

سیمون ویلیسون، توسعه‌دهنده نرم‌افزار و محقق هوش مصنوعی که اصطلاح «Prompt Injection» (تزریق دستور) را ابداع کرد، از آنچه او ‘ثالثه‌ی مرگبار’ برای عامل‌های هوش مصنوعی می‌نامد، صحبت می‌کند: دسترسی به داده‌های خصوصی، مواجهه با محتوای نامعتبر و توانایی برقراری ارتباط خارجی. وقتی این سه قابلیت با هم ترکیب می‌شوند، مهاجمان می‌توانند عامل را فریب دهند تا اطلاعات خصوصی را دستکاری کرده و آن‌ها را ارسال کنند – همه اینها بدون هشدار.

دانشمندان IBM Research، کوتر ال مغراویی (Kaoutar El Maghraoui) و مارینا دانیلوفسکی (Marina Danilevsky)، هفته‌ی گذشته OpenClaw را تجزیه و تحلیل کردند و نتیجه گرفتند که این ابزار فرضیه‌ی ادغام عمودی اجباری عامل‌های هوش مصنوعی خودگردان را به چالش می‌کشد. آن‌ها دریافتند «این لایه باز و منبع‌باز می‌تواند به‌طور چشمگیری قدرتمند باشد اگر دسترسی کامل سیستم را داشته باشد» و ایجاد عامل‌هایی با استقلال واقعی

📌 توجه: این مطلب از منابع بین‌المللی ترجمه و بازنویسی شده است.