OpenClaw، یک دستیار هوش مصنوعی منبع باز که سابقاً با نامهای Clawdbot و Moltbot شناخته میشد، در عرض تنها یک هفته بیش از ۱۸۰ هزار ستاره در GitHub به دست آورده و شاهد بازدید بیش از ۲ میلیون کاربر بوده است. این استقبال گسترده اما همزمان خطر بزرگی را نیز نمایان ساخته: افشای اطلاعات حساس.
محققان امنیتی، در بررسیهای اینترنتی خود، بیش از ۱۸۰۰ نمونهی آسیبپذیر پیدا کردهاند که کلیدهای API، تاریخچههای چت و نام کاربری و رمز عبور را لو دادهاند. پروژه به دلیل مشکلات حقوقی تجاری Twice تغییر نام یافته است. این نشاندهندهی رشد سریع و کنترل نشدهی جنبش هوش مصنوعی سازمانی (Agentic AI) است – یک سطح تهدید جدید که بیشتر ابزارهای امنیتی قادر به شناسایی آن نیستند.
تیمهای هوش مصنوعی: گامهایی برای مقابله” class=”keyword-link” target=”_blank” rel=”noopener noreferrer” style=”text-decoration: none; color: #0056b3; border-bottom: 1px dotted #0056b3;”>امنیت سایبری شرکتی، OpenClaw را مستقیماً مستقر نکردهاند و نه فایروالها، EDRها (Endpoint Detection and Response) یا SIEMها (Security Information and Event Management). وقتی که عاملها بر روی دستگاههای BYOD (Bring Your Own Device) اجرا میشوند، سیستمهای امنیتی کور میشوند. این شکافِ مهمی است که باید به آن توجه کرد.
اکثر تیمهای امنیتی شرکتی، هوش مصنوعی سازمانی را صرفاً یک ابزار توسعه در نظر میگیرند که نیازمند کنترل دسترسی استاندارد است. OpenClaw ثابت میکند این فرضیه از نظر معماری اشتباه است. عاملها با مجوزهای تعیینشده کار میکنند، اطلاعات محیطی را جمعآوری میکنند و اقدامات را بهطور مستقل اجرا میکنند. دیوار آتش (Perimeter) هیچکدام از این فعالیتها را مشاهده نمیکند. یک مدل تهدید نادرست منجر به کنترلهای نامناسب و در نتیجه نقاط کور میشود.
کارتر ریس، معاون هوش مصنوعی در Reputation، به VentureBeat میگوید: «حملات زمان اجرای (Runtime Attacks) هوش مصنوعی از نظر معنایی هستند تا نحوی. عبارتی بیضرر مانند ‘دستورالعملهای قبلی را نادیده بگیر’ میتواند بارِ یک Overflow Buffer ویرانگر را حمل کند، در حالی که هیچ شباهتی به امضای نرمافزارهای مخرب شناخته شده ندارد.»
سیمون ویلیسون، توسعهدهنده نرمافزار و محقق هوش مصنوعی که اصطلاح «Prompt Injection» (تزریق دستور) را ابداع کرد، از آنچه او ‘ثالثهی مرگبار’ برای عاملهای هوش مصنوعی مینامد، صحبت میکند: دسترسی به دادههای خصوصی، مواجهه با محتوای نامعتبر و توانایی برقراری ارتباط خارجی. وقتی این سه قابلیت با هم ترکیب میشوند، مهاجمان میتوانند عامل را فریب دهند تا اطلاعات خصوصی را دستکاری کرده و آنها را ارسال کنند – همه اینها بدون هشدار.
دانشمندان IBM Research، کوتر ال مغراویی (Kaoutar El Maghraoui) و مارینا دانیلوفسکی (Marina Danilevsky)، هفتهی گذشته OpenClaw را تجزیه و تحلیل کردند و نتیجه گرفتند که این ابزار فرضیهی ادغام عمودی اجباری عاملهای هوش مصنوعی خودگردان را به چالش میکشد. آنها دریافتند «این لایه باز و منبعباز میتواند بهطور چشمگیری قدرتمند باشد اگر دسترسی کامل سیستم را داشته باشد» و ایجاد عاملهایی با استقلال واقعی
📌 توجه: این مطلب از منابع بینالمللی ترجمه و بازنویسی شده است.