گارتنر: مسدود کردن مرورگرهای مبتنی بر هوش مصنوعی، ضرورتی اجتناب‌ناپذیر

گارتنر: مسدود کردن مرورگرهای مبتنی بر هوش مصنوعی، ضرورتی اجتناب‌ناپذیر

تحلیلگران در گارتنر هشدار می‌دهند که استفاده از مرورگرهای مجهز به هوش مصنوعی (AI Browsers) برای اکثر سازمان‌ها خطرناک است. این توصیه در جدیدترین گزارش مشاوره‌ای با عنوان «امنیت سایبری نیازمند مسدود کردن مرورگرهای مبتنی بر هوش مصنوعی در حال حاضر» ارائه شده است. گارتنر معتقد است که تنظیمات پیش‌فرض این نوع مرورگرها، امنیت را فدای تجربه کاربری می‌کنند.

در تعریف از مرورگرهای مجهز به هوش مصنوعی، گارتنر ابزارهایی مانند Comet متعلق به Perplexity و ChatGPT Atlas اپلیکیشن OpenAI را در نظر گرفته است که هر دو دارای ویژگی‌های خاصی هستند. نکته‌ای که باید مورد توجه قرار گیرد این است که به دلیل وجود نوار کناری (Sidebar) مبتنی بر هوش مصنوعی، داده‌های حساس کاربر از جمله محتوای وب فعال، تاریخچه مرور و تب‌های باز اغلب به سرورهای ابری AI ارسال می‌شود؛ مگر اینکه تنظیمات امنیتی و حریم خصوصی به‌طور عمدی سخت‌گیرانه اعمال و مدیریت متمرکزی شوند.

گزارش گارتنر پیشنهاد می‌کند که برای کاهش این خطرات، می‌توان خدمات هوش مصنوعی پشتیبان مرورگر را ارزیابی کرد تا مشخص شود آیا اقدامات امنیتی آن‌ها قابل قبول است یا خیر. اما نگرانی اصلی تحلیلگران در مورد قابلیت‌های عملیاتی (Agentic) این نوع مرورگرهاست.

به‌طور خاص، خطر «اقدامات ناخواسته عامل ناشی از تزریق غیرمستقیم دستورالعمل»، «خطاهای ناشی از استدلال نادرست و اقدامات عامل» و همچنین «از دست دادن و سوء استفاده بیشتر از اعتبارنامه‌ها در صورت فریب خوردن مرورگر برای پیمایش خودکار به وب‌سایت‌های فیشینگ» وجود دارد. این سناریوها می‌توانند خسارات جبران‌ناپذیری را به همراه داشته باشند.

علاوه بر این، گارتنر هشدار می‌دهد که ممکن است کارمندان از مرورگرهای مجهز به هوش مصنوعی برای خودکارسازی وظایف اجباری و تکراری استفاده کنند. به عنوان مثال، برخی ممکن است دستورالعمل دهند تا یک مرورگر AI دوره آموزش امنیت سایبری اجباری آن‌ها را تکمیل کند! جالب است بدانید این مسئله می‌تواند منجر به سهل‌انگاری در انجام وظایف مهم سازمانی شود.

یک سناریوی دیگر که توسط گارتنر مطرح شده، استفاده از مرورگرهای مجهز به هوش مصنوعی برای دسترسی به ابزارهای داخلی تدارکات است. در این حالت، مدل‌های زبانی بزرگ (LLMs) ممکن است اشتباهاتی مرتکب شوند و باعث سفارش کالاها یا رزرو پروازهایی شوند که سازمان نیازی به آن‌ها ندارد. یک مثال ساده می‌تواند سفارش اشتباه لوازم التحریر اداری یا رزرو بلیط هواپیما باشد.

گارتنر در این گزارش، راهکارهایی برای کاهش این خطرات ارائه کرده است؛ از جمله اطمینان از اینکه عامل‌ها نمی‌توانند از ایمیل استفاده کنند و تنظیماتی که از ذخیره‌سازی داده توسط مرورگرهای AI جلوگیری می‌کنند. اما به طور کلی، تحلیلگران معتقدند مرورگرهای مجهز به هوش مصنوعی بیشتر از آنکه مفید باشند، خطرناک هستند و قبل از استفاده باید ارزیابی ریسک دقیقی انجام شود. حتی پس از این ارزیابی نیز احتمالاً لیست طولانی از موارد ممنوعه ایجاد خواهد شد – و وظیفه نظارت بر ناوگان مرورگرهای AI برای اجرای سیاست‌ها به یک چالش بزرگ تبدیل می‌شود.

📌 توجه: این مطلب از منابع بین‌المللی ترجمه و بازنویسی شده است.