گوگل هشدار داده است که مدلهای هوش مصنوعی جدیدی که در مرورگر Chrome به کار گرفته میشوند، میتوانند خطرات امنیتی جدی ایجاد کنند. این شرکت قصد دارد با استفاده از یک مدل هوش مصنوعی دیگر، این مشکلات را برطرف کند.
در سپتامبر گذشته، گوگل قابلیتهای گفتگو محور مبتنی بر Gemini را به مرورگر Chrome اضافه کرد و وعده داد که در آینده شاهد امکانات پیشرفتهتری مانند قابلیت تعامل با ابزارهای مختلف خواهیم بود. اما این پیشرفتها نگرانیهایی را در مورد امنیت ایجاد کردهاند.
چالش اصلی، خطر «تزریق غیرمستقیم دستورالعمل» (Indirect Prompt Injection) است. این پدیده زمانی رخ میدهد که مدلهای هوش مصنوعی به وبسایتها دسترسی پیدا میکنند و محتوای مخرب را دریافت کرده و ناخواسته دستورالعملهای امنیتی را نادیده میگیرند. به عنوان مثال، یک صفحه وب حاوی کد مخربی میتواند باعث شود مدل هوش مصنوعی اقداماتی مانند خالی کردن حساب بانکی کاربر انجام دهد.
ناتان پارکر، مهندس امنیت Chrome در گوگل، در پست وبلاگ خود به این موضوع اشاره کرده و آن را «تهدید اصلی جدید برای تمام مرورگرهای مبتنی بر هوش مصنوعی» توصیف کرده است. او هشدار میدهد که تزریق غیرمستقیم دستورالعمل میتواند از طریق منابع مختلفی مانند وبسایتهای مخرب، محتوای تعبیهشده در iframeها و حتی نظرات کاربران رخ دهد.
به دلیل همین خطرات، شرکت مشاوره فناوری Gartner توصیه کرده است که شرکتها استفاده از تمام مرورگرهای مبتنی بر هوش مصنوعی را مسدود کنند. با این حال، گوگل که سرمایهگذاریهای هنگفتی در حوزه هوش مصنوعی انجام داده است، ترجیح میدهد کاربران به جای اجتناب از این فناوری، آن را بپذیرند.
برای رفع این مشکل، گوگل قصد دارد یک مدل Gemini دیگر را به مرورگر Chrome اضافه کند تا بر عملکرد مدل اصلی نظارت داشته باشد. این سیستم نظارتی با نام «منتقد همراستایی کاربر» (User Alignment Critic) عمل میکند و قبل از هر اقدامی، بررسی میکند که آیا آن اقدام با هدف کاربر مطابقت دارد یا خیر. در صورت عدم تطابق، این منتقد اقدام را رد خواهد کرد.
گوگل ادعا میکند که «منتقد همراستایی کاربر» به گونهای طراحی شده است که مهاجمان نمیتوانند از طریق قرار دادن محتوای مخرب، آن را دستکاری کنند. این رویکرد استفاده از یک مدل یادگیری ماشینی برای نظارت بر عملکرد مدل دیگر، روشی رایج در میان شرکتهای هوش مصنوعی محسوب میشود و توسط پژوهشگران DeepMind گوگل نیز مورد مطالعه قرار گرفته است. این تکنیک با نام اختصاری «CaMeL» (CApabilities for MachinE Learning) شناخته میشود.
علاوه بر این، گوگل قصد دارد قابلیتهای جداسازی مبدأ (origin-isolation) مرورگر Chrome را نیز برای تعاملات مبتنی بر هوش مصنوعی گسترش دهد. این ویژگی به محافظت از دادهها در برابر دسترسی غیرمجاز کمک میکند و اطمینان حاصل میکند که وبسایتها نمیتوانند به اطلاعاتی که متعلق به سایر وبسایتها است، دسترسی پیدا کنند.
به منظور تشویق محققان امنیتی برای شناسایی آسیبپذیریهای احتمالی در سیستمهای هوش مصنوعی Chrome، گوگل برنامه پاداش اشکال (Vulnerability Rewards Program) خود را بهروزرسانی کرده و جوایزی تا سقف ۲۰,۰۰۰ دلار برای گزارشدهندگان اشکالات جدی ارائه میدهد.
به طور خلاصه، با وجود خطرات بالقوه ناشی از هوش مصنوعی در مرورگرهای وب، گوگل در حال پیادهسازی مکانیسمهای امنیتی پیشرفتهای است تا اطمینان حاصل شود که این فناوری به نفع کاربران و نه آسیب رساندن به آنها استفاده میشود. این اقدامات نشاندهنده تعهد گوگل به توسعه مسئولانه و ایمن هوش مصنوعی است.
📌 توجه: این مطلب از منابع بینالمللی ترجمه و بازنویسی شده است.