هوش مصنوعی گوگل: خطرات جدید و راه حل‌های مبتنی بر هوش مصنوعی

هوش مصنوعی گوگل: خطرات جدید و راه حل‌های مبتنی بر هوش مصنوعی

گوگل هشدار داده است که مدل‌های هوش مصنوعی جدیدی که در مرورگر Chrome به کار گرفته می‌شوند، می‌توانند خطرات امنیتی جدی ایجاد کنند. این شرکت قصد دارد با استفاده از یک مدل هوش مصنوعی دیگر، این مشکلات را برطرف کند.

در سپتامبر گذشته، گوگل قابلیت‌های گفتگو محور مبتنی بر Gemini را به مرورگر Chrome اضافه کرد و وعده داد که در آینده شاهد امکانات پیشرفته‌تری مانند قابلیت تعامل با ابزارهای مختلف خواهیم بود. اما این پیشرفت‌ها نگرانی‌هایی را در مورد امنیت ایجاد کرده‌اند.

چالش اصلی، خطر «تزریق غیرمستقیم دستورالعمل» (Indirect Prompt Injection) است. این پدیده زمانی رخ می‌دهد که مدل‌های هوش مصنوعی به وب‌سایت‌ها دسترسی پیدا می‌کنند و محتوای مخرب را دریافت کرده و ناخواسته دستورالعمل‌های امنیتی را نادیده می‌گیرند. به عنوان مثال، یک صفحه وب حاوی کد مخربی می‌تواند باعث شود مدل هوش مصنوعی اقداماتی مانند خالی کردن حساب بانکی کاربر انجام دهد.

ناتان پارکر، مهندس امنیت Chrome در گوگل، در پست وبلاگ خود به این موضوع اشاره کرده و آن را «تهدید اصلی جدید برای تمام مرورگرهای مبتنی بر هوش مصنوعی» توصیف کرده است. او هشدار می‌دهد که تزریق غیرمستقیم دستورالعمل می‌تواند از طریق منابع مختلفی مانند وب‌سایت‌های مخرب، محتوای تعبیه‌شده در iframeها و حتی نظرات کاربران رخ دهد.

به دلیل همین خطرات، شرکت مشاوره فناوری Gartner توصیه کرده است که شرکت‌ها استفاده از تمام مرورگرهای مبتنی بر هوش مصنوعی را مسدود کنند. با این حال، گوگل که سرمایه‌گذاری‌های هنگفتی در حوزه هوش مصنوعی انجام داده است، ترجیح می‌دهد کاربران به جای اجتناب از این فناوری، آن را بپذیرند.

برای رفع این مشکل، گوگل قصد دارد یک مدل Gemini دیگر را به مرورگر Chrome اضافه کند تا بر عملکرد مدل اصلی نظارت داشته باشد. این سیستم نظارتی با نام «منتقد هم‌راستایی کاربر» (User Alignment Critic) عمل می‌کند و قبل از هر اقدامی، بررسی می‌کند که آیا آن اقدام با هدف کاربر مطابقت دارد یا خیر. در صورت عدم تطابق، این منتقد اقدام را رد خواهد کرد.

گوگل ادعا می‌کند که «منتقد هم‌راستایی کاربر» به گونه‌ای طراحی شده است که مهاجمان نمی‌توانند از طریق قرار دادن محتوای مخرب، آن را دستکاری کنند. این رویکرد استفاده از یک مدل یادگیری ماشینی برای نظارت بر عملکرد مدل دیگر، روشی رایج در میان شرکت‌های هوش مصنوعی محسوب می‌شود و توسط پژوهشگران DeepMind گوگل نیز مورد مطالعه قرار گرفته است. این تکنیک با نام اختصاری «CaMeL» (CApabilities for MachinE Learning) شناخته می‌شود.

علاوه بر این، گوگل قصد دارد قابلیت‌های جداسازی مبدأ (origin-isolation) مرورگر Chrome را نیز برای تعاملات مبتنی بر هوش مصنوعی گسترش دهد. این ویژگی به محافظت از داده‌ها در برابر دسترسی غیرمجاز کمک می‌کند و اطمینان حاصل می‌کند که وب‌سایت‌ها نمی‌توانند به اطلاعاتی که متعلق به سایر وب‌سایت‌ها است، دسترسی پیدا کنند.

به منظور تشویق محققان امنیتی برای شناسایی آسیب‌پذیری‌های احتمالی در سیستم‌های هوش مصنوعی Chrome، گوگل برنامه پاداش اشکال (Vulnerability Rewards Program) خود را به‌روزرسانی کرده و جوایزی تا سقف ۲۰,۰۰۰ دلار برای گزارش‌دهندگان اشکالات جدی ارائه می‌دهد.

به طور خلاصه، با وجود خطرات بالقوه ناشی از هوش مصنوعی در مرورگرهای وب، گوگل در حال پیاده‌سازی مکانیسم‌های امنیتی پیشرفته‌ای است تا اطمینان حاصل شود که این فناوری به نفع کاربران و نه آسیب رساندن به آن‌ها استفاده می‌شود. این اقدامات نشان‌دهنده تعهد گوگل به توسعه مسئولانه و ایمن هوش مصنوعی است.

📌 توجه: این مطلب از منابع بین‌المللی ترجمه و بازنویسی شده است.