OpenAI تقویت مدل‌های دفاعی برای مقابله با تهدیدات سایبری

OpenAI تقویت مدل‌های دفاعی برای مقابله با تهدیدات سایبری

گزارش‌هایی حاکی از آن است که افزایش چشمگیر عملکرد مدل‌ها، برنامه‌ریزی داخلی OpenAI را به طور قابل توجهی دگرگون کرده است. این شرکت در روز چهارشنبه این موضوع را اعلام کرد.

بر اساس یک گزارش جدید، ارزیابی‌های قابلیت با استفاده از چالش‌های «گرفتن پرچم» (Capture the Flag – CTF) نشان داده که عملکرد از ۲۷% در GPT-5 در آگوست ۲۰۲۵ تا ۷۶% در GPT-5.1-Codex-Max در نوامبر ۲۰۲۵ بهبود یافته است. این پیشرفت قابل توجه، تأثیر بسزایی بر چشم‌اندازهای آینده OpenAI داشته است.

OpenAI هشدار داده که برخی از سیستم‌های آتی ممکن است به سطوح «بالا» (High) در چارچوب آمادگی آن برسند؛ این بدان معناست که آن‌ها می‌توانند در کارهای مختلفی، از جمله عملیات نفوذ پیچیده و توسعه آسیب‌پذیری‌های روز صفر (zero-day exploits)، کمک‌رسانی کنند. این هشدار اهمیت ویژه‌ای دارد و نیازمندی به تمرکز بر مبانی امنیتی را برجسته می‌کند.

جان آبت، بنیانگذار و مدیرعامل ThreatAware معتقد است که این هشدار تأکید فراوانی بر ضرورت تقویت بنیان‌های اساسی امنیت دارد. او اظهار داشت: «هشدار OpenAI مبنی بر اینکه مدل‌های جدید خطرات سایبری «بالایی» را به همراه دارند، دقیقاً دلیل اهمیت حیاتی ایجاد پایه‌های امنیتی قوی است. هوش مصنوعی ممکن است سرعت حملات را افزایش دهد، اما بهترین دفاع ما همچنان تکیه بر اصول اولیه خواهد بود.»

شرکت OpenAI همچنین اعلام کرده که برای مقابله با این احتمال در حال توسعه لایه‌هایی از محافظت است که هدف آن هدایت قابلیت‌های پیشرفته به سمت نتایج دفاعی است. هدف اصلی OpenAI، تقویت تیم‌های امنیتی است که اغلب با کمبود منابع و نیروی انسانی مواجه هستند.

برای مدیریت خطرات دوگانه‌کاری (Dual-Use Risks) ذاتی در گردش‌کارهای سایبری، این شرکت یک استراتژی دفاعی چندلایه را بر مبنای موارد زیر طراحی کرده است:

  • کنترل دسترسی: محدود کردن و نظارت دقیق بر سطوح دسترسی کاربران.
  • تقویت زیرساخت: افزایش امنیت و پایداری سیستم‌های IT.
  • کنترل خروجی: نظارت بر داده‌هایی که از سیستم خارج می‌شوند.
  • ابزارهای پایش: بررسی مداوم فعالیت‌ها برای شناسایی هرگونه ناهنجاری.

این محافظت‌ها به گونه‌ای طراحی شده‌اند که با تکامل فضای تهدیدات، به‌روزرسانی شوند. نکته مهم اینجاست که پیشرفت در قابلیت‌های هوش مصنوعی، تهدیدهای قدیمی را خطرناک‌تر می‌کند.

آبت توضیح داد: «ترکیب تهدیدهای سنتی با مقیاس و دقت ارائه شده توسط هوش مصنوعی، یک ترکیب بسیار سمی ایجاد می‌کند. با مدل‌هایی که قادر به توسعه سوءاستفاده‌های از راه دور (remote exploits) یا کمک به نفوذهای پیچیده و پنهان هستند، موانع ورود برای مجرمان به‌طور چشمگیری کاهش یافته است.»

OpenAI اعلام کرده که در حال هماهنگی با کارشناسان جهانی برای بهبود کاربردهای واقعی هوش مصنوعی دفاعی است و یک برنامه دسترسی معتبر (Trusted Access Program) را برای کاربران واجد شرایط آماده می‌کند. جالب اینجاست که Aardvark، یک تلاش جدید دیگر، در حال حاضر در حالت آزمایش بتا قرار دارد.

این سیستم به عنوان یک محقق امنیتی مبتنی بر عامل (agentic security researcher)، پایگاه‌های کد را اسکن می‌کند، آسیب‌پذیری‌ها را شناسایی کرده و پیشنهادات اصلاحی ارائه می‌دهد و تا کنون آسیب‌پذیری‌های جدید CVE را در پروژه‌های منبع باز کشف کرده است.

علاوه بر این، OpenAI قصد دارد یک شورای خطر مرزی (Frontier Risk Council) را برای مشورت در مورد استفاده مسئولانه از قابلیت‌ها راه اندازی کند و از طریق انجمن مدل‌های پیشرو (Frontier Model Forum) همکاری بیشتری را با هدف پالایش مدل‌های تهدید مشترک و بهبود استراتژی‌های کاهش خطرات در سراسر اکوسیستم، انجام دهد.

📌 توجه: این مطلب از منابع بین‌المللی ترجمه و بازنویسی شده است.