گزارشهایی حاکی از آن است که افزایش چشمگیر عملکرد مدلها، برنامهریزی داخلی OpenAI را به طور قابل توجهی دگرگون کرده است. این شرکت در روز چهارشنبه این موضوع را اعلام کرد.
بر اساس یک گزارش جدید، ارزیابیهای قابلیت با استفاده از چالشهای «گرفتن پرچم» (Capture the Flag – CTF) نشان داده که عملکرد از ۲۷% در GPT-5 در آگوست ۲۰۲۵ تا ۷۶% در GPT-5.1-Codex-Max در نوامبر ۲۰۲۵ بهبود یافته است. این پیشرفت قابل توجه، تأثیر بسزایی بر چشماندازهای آینده OpenAI داشته است.
OpenAI هشدار داده که برخی از سیستمهای آتی ممکن است به سطوح «بالا» (High) در چارچوب آمادگی آن برسند؛ این بدان معناست که آنها میتوانند در کارهای مختلفی، از جمله عملیات نفوذ پیچیده و توسعه آسیبپذیریهای روز صفر (zero-day exploits)، کمکرسانی کنند. این هشدار اهمیت ویژهای دارد و نیازمندی به تمرکز بر مبانی امنیتی را برجسته میکند.
جان آبت، بنیانگذار و مدیرعامل ThreatAware معتقد است که این هشدار تأکید فراوانی بر ضرورت تقویت بنیانهای اساسی امنیت دارد. او اظهار داشت: «هشدار OpenAI مبنی بر اینکه مدلهای جدید خطرات سایبری «بالایی» را به همراه دارند، دقیقاً دلیل اهمیت حیاتی ایجاد پایههای امنیتی قوی است. هوش مصنوعی ممکن است سرعت حملات را افزایش دهد، اما بهترین دفاع ما همچنان تکیه بر اصول اولیه خواهد بود.»
شرکت OpenAI همچنین اعلام کرده که برای مقابله با این احتمال در حال توسعه لایههایی از محافظت است که هدف آن هدایت قابلیتهای پیشرفته به سمت نتایج دفاعی است. هدف اصلی OpenAI، تقویت تیمهای امنیتی است که اغلب با کمبود منابع و نیروی انسانی مواجه هستند.
برای مدیریت خطرات دوگانهکاری (Dual-Use Risks) ذاتی در گردشکارهای سایبری، این شرکت یک استراتژی دفاعی چندلایه را بر مبنای موارد زیر طراحی کرده است:
- کنترل دسترسی: محدود کردن و نظارت دقیق بر سطوح دسترسی کاربران.
- تقویت زیرساخت: افزایش امنیت و پایداری سیستمهای IT.
- کنترل خروجی: نظارت بر دادههایی که از سیستم خارج میشوند.
- ابزارهای پایش: بررسی مداوم فعالیتها برای شناسایی هرگونه ناهنجاری.
این محافظتها به گونهای طراحی شدهاند که با تکامل فضای تهدیدات، بهروزرسانی شوند. نکته مهم اینجاست که پیشرفت در قابلیتهای هوش مصنوعی، تهدیدهای قدیمی را خطرناکتر میکند.
آبت توضیح داد: «ترکیب تهدیدهای سنتی با مقیاس و دقت ارائه شده توسط هوش مصنوعی، یک ترکیب بسیار سمی ایجاد میکند. با مدلهایی که قادر به توسعه سوءاستفادههای از راه دور (remote exploits) یا کمک به نفوذهای پیچیده و پنهان هستند، موانع ورود برای مجرمان بهطور چشمگیری کاهش یافته است.»
OpenAI اعلام کرده که در حال هماهنگی با کارشناسان جهانی برای بهبود کاربردهای واقعی هوش مصنوعی دفاعی است و یک برنامه دسترسی معتبر (Trusted Access Program) را برای کاربران واجد شرایط آماده میکند. جالب اینجاست که Aardvark، یک تلاش جدید دیگر، در حال حاضر در حالت آزمایش بتا قرار دارد.
این سیستم به عنوان یک محقق امنیتی مبتنی بر عامل (agentic security researcher)، پایگاههای کد را اسکن میکند، آسیبپذیریها را شناسایی کرده و پیشنهادات اصلاحی ارائه میدهد و تا کنون آسیبپذیریهای جدید CVE را در پروژههای منبع باز کشف کرده است.
علاوه بر این، OpenAI قصد دارد یک شورای خطر مرزی (Frontier Risk Council) را برای مشورت در مورد استفاده مسئولانه از قابلیتها راه اندازی کند و از طریق انجمن مدلهای پیشرو (Frontier Model Forum) همکاری بیشتری را با هدف پالایش مدلهای تهدید مشترک و بهبود استراتژیهای کاهش خطرات در سراسر اکوسیستم، انجام دهد.
📌 توجه: این مطلب از منابع بینالمللی ترجمه و بازنویسی شده است.