در دنیای پویای هوش مصنوعی، پیشرفتها روزبهروز خبرساز میشوند. اما آیا این پیشرفتها همیشه به معنای قابلیت اطمینان بیشتر هستند؟ اخیراً مشخص شده که مدل Gemini 3 Flash از گوگل در شرایط خاص، پاسخهای نادرستی ارائه میدهد – حتی زمانی که میداند جواب را نمیداند! این موضوع زنگ هشداری است برای کاربران و توسعهدهندگان.
جالب است بدانید که این مسئله با درصد ۹۱ در آزمون «نرخ توهمات Omniscience مصنوعی» (Artificial Analysis Omniscience Hallucination Rate benchmark) آشکار شده است. اما منظور از این درصد چیست؟ به بیان ساده، وقتی هوش مصنوعی مایکروسافت: Gemini از Copilot پیشی میگیرد” class=”keyword-link” target=”_blank” rel=”noopener noreferrer” style=”text-decoration: none; color: #0056b3; border-bottom: 1px dotted #0056b3;”>Gemini 3 Flash پاسخ مشخصی ندارد – مثلاً سوالی ابهامآمیز یا خارج از حوزه دانش خود میپرسید – به جای اعتراف به نادانی، سعی میکند با جعل یک پاسخ، خودش را فریبکار نشان دهد. این نکته ظریف اما حیاتی است؛ چرا که Gemini بهطور فزایندهای در محصولات گوگل، مانند جستجوی گوگل، ادغام میشود.
در این میان نکته مهم اینجاست که این «توهم» لزوماً به معنای بیارزش بودن مدل نیست. Gemini همچنان از بهترینهای حوزه هوش مصنوعی است و در آزمایشهای عمومی عملکرد بسیار خوبی دارد، حتی بالاتر از ChatGPT و Claude.
این مشکل، که با توصیف های «خلقکننده داستان» هم مواجه میشود، زمانی رخ میدهد که مدل متوجه نمیشود واقعاً پاسخ را ندارد. در حقیقت، این مدلها اساساً ابزارهای پیشبینی کننده کلمات هستند و تشخیص صحت یک پاسخ به همان اندازه مهم است که خود آن را تولید کردن. بسیاری از کاربران انتظار دارند دستیار هوش مصنوعی آنها با سرعت و روانی عمل کند؛ گفتن «مطمئن نیستم» یا «اجازه دهید بررسی کنم»، ممکن است کمی ناخوشایند به نظر برسد، اما در نهایت بهتر از فریبخورده شدن است.
تیم OpenAI هم متوجه این مسئله شده و تلاش میکند مدلهای خود را طوری آموزش دهد تا زمانی که پاسخ نمیدانند، اعتراف کنند. البته آموزش چنین رفتاری دشوار است؛ چرا که سیستم پاداش دهی اغلب به پاسخهای قاطع تر (حتی اگر نادرست باشند) امتیاز بیشتری میدهد. با این حال، OpenAI قصد دارد در آینده مدلهای هوشمندتری را ارائه دهد.
همانطور که میدانید، گوگل Gemini Live اخیراً بزرگترین بهروزرسانی خود را دریافت کرده است. از سوی دیگر، به خاطر داشته باشید که حتی با وجود تمام پیشرفتها، بررسی صحت هر پاسخ هوش مصنوعی همچنان ضروری است.
در نهایت باید گفت که این موضوع یادآور این نکته است: هوش مصنوعی ابزاری قدرتمند است اما هنوز کامل نیست. آگاهی از محدودیتهای آن و استفاده مسئولانه از آن کلید بهرهوری بهینه خواهد بود.
📌 توجه: این مطلب از منابع بینالمللی ترجمه و بازنویسی شده است.