Nvidia مدل‌های هوش مصنوعی منبع‌باز آمریکایی را با محصولات خود جبران می‌کند

Nvidia مدل‌های هوش مصنوعی منبع‌باز آمریکایی را با محصولات خود جبران می‌کند

Nvidia خلاءِ موجود در بازار مدل‌های وزن باز (open-weights models) آمریکایی را با عرضه مدل‌های اختصاصی خود پر می‌کند. این اقدام، گام مهمی برای تسریع پذیرش هوش مصنوعی سازمانی و رفع موانع پیش روی چشم‌انداز هوش مصنوعی عامل (agentic AI) شرکت محسوب می‌شود.

همزمان با افزایش تقاضا برای مدل‌های هوش مصنوعی در سطح سازمان‌ها، نگرانی‌هایی نیز پیرامون امنیت داده‌ها و حفاظت از مالکیت معنوی وجود دارد. استفاده از APIهای مدل‌های بسته (closed models) مانند ChatGPT بدون دسترسی به کدهای زیربنایی و امکان بررسی کامل آن‌ها، اغلب برای شرکت‌ها قابل قبول نیست.

در حال حاضر، مدل‌های منبع‌باز موجود عمدتاً محدود به آزمایشگاه‌های هوش مصنوعی چینی هستند و عملکردشان در مقایسه با مدل‌های اختصاصی OpenAI یا Anthropic رضایت‌بخش نیست. این موضوع، هم برای پذیرش گسترده هوش مصنوعی سازمانی و هم برای تحقق چشم‌انداز Nvidia در زمینه هوش مصنوعی عامل چالش‌هایی را ایجاد کرده است.

به همین منظور، Nvidia اخیراً سه مدل جدید منبع‌باز با نام‌های Nemotron 3 Nano, Super و Ultra را به مجموعه محصولات خود افزوده است. این مدل‌ها از پیشرفته‌ترین فناوری‌های روز در زمینه یادگیری ماشین بهره می‌برند و انعطاف‌پذیری بالایی برای سفارشی‌سازی ارائه می‌دهند.

مدل‌های Nemotron در سه اندازه Nano، Super و Ultra با وزن تقریبی 30، 100 و 500 میلیارد پارامتر عرضه خواهند شد. علاوه بر فایل‌های مربوط به مدل‌ها که از طریق پلتفرم‌های محبوب هوش مصنوعی مانند Hugging Face منتشر می‌شوند (با شروع انتشار Nemotron 3 Nano این هفته)، Nvidia قصد دارد داده‌های آموزشی و محیط‌های یادگیری تقویتی مورد استفاده در توسعه آن‌ها را نیز به اشتراک بگذارد تا امکان ایجاد نسخه‌های کاملاً سفارشی از مدل‌ها فراهم شود.

یکی از ویژگی‌های برجسته این مدل‌ها، معماری ترکیبی پتانسیل MoE (hybrid latent MoE) است که هدف آن کاهش افت عملکرد در هنگام پردازش دنباله‌های طولانی ورودی مانند اسناد حجیم و پرس‌وجوهای پیچیده می‌باشد. این معماری با ترکیب ساختارهای Mamba-2 و Transformer، تعادلی بین سرعت و دقت برقرار می‌کند؛ Mamba-2 برای پردازش سریع‌تر دنباله‌های طولانی و Transformer برای حفظ دقت استدلال (precise reasoning) در پردازش اطلاعات.

Nvidia تأکید دارد که مدل‌ها قادر به پشتیبانی از پنجره زمینه ۱ میلیون توکن هستند؛ معادل تقریباً ۳۰۰۰ صفحه متن با فرمت استاندارد. این ویژگی امکان پردازش حجم عظیمی از داده و حفظ زمینه (context) در طول جلسات تعاملی را فراهم می‌کند.

علاوه بر این، مدل‌ها از معماری Mixture-of-Experts (MoE) بهره می‌برند که تنها بخشی از پارامترهای مدل برای هر توکن فعال می‌شوند. این امر باعث کاهش فشار بر زیرسیستم حافظه و افزایش سرعت پردازش می‌شود. به‌عنوان مثال، Nemotron 3 Nano با وجود تنها ۳۰ میلیارد پارامتر، در هر مرحله فقط ۳ میلیارد پارامتر را فعال می‌کند.

مدل‌های Super و Ultra از نوع NVFP4 data type پیش‌ آموزش داده شده‌اند و از معماری جدیدی به نام latent MoE استفاده می‌کنند که امکان افزایش ٤ برابری تعداد «expert»ها با حفظ هزینه محاسباتی یکسان را فراهم می‌کند. این امر منجر به تخصصی‌تر شدن مدل در تشخیص الگوهای معنایی ظریف، استخراج مفاهیم کلیدی و انجام استدلال‌های پیچیده می‌شود.

Nvidia همچنین از تکنیک «پیش‌بینی چند توکنی» (multi-token prediction) استفاده کرده که یک رویکرد نوآورانه برای رمزگشایی (decoding) پیش‌بینی است و می‌تواند عملکرد مدل را تا ٣ برابر افزایش دهد. این ویژگی به‌ویژه در کاربردهای هوش مصنوعی عامل مانند دستیارهای کدنویسی بسیار مفید است، زیرا به پردازش و بازتولید مکرر حجم زیادی از اطلاعات کمک می‌کند.

Nemotron 3 Nano با ۳۰ میلیارد پارامتر، این هفته منتشر شده و برای اجرای کارآمد بر روی سخت‌افزارهای سازمانی مانند L40S یا RTX Pro 6000 Server Edition طراحی شده است. با استفاده از روش‌های کوانتیزه کردن مدل (quantized versions)، امکان اجرا بر روی GPUهایی با حداقل ۲۴ گیگابایت حافظه نیز وجود دارد.

طبق ارزیابی‌های Artificial Analysis، عملکرد این مدل در سطح gpt-oss-20B یا Qwen3 VL 32B و 30B-A3B قرار می‌گیرد، اما انعطاف‌پذیری بیشتری برای سفارشی‌سازی به شرکت‌ها ارائه می‌دهد.

یکی از روش‌های اصلی سفارشی‌سازی مدل، استفاده از یادگیری تقویتی (reinforcement learning) است که به کاربران امکان آموزش مدل در قالب آزمایش و خطا را می‌دهد. Nvidia با انتشار مجموعه‌داده‌ها و محیط‌های یادگیری تقویتی (NeMo Gym)، به شرکت‌ها کمک می‌کند تا مدل را برای کاربردهای خاص خود تنظیم کنند.

انتظار می‌رود مدل‌های Super و Ultra در نیمه اول سال آینده عرضه شوند. ®

📌 توجه: این مطلب از منابع بین‌المللی ترجمه و بازنویسی شده است.