Nvidia خلاءِ موجود در بازار مدلهای وزن باز (open-weights models) آمریکایی را با عرضه مدلهای اختصاصی خود پر میکند. این اقدام، گام مهمی برای تسریع پذیرش هوش مصنوعی سازمانی و رفع موانع پیش روی چشمانداز هوش مصنوعی عامل (agentic AI) شرکت محسوب میشود.
همزمان با افزایش تقاضا برای مدلهای هوش مصنوعی در سطح سازمانها، نگرانیهایی نیز پیرامون امنیت دادهها و حفاظت از مالکیت معنوی وجود دارد. استفاده از APIهای مدلهای بسته (closed models) مانند ChatGPT بدون دسترسی به کدهای زیربنایی و امکان بررسی کامل آنها، اغلب برای شرکتها قابل قبول نیست.
در حال حاضر، مدلهای منبعباز موجود عمدتاً محدود به آزمایشگاههای هوش مصنوعی چینی هستند و عملکردشان در مقایسه با مدلهای اختصاصی OpenAI یا Anthropic رضایتبخش نیست. این موضوع، هم برای پذیرش گسترده هوش مصنوعی سازمانی و هم برای تحقق چشمانداز Nvidia در زمینه هوش مصنوعی عامل چالشهایی را ایجاد کرده است.
به همین منظور، Nvidia اخیراً سه مدل جدید منبعباز با نامهای Nemotron 3 Nano, Super و Ultra را به مجموعه محصولات خود افزوده است. این مدلها از پیشرفتهترین فناوریهای روز در زمینه یادگیری ماشین بهره میبرند و انعطافپذیری بالایی برای سفارشیسازی ارائه میدهند.
مدلهای Nemotron در سه اندازه Nano، Super و Ultra با وزن تقریبی 30، 100 و 500 میلیارد پارامتر عرضه خواهند شد. علاوه بر فایلهای مربوط به مدلها که از طریق پلتفرمهای محبوب هوش مصنوعی مانند Hugging Face منتشر میشوند (با شروع انتشار Nemotron 3 Nano این هفته)، Nvidia قصد دارد دادههای آموزشی و محیطهای یادگیری تقویتی مورد استفاده در توسعه آنها را نیز به اشتراک بگذارد تا امکان ایجاد نسخههای کاملاً سفارشی از مدلها فراهم شود.
یکی از ویژگیهای برجسته این مدلها، معماری ترکیبی پتانسیل MoE (hybrid latent MoE) است که هدف آن کاهش افت عملکرد در هنگام پردازش دنبالههای طولانی ورودی مانند اسناد حجیم و پرسوجوهای پیچیده میباشد. این معماری با ترکیب ساختارهای Mamba-2 و Transformer، تعادلی بین سرعت و دقت برقرار میکند؛ Mamba-2 برای پردازش سریعتر دنبالههای طولانی و Transformer برای حفظ دقت استدلال (precise reasoning) در پردازش اطلاعات.
Nvidia تأکید دارد که مدلها قادر به پشتیبانی از پنجره زمینه ۱ میلیون توکن هستند؛ معادل تقریباً ۳۰۰۰ صفحه متن با فرمت استاندارد. این ویژگی امکان پردازش حجم عظیمی از داده و حفظ زمینه (context) در طول جلسات تعاملی را فراهم میکند.
علاوه بر این، مدلها از معماری Mixture-of-Experts (MoE) بهره میبرند که تنها بخشی از پارامترهای مدل برای هر توکن فعال میشوند. این امر باعث کاهش فشار بر زیرسیستم حافظه و افزایش سرعت پردازش میشود. بهعنوان مثال، Nemotron 3 Nano با وجود تنها ۳۰ میلیارد پارامتر، در هر مرحله فقط ۳ میلیارد پارامتر را فعال میکند.
مدلهای Super و Ultra از نوع NVFP4 data type پیش آموزش داده شدهاند و از معماری جدیدی به نام latent MoE استفاده میکنند که امکان افزایش ٤ برابری تعداد «expert»ها با حفظ هزینه محاسباتی یکسان را فراهم میکند. این امر منجر به تخصصیتر شدن مدل در تشخیص الگوهای معنایی ظریف، استخراج مفاهیم کلیدی و انجام استدلالهای پیچیده میشود.
Nvidia همچنین از تکنیک «پیشبینی چند توکنی» (multi-token prediction) استفاده کرده که یک رویکرد نوآورانه برای رمزگشایی (decoding) پیشبینی است و میتواند عملکرد مدل را تا ٣ برابر افزایش دهد. این ویژگی بهویژه در کاربردهای هوش مصنوعی عامل مانند دستیارهای کدنویسی بسیار مفید است، زیرا به پردازش و بازتولید مکرر حجم زیادی از اطلاعات کمک میکند.
Nemotron 3 Nano با ۳۰ میلیارد پارامتر، این هفته منتشر شده و برای اجرای کارآمد بر روی سختافزارهای سازمانی مانند L40S یا RTX Pro 6000 Server Edition طراحی شده است. با استفاده از روشهای کوانتیزه کردن مدل (quantized versions)، امکان اجرا بر روی GPUهایی با حداقل ۲۴ گیگابایت حافظه نیز وجود دارد.
طبق ارزیابیهای Artificial Analysis، عملکرد این مدل در سطح gpt-oss-20B یا Qwen3 VL 32B و 30B-A3B قرار میگیرد، اما انعطافپذیری بیشتری برای سفارشیسازی به شرکتها ارائه میدهد.
یکی از روشهای اصلی سفارشیسازی مدل، استفاده از یادگیری تقویتی (reinforcement learning) است که به کاربران امکان آموزش مدل در قالب آزمایش و خطا را میدهد. Nvidia با انتشار مجموعهدادهها و محیطهای یادگیری تقویتی (NeMo Gym)، به شرکتها کمک میکند تا مدل را برای کاربردهای خاص خود تنظیم کنند.
انتظار میرود مدلهای Super و Ultra در نیمه اول سال آینده عرضه شوند. ®
📌 توجه: این مطلب از منابع بینالمللی ترجمه و بازنویسی شده است.