انویدیا مراکز داده را با سرور های جدید و نرم افزار هوش مصنوعی هدف قرار می دهد
نمایشگاه SIGGRAPH 2025
قدرتی ۴۵ برابر سریع تر: ورود سرور های RTX Pro 6000 به میدان رقابت مراکز داده
کارت های گرافیک Nvidia RTX PRO 6000 Blackwell Server Edition برای استفاده ی درون سازمانی (on-premises) طراحی شده اند و قرار است شتاب GPU را به برنامه های مبتنی بر CPU بیاورند.
انویدیا کارت گرافیک RTX Pro 6000 Blackwell Server Edition GPU را معرفی کرد؛ این مدل طراحی باریک تری نسبت به نمونه های قبلی دارد و برای مراکز داده ی متوسط در محل (on-premises) در نظر گرفته شده است. این طراحی جدید در کنفرانس SIGGRAPH که این هفته در ونکوور کانادا برگزار شد، رونمایی شد.
آنچه در این معرفی قابل توجه است این است که سرور های RTX Pro 6000 در قالب طراحی رک مونت ۲U عرضه می شوند؛ این نخستین بار است که کارت های گرافیک RTX در این فرم فکتور ارائه می شوند. پیش تر، این کارت ها فقط در طراحی های ۴U تا ۸U موجود بودند.
شرکای انویدیا از جمله Cisco، Dell، HPE، Lenovo و Supermicro قرار است سرور های مبتنی بر x86 را در پیکربندی های مختلف عرضه کنند که شامل دو کارت گرافیک RTX Pro 6000 Blackwell می شود. برای نمونه، شرکت Dell مدل PowerEdge R7725 2U را معرفی کرد که دو کارت RTX Pro 6000 دارد و بر اساس پلتفرم داده ی هوش مصنوعی انویدیا ساخته شده است.
این سرورهای ۲U جدید، همراه با سایر مدل های خانواده ی سرورهای RTX Pro، برای ارائه ی تمام قابلیت های لازم در شتاب دهی هوش مصنوعی با سخت افزار انویدیا طراحی شده اند. این سرورها همچنین به صورت کامل با DPUهای BlueField-3 و SuperNICهای ConnectX-8 یکپارچه شده اند.
با این حال، سرور ها فراتر از هوش مصنوعی را پشتیبانی می کنند. آن ها برای آوردن شتاب GPU به بارهای کاری سنتی مبتنی بر CPU طراحی شده اند، مانند تحلیل داده، شبیه سازی، پردازش ویدئو و رندر گرافیکی.
انویدیا ادعا می کند سرور های جدید RTX Pro نسبت به سیستم های ۲U تک-CPU تا ۴۵ برابر عملکرد بهتر و ۱۸ برابر بهره وری انرژی بالاتر ارائه می دهند؛ که اساساً هدف اصلی شتاب GPU است. این شرکت سرورهای RTX Pro را به عنوان جایگزینی در برابر تلاش های CPU برای هوش مصنوعی در محل معرفی می کند.

اخبار بیشتر انویدیا
انویدیا همچنین دو مدل جدید از خانواده ی مدل های Nemotron خود معرفی کرد – یعنی Nemotron Nano 2 و Llama Nemotron Super 1.5 – که دارای قابلیت های استدلال پیشرفته برای ساخت عامل های هوش مصنوعی هوشمندتر هستند.
Nemotron خانواده ای از مدل های زبانی بزرگ (LLM) متن باز و آماده ی استفاده در سطح سازمانی است که برای بهبود هوش مصنوعی عامل محور (Agentic AI) طراحی شده است. این مدل ها مخصوص وظایفی هستند که به استدلال پیچیده، پیروی از دستورالعمل، کدنویسی، استفاده از ابزارها و درک چندوجهی (متن + تصویر) نیاز دارند.
به گفته ی انویدیا، این مدل ها در زمینه هایی مثل استدلال علمی، کدنویسی، استفاده از ابزار، پیروی از دستورالعمل و گفت وگو، دقت بالایی در مقایسه با اندازه ی نسبی خود ارائه می دهند. آن ها طوری طراحی شده اند که توانایی های شناختی عمیق تری به عامل های هوش مصنوعی ببخشند و به سیستم های هوش مصنوعی کمک کنند گزینه ها را بررسی کرده، تصمیم ها را بسنجند و نتایج را در چارچوب محدودیت های تعریف شده ارائه دهند.
انویدیا ادعا می کند که Nemotron Nano 2 تا ۶ برابر سرعت تولید توکن بیشتری نسبت به مدل های هم اندازه ی خود دارد. Llama Nemotron Super 1.5 عملکرد سطح بالا و دقت برتر در استدلال ارائه می دهد، که آن را برای انجام وظایف پیچیده ی سازمانی مناسب می سازد.
علاوه بر این، انویدیا در حال توانمندسازی ربات ها و ماشین ها برای «دیدن» و واکنش به مشاهداتشان است، با مدل های هوش مصنوعی جدیدی که می توانند اطلاعات تصویری را دریافت کرده و درباره ی آن فکر کنند.
این شرکت به تازگی Cosmos Reason را معرفی کرده است؛ یک مدل زبان دیداری استدلالی (VLM) متن باز و قابل سفارشی سازی با ۷ میلیارد پارامتر. VLMها به ربات ها و عامل های دیداری امکان می دهند درباره ی آنچه می بینند فکر کنند، درست مثل انسان. تا پیش از این، ربات ها توانایی «دیدن» داشتند اما واکنش آن ها بسیار محدود بود. یک VLM به رباتیک این امکان را می دهد که درباره ی اقدامات خود فکر کند.
مطالب مفید:
همکاری اینتل و انویدیا؛ تولد نسل تازه ای از پردازنده های x86