Az NVIDIA GTC (GPU Technology Conference) minden évben a technológiai világ egyik legfontosabb eseménye, ahol a mesterséges intelligencia (MI) és a gyorsított számítástechnika legújabb fejlesztéseit mutatják be. A 2025-ös GTC ismét középpontba helyezte azokat az áttöréseket, amelyek rövid időn belül nemcsak a különböző iparokat, hanem a mindennapi életünket is átalakíthatják.
Az idei konferencia egyik legfontosabb pillanata az NVIDIA vezérigazgatója, Jensen Huang előadása volt, amely során több jelentős újítást jelentett be. Ezek a fejlesztések a gyorsított számítástechnika, a mesterséges intelligencia gyakorlati alkalmazása, a vállalati AI infrastruktúra, valamint a robotika és az úgynevezett „fizikai AI” területén hoznak előrelépést.
A GTC 2025 fő üzenetei világosan mutatják, hogy a mesterséges intelligencia ma már nem csupán a technológiai óriáscégek kiváltsága. Az AI egyre inkább beépül a vállalkozások, a kutatás, sőt, a mindennapi élet folyamataiba is. Az NVIDIA szerint a hagyományos adatközpontok átalakulása, az „AI-gyárak” elterjedése, valamint a robotika fejlődése mind azt jelzik, hogy a gyorsított számítástechnika és az AI mostanra valóban elérte a „mainstream” szintet.
Ez a cikk összefoglalja az NVIDIA GTC 2025 legfontosabb bejelentéseit, és bemutatja, hogy ezek a fejlesztések milyen hatással lehetnek a hétköznapi emberek életére – akár a munkahelyeken, akár az otthonokban, vagy éppen a közlekedésben találkozunk velük. Az alábbiakban áttekintjük, mit jelent az AI és a gyorsított számítástechnika új hulláma, és miért érdemes mindenkinek odafigyelni az NVIDIA idei bejelentéseire.
1. NVIDIA Blackwell Ultra
Az NVIDIA Blackwell Ultra a vállalat legújabb gyorsított számítástechnikai platformja. A Blackwell Ultra 50-szer nagyobb AI „gyári” teljesítményt kínál, mint a korábbi Hopper platform, és kétféle rendszerkonfigurációban lesz elérhető: GB300 NVL72 és HGX B300 NVL16.
A Blackwell Ultra GPU-k számos fontos technológiai újítást vezetnek be:
- AI következtetés: Ezek a GPU-k 1,5-szer több AI számítási teljesítményt (FLOPS) biztosítanak, mint a korábbi Blackwell GPU-k, valamint kétszeres gyorsulást nyújtanak az úgynevezett „attention” műveletekben, ami a hosszabb szöveges kontextusok feldolgozását segíti.
- Több memória: A Blackwell Ultra GPU-k 1,5-szer több memóriával rendelkeznek, mint a Blackwell GPU-k, akár 288 GB HBM3e memóriával GPU-nként. Ez lehetővé teszi a nagyobb következtetési teljesítményt.
- Gyorsabb hálózat: Minden egyes GPU 800 Gb/s hálózati kapcsolattal rendelkezik az NVIDIA ConnectX-8 SuperNIC-en keresztül, amelyhez NVIDIA Quantum-X800 InfiniBand vagy Spectrum-X Ethernet is csatlakoztatható, így több gépet összekapcsoló feladatoknál is kiváló teljesítményt nyújt.
Árazás: Az árakat a partnerek a Blackwell Ultra általános elérhetőségéhez közeledve fogják nyilvánosságra hozni. Az érdeklődők az OEM partnereknél tájékozódhatnak a pontos árakról.
Elérhetőség: A Blackwell Ultra termékek 2025 második felétől lesznek elérhetők minden jelentős felhőszolgáltatónál és szervergyártónál.
2. NVIDIA GB300 NVL72
Az NVIDIA GB300 NVL72 egy teljesen folyadékhűtéses, rack-méretű rendszer, amely 72 darab NVIDIA Blackwell Ultra GPU-t és 36 darab Arm-alapú NVIDIA Grace CPU-t egyesít egyetlen platformon. Ezt a megoldást kifejezetten mesterséges intelligencia (AI) tanítására és a használat közbeni méretezett következtetések (inference) futtatására optimalizálták. A Blackwell Ultra kiemelkedő teljesítményt nyújt a legösszetettebb feladatokban is, például intelligens ügynökrendszerekben, AI-alapú következtetésben, illetve valós idejű videók generálásában, amit világszerte AI-gyárak használnak.
- NVIDIA GB300 Grace Blackwell Ultra szuperchip: Ez a komponens az NVIDIA GB300 NVL72 rack-méretű rendszerének kulcseleme. Négy NVIDIA Blackwell Ultra GPU-t, két Grace CPU-t és négy ConnectX-8 SuperNIC hálózati vezérlőt tartalmaz. Az NVIDIA NVLink Switch technológiának köszönhetően 18 ilyen szuperchip egyetlen hatalmas GPU-egységgé áll össze, amely a GB300 NVL72 nevet viseli – ezt kifejezetten az AI-következtetés korszakára tervezték.
- Megnövelt MI-gyár teljesítmény: A GB300 NVL72-ben 72 Blackwell Ultra GPU és 36 Grace CPU működik együtt. Ez akár 50-szeres növekedést jelenthet az AI-gyárak kimenetében, különösen a hatékonyabb következtetési képességeknek köszönhetően.
- Műszaki adatok: A korábbi Hopper architektúrához képest a GB300 NVL72:
- 70-szer több FP4 számítási teljesítményt nyújt sűrű inference feladatokban,
- 30-szor több GPU-memóriát biztosít,
- 65-ször gyorsabb a GPU + CPU memóriaelérésben,
- 20-szor nagyobb hálózati sávszélességet kínál.
Árak: Az árakat a Blackwell Ultra általános elérhetőségéhez közeledve partnereken keresztül teszik közzé. Az érdeklődőknek azt javasolják, hogy OEM-partnereknél érdeklődjenek a Blackwell Ultra árakról.
Elérhetőség: A GB300 NVL72 a várakozások szerint 2025 második felétől lesz elérhető a legnagyobb felhőszolgáltatóknál és szervergyártóknál.
3. NVIDIA HGX B300 NVL16
Az NVIDIA HGX B300 NVL16 egy x86-alapú Blackwell Ultra platform, amely egyetlen NVLink hálózaton belül köt össze 16 darab Blackwell Ultra GPU-t. Ez a megoldás jelentős teljesítménynövekedést kínál a korábbi Hopper architektúrához képest.
- Teljesítmény: A Llama 3.1 405B nyelvi modell esetében az új rendszer:
- 11-szer gyorsabb valós idejű következtetést (inference),
- és 4-szer hatékonyabb tanítást tesz lehetővé.
- Műszaki adatok:
- 7-szeres növekedés az FP4 számítási teljesítményben (sűrű inference),
- 4-szer több GPU-memória, mint Hopper esetében.
- Árak: Az árakat a Blackwell Ultra szélesebb körű elérhetőségéhez közeledve hozzák nyilvánosságra. Az érdeklődőknek javasolt az OEM-partnerekkel való kapcsolatfelvétel az árak kapcsán.
- Elérhetőség: A HGX B300 NVL16 2025 második felétől lesz elérhető a vezető felhőszolgáltatóknál és szervergyártóknál.
4. NVIDIA Vera Rubin és NVIDIA Vera CPU
Az NVIDIA Vera Rubin és a Vera CPU az NVIDIA következő generációs gyorsított számítástechnikai platformjai, amelyek az AI jövőjét formálják.
- NVIDIA Rubin GPU: Ez az új generációs adatközponti GPU 2 darab lapkát tartalmaz, akár 50 petaFLOPS FP4 teljesítményre képes, és 288 GB HBM4 memóriával rendelkezik.
- NVIDIA Rubin Ultra GPU: A Rubin platform következő szintje. A Rubin Ultra 4 lapkát tartalmaz – 100 petaFLOPS FP4 teljesítményt, valamint 1 TB HBM4e memóriát kínál.
- NVIDIA Vera CPU: Az új adatközponti CPU, amely 88 darab NVIDIA által tervezett, nagy teljesítményű Olympus processzormagot tartalmaz. Ez akár 1,2 terabájt/másodperc memóriasávszélességet biztosít, mindössze 50 watt memóriafogyasztás mellett. Az NVIDIA Scalable Coherency Fabric (SCF) technológia a lehető legjobb teljesítményt nyújtja. A korábbi generációhoz képest több mint kétszeres teljesítményt nyújt, így kiválóan alkalmas adatfeldolgozási, számításigényes és memóriaintenzív feladatokra – különösen, ha Rubin GPU-kkal együtt használják nagy teljesítményű számítástechnikai (HPC) vagy AI-rendszerekhez.
- NVIDIA Vera Rubin NVL144: Ez a következő generációs, NVLink technológiára épülő, folyadékhűtéses rack-méretű architektúra, amely Arm-alapú Vera CPU-kat és 144 Rubin GPU-t kapcsol össze egyetlen NVLink hálózatban. A GB300 NVL72-höz képest az NVL144:
- 2,5-szeres FP4 inference teljesítményt,
- 3,3-szoros FP8 tanítási teljesítményt,
- 1,6-szoros HBM memória sávszélességet,
- 2-szer gyorsabb memóriaelérést (GPU + CPU),
- 2-szeres NVLink összeköttetési sávszélességet, valamint
- 2-szeres hálózati sávszélességet (ConnectX-9) kínál.
- NVIDIA Vera Rubin Ultra NVL576: Ez szintén egy folyadékhűtéses, NVLink alapú rack-architektúra, amely Arm-alapú Vera CPU-kat és 576 Rubin Ultra GPU-t kapcsol össze egyetlen NVLink hálózatban. A GB300 NVL72-höz képest az NVL576:
- 10-szeres FP4 inference teljesítményt,
- 14-szeres FP8 tanítási teljesítményt,
- 8-szoros HBM memória sávszélességet,
- 9-szer gyorsabb GPU + CPU memóriaelérést,
- 12-szeres NVLink összeköttetési sávszélességet, valamint
- 8-szoros hálózati sávszélességet (ConnectX-9) nyújt.
Árak: Az árakat a megjelenéshez közeledve teszik közzé.
Elérhetőség: A Vera és Rubin komponensek 2026-ban, míg a Rubin Ultra 2027-ben lesznek elérhetők
5. NVIDIA Photonics / Integrált optikai hálózatok
Az NVIDIA Spectrum™-X és az NVIDIA Quantum-X szilícium-fotonikai hálózati switchek jelenleg a világ legfejlettebb hálózati megoldásai az ügynökalapú mesterséges intelligencia korszakára. Ezek az eszközök lehetővé teszik, hogy az AI-gyárak több millió GPU-t kapcsoljanak össze, akár több különálló telephely között is.
Az NVIDIA integrált optikai (CPO, Co-Packaged Optics) alapú hálózatai egyszerűbbé teszik a hálózatok kezelését és tervezését, miközben nagyobb számítási teljesítményt tesznek lehetővé az infrastruktúra számára. Ezek a fejlesztések kulcsfontosságúak ahhoz, hogy az AI-gyárak mérete elérje a milliós GPU-skálát.
Előnyök:
- 3,5-szer jobb energiahatékonyság
- 10-szer nagyobb hálózati megbízhatóság
- 1,3-szor gyorsabb üzembe helyezési idő a hagyományos hálózatokhoz képest
Árak: Később kerülnek bejelentésre.
Elérhetőség: Az NVIDIA Quantum-X Photonics InfiniBand Switch (Q3450-LD) még 2025 folyamán megjelenik. A Spectrum-X Photonics Ethernet switch modellek pedig 2026-ban lesznek elérhetők.
Vállalati támogatás: Az NVIDIA biztosít vállalati szintű támogatást a saját hálózati megoldásaihoz.
Kapcsolódó linkek: Silicon Photonics Press Release, Silicon Photonics Webpage, Silicon Photonics/CPO Video, Quantum-X Photonic Switch Datasheet, Quantum-X800 Platform Solution Sheet
GTC Sessions:
- Data Expressways: Unlocking the Full Potential of AI With Next-Gen Networking [S71190] – Gilad Shainer & Michael Kagan
- Wired for AI: Lessons from Networking 100K+ GPU AI Data Centers and Clouds [S71145] – Gilad Shainer hosting CoreWeave, Azure, Oracle, Meta, Google
6. NVIDIA Mission Control (Korábban Advanced Cluster Management)
A vállalatok számára most egyedülálló lehetőségek állnak rendelkezésre az AI rendszerek terén, és a fejlesztők olyan megoldást keresnek, amely lehetővé teszi számukra, hogy az AI infrastruktúra erejét kihasználják egy hiperskálázott vállalat rugalmasságával, hatékonyságával és méretével, ugyanakkor anélkül, hogy az IT-ra nehezedő költségek, összetettség és szakértelem terhét vállalniuk kellene. Az NVIDIA Mission Control ebben lehet segítségünkre — a fejlesztői munkaterhelésektől az infrastruktúráig és az üzemeltetési feladatokig — mindezt egy világklasszis üzemeltető csapat képességeivel, szoftver formájában biztosítva. Ez biztosítja az NVIDIA Blackwell és Blackwell Ultra adatközpontok működését az AI legújabb határain, lehetővé téve a gyors alkalmazkodást a következtetési és tanítási munkaterhelésekhez.
- Az NVIDIA Mission Control az egyetlen egységes üzemeltetési és orkestrációs szoftverplatform, amely automatizálja az AI-gyárak és munkaterhelések összetett kezelését.
- Példa nélküli rugalmasságot kínál, akár 5-szörös kihasználtságnövekedést érhetnek el mind a tanítási, mind a következtetési munkaterheléseknél az NVIDIA Run:ai technológia segítségével, amely a munkaterhelések kezelésére szolgál.
- Az autonóm helyreállítás azonosítja, izolálja és helyreállítja a munkahelyi és hardverhibákat 10-szer gyorsabban, így felgyorsítja az AI kísérletezést.
- Árak: 4 000 dollár GPU-nként évente (12 000 dollár GPU-ra az első 3 éves előfizetés esetén).
- Elérhetőség: Az NVIDIA Mission Control elérhető már az NVIDIA DGX GB200 és DGX B200 rendszerekhez. A NVIDIA GB200 NVL72 rendszerek Mission Control-lal várhatóan hamarosan elérhetők lesznek a Dell, HPE, Lenovo és Supermicro cégektől.
- Vállalati támogatás: A vállalati támogatás az NVIDIA Mission Control szolgáltatás része.
7.NVIDIA DGX GB300
A DGX GB300 egy folyadékhűtéses, rack-méretű AI infrastruktúra megoldás, amely lehetővé teszi, hogy akár tízezres nagyságrendben skálázható legyen az NVIDIA GB300 Grace Blackwell Ultra szuperchip használata.
- Magas számítási sűrűség, folyadékhűtéses, rack-méretű kialakítás.
- Az GB300 Grace Blackwell Ultra Superchips 36 Grace CPU-t és 72 Blackwell Ultra GPU-t tartalmaz rackenként, összekapcsolva ötödik generációs NVLink technológiával.
- Skálázható akár tízezres nagyságrendű GB300 rendszerekhez.
- Az NVIDIA Mission Control szoftver működteti, amely leegyszerűsíti az AI műveleteket, biztosítva a vállalatok számára a rugalmasságot, megbízhatóságot és a hiperskálás hatékonyságát.
Árak: A pontos árakat később hozzák nyilvánosságra.
Elérhetőség: A DGX GB300 rendszerek várhatóan még az idén elérhetők lesznek.
Vállalati szolgáltatások: A vállalati szolgáltatások elérhetők az NVIDIA DGX GB300 megoldásokhoz.
8. NVIDIA DGX B300
Az NVIDIA DGX B300 a legújabb iterációja az NVIDIA léghűtéses DGX rendszereinek, és az áttörő NVIDIA Blackwell Ultra GPU hajtja. A DGX B300 célzottan az AI következtetési korszakra lett tervezve, képes bármilyen munkaterhelés felgyorsítására az AI fejlesztési folyamat teljes skáláján.
- Az első rendszer a világon, amely az NVIDIA Blackwell Ultra GPU-kat használja, 2,3 TB GPU memória kapacitással.
- 4-szer több tanítási teljesítmény és 11-szer több következtetési teljesítmény az NVIDIA Hopper-rel készült MI gyárakhoz képest.
- Új chassis (szekrény) dizájn, amely zökkenőmentesen integrálható az NVIDIA MGX vagy a hagyományos vállalati rack rendszerekbe.
- 8x OSFP port, amelyek 8x egyportos NVIDIA ConnectX-8 800Gbp/s InfiniBand és Ethernet csatlakozóval, valamint 2x dupla portos NVIDIA BlueField-3 DPU-val rendelkeznek.
- A DGX B300 rendszerek az alapjai az új generációs NVIDIA DGX BasePOD és NVIDIA DGX SuperPOD megoldásoknak.
Árak: A pontos árakat később hozzák nyilvánosságra.
Elérhetőség: A DGX B300 rendszerek várhatóan még az idén elérhetők lesznek.
9. NVIDIA Dynamo
A modellek egyre nagyobbak, és egyre inkább az agentic AI munkafolyamatokba integrálódnak, amelyek más modellekkel való interakciót igényelnek. Ezen modellek és munkafolyamatok telepítése a gyártási környezetekben azt jelenti, hogy több GPU-nódusra kell elosztani őket, ami gondos orkesztrációt és koordinációt igényel.
Az NVIDIA bemutatta a NVIDIA Dynamo-t, egy új, nyílt forráskódú AI következtetési szolgáltató szoftvert, amely célja a token alapú bevétel maximalizálása az MI gyárak számára, amelyek következtetési AI modelleket telepítenek. Az NVIDIA Dynamo orkesztrálja és felgyorsítja a következtetési kommunikációt több ezer GPU között. A diszaggregált szolgáltatásokat alkalmazva szétválasztja a LLM-ek (nagy nyelvi modellek) feldolgozási és generálási fázisait különböző GPU-kon, lehetővé téve, hogy minden fázist külön optimalizáljanak az adott igényeihez, és biztosítja, hogy maximálisan kihasználja a GPU erőforrásokat.
Az NVIDIA Dynamo olyan funkciókat tartalmaz, amelyek lehetővé teszik a költségek csökkentését. Dinamikusan képes GPU-kat hozzáadni, eltávolítani és újraelosztani a változó kérések és típusok alapján. Képes azonosítani a nagy klaszterekben található konkrét GPU-kat, amelyek minimalizálhatják a válasz számításokat, és oda irányítani a lekérdezéseket. Továbbá a következtetési adatokat olcsóbb memória- és tárolóeszközökre terheli, és gyorsan visszanyeri őket, amikor szükséges, így minimalizálja a következtetési költségeket.
Az NVIDIA Dynamo a következőket biztosítja:
- 30-szor nagyobb áteresztőképességet biztosít, ha a DeepSeek R1 modelleket futtatják az NVIDIA GB200NVL72-n.
- 2-szer nagyobb áteresztőképességet biztosít, ha a Llama 70B modelleket futtatják az NVIDIA Hopper-en.
Árak: Az NVIDIA Dynamo nyílt forráskódú szoftverként elérhető a GitHub-on, és része lesz az NVIDIA NIM következtetési mikroszolgáltatásainak, amelyek az NVIDIA AI Enterprise részét képezik.
Elérhetőség: Ma elérhető a GitHub-on. Az egyszerűsített gyártási telepítéshez a Dynamo az NVIDIA NIM-ben lesz támogatva, amely az NVIDIA AI Enterprise része (tervezett GA: 2025 május).
Vállalati támogatás: A NVIDIA Enterprise Support elérhető az NVIDIA AI Enterprise szoftverhez a gyártási AI telepítésekhez. A Dynamo-n keresztüli modellek telepítéséhez a támogatás szintén elérhető lesz az NVIDIA NIM-ben.
Partnerek: A Cohere, a Together AI és a Perplexity AI idézetekkel támogatták az NVIDIA Dynamo-t, és kifejezték érdeklődésüket annak képességeinek kihasználása iránt. Az NVIDIA Dynamo lehetővé teszi a felhasználók számára, hogy felgyorsítsák az AI következtetés elterjedését, többek között olyan partnereknél, mint az AWS, a Cohere, a CoreWeave, a Dell, a Fireworks, a Google Cloud, a Lambda, a Meta, a Microsoft Azure, a Nebius, a NetApp, az OCI, a Perplexity, a Together AI és a VAST, valamint mások.
Kapcsolódó linkek: Customer Deck, Press Release, Enterprise Webpage, Developer Webpage, Tech Blog
GTC Sessions:
10. Earth-2 - NVIDIA Omniverse Blueprint for Earth-2 Weather Analytics
A GTC2025 rendezvényen bemutatták az első Earth-2 blueprint-et, amely egy referencia architektúra a klímatechnológiai ISV-k számára. Az Earth-2 blueprint kihasználásával a klímatechnológiai cégek olyan megoldásokat hozhatnak létre, amelyek magasabb felbontású, energiahatékonyabb és pontosabb időjárás-előrejelzéseket és katasztrófa előrejelzéseket biztosítanak. A blueprint felgyorsítja az ISV-k és LHA-k munkáját a megoldások fejlesztésében, miközben az ökoszisztéma partnereit is kihasználják, akik adatplatformokat biztosítanak a termékek végső fogyasztókhoz való eljuttatásához. A vezető partnerek közé tartozik a G42, a JBA Risk Management, a Spire, az Esri, az Orora Tech, a Tomorrow.io és még sokan mások.
Elérhetőség: A blueprint általánosan elérhetővé vált GTC2025 rendezvényen – hozzáférhető az API katalógusból.
Kapcsolódó linkek: Press Release, Earth-2 Webpage, API Catalog
11. CUDA-X Könyvtárak
A GTC2025 rendezvényen új könyvtárakat és meglévő könyvtárak frissítéseit jelentették be. A CUDA-X könyvtárak minden iparágat és tudományos kutatást felgyorsítanak. Az NVIDIA több mint 900 CUDA-X könyvtárat és AI modellt kínál, amelyeket a fejlesztők alkalmazásaik gyorsítására használhatnak. A GTC rendezvényen blogbejegyzést tettek közzé, amely bemutatta, hogyan gyorsítják a CUDA-X könyvtárak a különféle alkalmazásokat.
- cuDSS: Matematikai könyvtár, amely a ritkás közvetlen megoldók gyorsítására szolgál mátrix szorzatokban.
- Elfogadók: Ansys, Gurobi, Siemens, Synopsis
- Nyilvános béta
- cuEquivariance: Új könyvtár, amely az ekvivariáns neurális hálózatokat gyorsítja, közvetlenül integrálva a MACE alapmodellt, akár 5-szörös sebességnövekedést eredményezve!
- Nyilvános béta
- cuOpt: Akár 70-szer gyorsabb döntési optimalizálást biztosít, lehetővé téve a megoldások másodpercek alatt történő megtalálását.
- Elfogadók: Gurobi, IBM, FICO, HIGHS, SimpleRose, Lyric, COI-OR, COPT, AMPL, ZIB
- Nyílt forráskódú verzióban lesz elérhető
- cuPyNumeric: Felgyorsított Python könyvtár, amely a SciPy klaszter skálájú gyorsítást biztosít tudósok és kutatók számára.
- Elfogadók: SLAC, NPCI (csalásfelismerés), UMASS Boston, Australia National University, LANL
- PhysicsNemo (korábban Modulus néven ismert): Új NIM + újratanulási pipeline külső aerodinamikai modellezéshez; segít a nagy hűségű áramlások szimulálásában.
12. NVIDIA Accelerated Quantum Research Center (NVAQC)
Az NVAQC egy NVIDIA kutatóközpont, ahol az AI szuperszámítástechnikát használják a kvantumszámítástechnika legnagyobb kihívásainak megoldására, beleértve a qubit zaj kezelését és az kísérleti kvantumprocesszorok gyakorlati eszközzé alakítását. A központ szimulációkat futtat és integrálja a vezető kvantum hardvereket partnereitől.
- Működés kezdete: Az NVAQC működése később idén kezdődik Bostonban, és egy GB200 NVL72 rendszert tartalmaz Quantum Infiniband 2 Networking-gel, amely 576 Blackwell GPU-t tartalmaz.
- Az NVAQC egy kutatóközpont, ahol áttöréseket várnak, amelyek felgyorsítják a kvantum szuperszámítógépek fejlesztését – olyan eszközöket, amelyek a klasszikus és kvantum hardvereket kombinálva oldanak meg jelentős problémákat. Bár az NVAQC nem kvantumszámítógép, és nem is válik azzá.
- Az NVAQC alapító kvantum hardver partnerei között szerepel a QuEra, Quantinuum, Quantum Machines, valamint az MIT Engineering Quantum Systems csoport (EQuS) és a Harvard Quantum Initiative (HQI) akadémiai kutatói.
- A központ lehetővé teszi a GPU-gyorsított szimulációkat kvantum algoritmusok és hardverek számára, valamint kutatásokat végeznek annak megértésében, hogyan lehet az AI szuperszámítástechnikát integrálni kvantum processzorokkal (QPUs).
- Az NVAQC az NVIDIA DGX Quantum referencia architektúráját fogja alkalmazni a kvantum és klasszikus hardverek integrálásához, valamint az NVIDIA CUDA-Q platformot a hibrid kvantum-klasszikus alkalmazások fejlesztéséhez és futtatásához.
Árazás: Nem ismert
Elérhetőség: A központ elsősorban az NVIDIA kutatásához fog használni, de kiválasztott partnerek is részt vesznek majd specifikus projekteken.
Kapcsolódó linkek: Press Release, Corporate Blog, FAQs.
GTC Sessions: Full targeted agenda for Quantum Computing at GTC. Quantum Day runs on March 20th, including a Fireside chat between JHH and 14 quantum industry leaders.
13. NVIDIA DGX Spark
A korábban Project DIGITS néven ismert DGX Spark egy új számítógép osztály része, amelyet kifejezetten az AI korszak számára terveztek. Teljes mértékben az AI fejlesztésére építették, így ideális platform az AI fejlesztők számára, akik gyakran dolgoznak nyilvános vagy privát felhőkben, mivel nincs elegendő memória vagy nem férnek hozzá a szükséges szoftverekhez.
- Hivatalos termék neve: DGX Spark
- A vásárlók a NVIDIA storeban foglalhatják le a rendszereket
- Az OEM partnerek saját márkás DGX Spark verzióikat fogják bejelenteni.
Elérhetőség: HRP-ben már elérhető/rendelhető! Az OEM változatok megjelenése nagyságrendileg szeptemberre várható.
14. NVIDIA DGX Station
A DGX Station egy új számítógép osztály része, amelyet kifejezetten az AI korszak számára terveztek. Teljes mértékben az AI fejlesztésére építették, és ideális platform az AI fejlesztők számára, akik gyakran dolgoznak nyilvános vagy privát felhőkben, mivel nincs elegendő memória vagy nem férnek hozzá a szükséges szoftverekhez.
- A rendszer az NVIDIA GB3000 Grace Blackwell Ultra Desktop szuperchip segítségével működik.
- A DGX Station 784 GB koherens memóriát biztosít, így lehetővé teszi nagyon nagy AI modellek és munkafolyamatok kezelését helyben.
- A rendszerek tartalmazni fogják az NVIDIA ConnectX-8 SuperNIC hálózati interfészkártyát a más DGX Station rendszerekkel vagy egyéb nagy sebességű hálózati infrastruktúrával való gyors hálózati kapcsolódás érdekében.
- Nem lesz NVIDIA márkájú DGX Station; az OEM partnerek saját márkás verzióikat fogják bejelenteni a GTC sajtóanyagaik részeként.
Árazás: A rendszer árát az OEM partnerek határozzák meg.
Elérhetőség: A DGX Station rendszerek az OEM partnereken keresztül lesznek elérhetők, köztük az ASUS, Dell, HPI és Lambda Labs partnerekkel. Az OEM partnerek saját elérhetőségi időpontjaikat a GTC sajtóanyagaikban fogják közzétenni.
Kapcsolódó linkek: Webpage, Press Release
15. NVIDIA RTX PRO
Az NVIDIA RTX PRO™ Blackwell sorozat egy forradalmi generációja a munkaállomás és szerver GPU-knak, amely átformálja az AI és vizuális számítástechnika világát a szakemberek és vállalatok számára különböző iparágakban.
15.1 Data Center - RTX PRO 6000 Blackwell Server Edition
Az első NVIDIA Blackwell alapú adatközponti GPU, amelyet mind vizuális számítástechnikára, mind vállalati AI-ra terveztek — az NVIDIA RTX PRO 6000 Blackwell Server Edition áttörő gyorsítást kínál a vállalati munkaterhelések széles spektrumában, a multimodális és LLM következtetések, a fizikai AI, tudományos számítástechnika, 3D grafika és videó alkalmazások területén.
Az RTX PRO 6000 Blackwell Server Edition a következő generációs univerzális adatközponti GPU, jelentős teljesítményjavulással a korábbi L40S generációhoz képest — akár 5-ször gyorsabb LLM következtetés, közel 7-szer gyorsabb genom szekvenálás, 3,3-szoros gyorsulás a szövegből videóra generálásnál, közel 2-szer gyorsabb következtetés ajánlórendszerekhez, és kétszeres sebesség növekedés renderelésnél.
Főbb jellemzők:
- Áttörő multimodális AI következtetés:
- 5. generációs Tensor, 2. generációs Transformer Engine, FP4
- Teljes média pipeline: 4 NVENC / NVDEC / NVJPEG
- Erőteljes grafika és vizuális számítástechnika:
- 4. generációs RTX, Neural Shaders, DLSS 4
- Adatközponti felhasználásra kész:
- 96 GB GDDR7, 1,6 TB/s memória sávszélesség, 128 MB L2 gyorsítótár
- Multi-Instance GPU (MIG), TEE Confidential Compute
Árazás: A rendszerek és felhőszolgáltatások árazása az RTX PRO 6000 Blackwell Server Edition körül a partnereken keresztül kerül meghatározásra.
Elérhetőség: Már elérhető/rendelhető
Kapcsolódó linkek: Webpage, Blog, RTX Press Release
NPN Webinars: Unlock Powerful Data Center Solutions with RTX GPUs & AI Virtual Workstations NALA/EMEA on Apr 15 | APAC on Apr 16
15.2 RTX PRO Blackwell Desktop GPU-k munkaállomásokba
Az NVIDIA új, Blackwell architektúrára épülő asztali GPU-kat vezet be, amelyek óriási teljesítményjavulást kínálnak a munkaállomások számára, és célja, hogy tervezők, fejlesztők, mérnökök és kreatív szakemberek számára új szintű AI és grafikai képességeket biztosítson. Az új NVIDIA RTX PRO Blackwell Desktop GPU-k közé tartozik az RTX PRO 6000 Blackwell Workstation Edition, RTX PRO 6000 Blackwell Max-Q Workstation Edition, RTX PRO 5000 Blackwell, RTX PRO 4500 Blackwell és RTX PRO 4000 Blackwell.
Az RTX PRO Blackwell asztali GPU-k áttörést jelentenek az AI-alapú munkafolyamatok, 3D tervezés, szimuláció és tartalomkészítés területén. A kulcsfontosságú jellemzők a következők:
- 4. generációs RT magok: Kétszeres ray tracing teljesítmény a fotorealisztikus jelenetekhez és bonyolult 3D modellekhez.
- 5. generációs Tensor magok: 4000 AI TOPS és FP4 pontosság a generatív AI, a fizikai alapú szimulációk és a valós idejű neurális renderelés gyorsításához.
- 9. generációs NVENC és 6. generációs NVDEC: Akár 17-szer gyorsabb videó kódolás hardveres gyorsítással 4:2:2 támogatással, 2x H.264 dekódoló átvitel, és további motorok, amelyek lehetővé teszik akár 3x több videó stream párhuzamos futtatását a korábbi generációhoz képest.
- GDDR7 memória: Akár 96 GB, lehetővé téve a hatalmas adathalmazok zökkenőmentes kezelését AI tréningekhez, CAD munkákhoz és immerzív XR környezetekhez.
- PCIe Gen5 és DisplayPort 2.1: Megkétszerezett sávszélesség az adatigényes feladatokhoz és támogatás 8K kijelzők számára, ideális többmonitoros kreatív beállításokhoz.
- MIG technológia (6000- és 5000-osztályon): Biztonságos GPU felosztás (akár négy példányra) multitasking AI, renderelés és szimulációs munkaterhelések egyidejű futtatásához.
Elérhetőség: Már elérhető/rendelhető
Kapcsolódó linkek: Webpages: RTX PRO 6000, RTX PRO 6000 Max-Q, RTX PRO 5000, RTX PRO 4500, RTX PRO 4000, Press Release
15.3 NVIDIA RTX PRO Blackwell Generációs Laptop GPU-k
Az NVIDIA egy új, a Blackwell architektúrára épülő laptop GPU családot mutat be, amely lehetővé teszi a professzionális kreatív, tervezési, mérnöki és AI munkafolyamatok gyorsítását bárhonnan. Az új NVIDIA RTX PRO™ Blackwell Generációs Laptop GPU-k közé tartozik az RTX PRO 500, 1000, 2000, 3000, 4000, és 5000 Blackwell Generációs modellek.
- Az RTX PRO Blackwell Generációs Laptop GPU-k akár kétszer gyorsabb teljesítményt is nyújtanak az Ada architektúrával összehasonlítva, az RTX 5000-osztályú teljesítménymutatók alapján.
- Következő generációs grafikus feldolgozó egységek 4. generációs RT magokkal a sugárkövetés gyorsítására, melyek a hatalmas geometriák kezelésére optimalizáltak, valamint új streaming multiprocesszorokkal, amelyek mesterséges intelligenciát hoznak a grafikai feldolgozásba neurális árnyékolók segítségével.
- 5. generációs Tensor magok az AI gyorsításához, beleértve az FP4 és DLSS 4 támogatást.
- Új NVENC/NVDEC videó kódoló és dekódoló motorok, amelyek 4:2:2 támogatást kínálnak.
- Gyorsabb, nagyobb GDDR7 memória – akár 24GB.
- Blackwell Max-Q technológia a teljesítmény és az energiahatékonyság optimalizálására.
Elérhetőség: A termékek az év végén válhatnak elérhetővé, az elérhetőség pedig az OEM-től (Dell, HP, Lenovo, Razer) függően változik.
Kapcsolódó linkek: Webpage, Press Release, Line Card
16. NVIDIA vGPU 18
A vGPU 18 újabb támogatott ökoszisztémákat, új AI eszközkészleteket és fejlesztéseket kínál a GPU-k kihasználtságának növelésére.
- Új támogatott hypervízorok: Microsoft Windows Server 2025, Proxmox Virtual Environment (VE)
- Windows Subsystem for Linux (WSL) és élő migráció támogatása a Windows Server 2025-höz
- Heterogén vGPU támogatás: Turing és Volta GPU-khoz is bővítve
- Omnissa Horizon verzió 2412 támogatás
További bejelentések:
- Új AI vWS Toolkit: Finomhangolás és LLM-ek testreszabása, lehetővé téve a személyre szabott AI modellek létrehozását és futtatását virtuális munkaterheléseken.
- Citrix és NVIDIA közös bejelentése: AI Virtual Workstation, amely Citrix DaaS és CVAD platformokon fut, lehetővé téve a nagy teljesítményű AI alkalmazások futtatását virtuálisan.
Elérhetőség: Már elérhető.
Vállalati szolgáltatások: Enterprise Support elérhető a vGPU megoldásokhoz.
Kapcsolódó linkek: vGPU Announcement Blog (live on March 19), vGPU 18 Release Notes, Installing vGPU on Proxmox VE video, AI vWS Toolkit: Fine-Tuning and Customizing LLMs and Video, vGPU Product Page, vGPU Resources Page, vGPU Product Guides, vGPU Linecard, vWS Solution Brief
Partner Resources: NPN Webinars: Unlock Powerful Data Center Solutions with RTX GPUs & AI Virtual Workstations NALA/EMEA on Apr 15 | APAC on Apr 16
GTC Sessions:
Összegzés
A GTC 2025 esemény számos új fejlesztést és innovációt hozott, amelyek a mesterséges intelligencia és a nagyteljesítményű számítástechnikai megoldások terén új lehetőségeket nyitnak. A bejelentett fejlesztések segítik a vállalatokat abban, hogy növeljék a teljesítményt, javítsák az erőforrások kihasználtságát, és még hatékonyabban alkalmazzák az AI-t a különböző munkafolyamatokban.
A jövőbeni trendek és technológiai újítások révén még több iparági szereplő férhet hozzá a legújabb eszközökhöz, amelyek elősegítik az innovációt és a versenyképességet a gyorsan változó digitális világban. Az NVIDIA folytatja a technológiai határok feszegetését, biztosítva, hogy a vállalatok és kutatók számára a legmodernebb megoldások álljanak rendelkezésre.