ASUS a intrat la OCP Global Summit 2025 (San Jose) cu un pachet coerent pentru epoca Blackwell: o „fabrică de AI” completă, servere optimizate pentru inferență și antrenare, plus un supercomputer AI de birou care aduce petaFLOP-ul la scară personală. Sub umbrela ASUS AI Factory, compania propune o cale clară pentru enterprise și CSP: de la edge și rack-scale, până la clustere NVL72, cu livrări deja începute în septembrie.
- ASUS AI Factory: fundația end-to-end pentru adopția enterprise a AI
- XA NB3I-E12: serverele ASUS cu NVIDIA HGX B300 pentru sarcini AI intensive
- ASUS AI POD pe NVIDIA GB300 NVL72: blocuri de construcție pentru clustere AI
- Ascent GX10: petaFLOP pe birou pentru dezvoltatori și cercetători
- Optimizare pe AMD EPYC 9005: densitate, memorie extinsă și rețele 400G
- De ce contează
ASUS AI Factory: fundația end-to-end pentru adopția enterprise a AI
ASUS AI Factory combină hardware Blackwell, platforme software optimizate și servicii profesionale pentru a accelera proiecte de generative AI, NLP și predictive analytics. Ideea este simplă și puternică: servere ASUS, rack-scale AI POD-uri pe NVIDIA GB300 NVL72, topologii de rețea cu latență ultra-mică și designuri de serviceabilitate ridicată, astfel încât organizațiile să poată implementa, scala și opera sarcini AI cu fricțiune minimă. Rezultatul: mai puțină complexitate la deployment, utilizare mai eficientă a resurselor și un time-to-value scurtat.
XA NB3I-E12: serverele ASUS cu NVIDIA HGX B300 pentru sarcini AI intensive
La standul ASUS s-a aflat noua serie XA NB3I-E12, construită pe NVIDIA HGX B300 și echipată cu NVIDIA ConnectX-8 InfiniBand SuperNICs (400G), 5 sloturi PCIe, 32 DIMM și 10 bay-uri NVMe. Ținta: întreprinderi și CSP-uri care rulează antrenare, fine-tuning și inferență la scară. Accent pe stabilitate și throughput susținut, pentru a stoarce întregul potențial al platformei Blackwell în workload-uri reale – de la LLM-uri până la viziune computerizată.
Disponibilitate: ASUS confirmă că XA NB3I-E12 și ASUS AI POD (pe NVIDIA GB300 NVL72) au început livrările din septembrie, oferind acces timpuriu la performanța de generație nouă.
ASUS AI POD pe NVIDIA GB300 NVL72: blocuri de construcție pentru clustere AI
ASUS AI POD, bazat pe NVIDIA GB300 NVL72, este prezentat ca un „building block” pentru AI factories enterprise. Scopul: scalare previzibilă, integrare lină în rețelele de mare viteză și administrare simplificată la nivel de rack/row. În tandem cu XA NB3I-E12, aceste POD-uri pot constitui coloana vertebrală pentru proiecte AI care cresc rapid de la pilot la producție.
Ascent GX10: petaFLOP pe birou pentru dezvoltatori și cercetători
Din 15 octombrie, ASUS pune pe piață Ascent GX10, un personal AI supercomputer compact, propulsat de NVIDIA GB10 Grace Blackwell Superchip – un GPU Blackwell alături de un CPU Arm cu 20 de nuclee și 128 GB memorie unificată. Performanța declarată: până la 1 petaFLOP AI pentru inferență și fine-tuning, cu suport pentru modele până la 200 de miliarde de parametri. Pentru echipele care au nevoie de latență mică, confidențialitate și iterații rapide local, GX10 aduce puterea unui mini-cluster direct pe desktop.
Optimizare pe AMD EPYC 9005: densitate, memorie extinsă și rețele 400G
ASUS a arătat și configurații pe AMD EPYC™ 9005, adaptate pentru workload-uri AI critice în datacenter:
- ESC8000A-E13X – accelerează generative AI și LLM-uri; compatibil cu NVIDIA RTX PRO 6000 Blackwell Server Edition; ConnectX-8 SuperNIC pentru 400G InfiniBand/Ethernet per port QSFP, ideal pentru scale-out pe NVIDIA Quantum (InfiniBand) sau Spectrum-X (Ethernet).
- RS520QA-E13 – sisteme multi-node pentru HPC, EDA și cloud computing, cu până la 20 DIMM per nod, PCIe 5.0, OCP 3.0 și CXL memory expansion pentru scenarii care cer memorie extinsă și I/O modern.
De ce contează
Peisajul AI migrează accelerat spre Blackwell și rețele 400G. ASUS răspunde cu o strategie pe straturi: rack-scale (AI POD pe GB300 NVL72), servere HGX B300 pentru nucleul de calcul, alternative pe EPYC 9005 acolo unde densitatea memoriei și compatibilitatea extensivă cu acceleratoare contează, plus GX10 ca punte între cercetare/dezvoltare și producție. Pentru clienți, înseamnă alegeri reale între cloud, on-prem și edge – toate sub un ecosistem coerent, gândit pentru scalare și operare pe termen lung.







