Amazon a încheiat un acord în valoare de 38 de miliarde de dolari pentru a găzdui serverele AI NVIDIA GB200/GB300 ale OpenAI.
Amazon Web Services (AWS) și OpenAI au semnat un acord pe șapte ani, în valoare de 38 de miliarde de dolari, pentru a extinde operațiunile de inteligență artificială ale OpenAI folosind infrastructura cloud de ultimă generație a AWS. Acordul permite OpenAI să utilizeze clustere formate din sute de mii de GPU-uri NVIDIA GB200 și GB300, întreaga capacitate planificată urmând să fie disponibilă până la sfârșitul anului 2026. Aceste GPU-uri sunt instalate pe servere Amazon EC2 UltraServer, conectate printr-o rețea rapidă și de mare capacitate, concepută pentru a gestiona atât sarcini de inferență, cât și procese de antrenare la scară largă a modelelor AI. Experiența anterioară a AWS în administrarea clusterelor ce depășesc 500.000 de cipuri a fost un factor cheie în decizia OpenAI.
Noua infrastructură va susține o gamă largă de aplicații OpenAI, de la sarcini de inferență pentru ChatGPT până la antrenarea modelelor fundamentale de generație următoare. Mutarea OpenAI către AWS vine după o serie de parteneriate recente cu NVIDIA, AMD, Microsoft, Broadcom și Oracle, prin care compania își asigură accesul la un mix de cipuri și sisteme cloud de înaltă performanță.
Directorul executiv al OpenAI, Sam Altman, a declarat că firma intenționează să investească 1,4 trilioane de dolari pentru a construi o capacitate de calcul de 30 de gigawați — echivalentul consumului energetic al aproximativ 25 de milioane de gospodării americane. Până în prezent, OpenAI a încheiat parteneriate pentru 10 GW de capacitate cu NVIDIA, 6 GW cu AMD și 4,5 GW cu Oracle, apropiindu-se constant de obiectivul său de a dezvolta o rețea de infrastructură AI de 30 GW.