Microsoft, Google si Facebook au inceput sa faca in tandem o serie de schimbari importante, pe masura ce cererea pentru sarcini de lucru legate de inteligenta artificiala atinge niveluri fara precedent, infrastructura fizica a centrelor de date trece printr-o transformare rapida. Microsoft, Google si Facebook adopta tehnici pana acum rezervate industriei auto electrice pentru a sustine noile procesoare.
Microsoft, Google si Facebook au inceput sa implementeze sisteme de distributie a energiei de 400 V CC, inspirate din lanturile de aprovizionare si logica de proiectare a vehiculelor electrice. Aceasta abordare permite livrarea de energie la densitati ridicate direct in rack-urile serverelor, reducand pierderile si imbunatatind eficienta generala.
Viziunea emergenta in centrul de date implica rack-uri capabile sa furnizeze pana la un megawatt de putere, insotite de sisteme de racire lichid dimensionate pentru a gestiona caldura masiva produsa de servere de ultima generatie. In acest context, racirea cu lichid nu mai este optionala; este singura modalitate de a supravietui atacului termic al inteligentei artificiale.
Tranzitia la distributia de 400 V CC marcheaza o ruptura decisiva fata de arhitecturile clasice. In timp ce Google sustinea anterior trecerea de la 12 V DC la 48 V DC, adoptarea tensiunii de +/-400 V DC este acum sustinuta de lanturile de aprovizionare ale vehiculelor electrice si de initiativa Mt. Diablo, un proiect comun al Meta, Microsoft si Open Compute Project (OCP), care isi propune standardizarea interfetelor la acest nivel de tensiune.
Microsoft, Google si Facebook: SCHIMBARILE cu Impact Major Puse in Aplicare pentru Miliarde de Oameni
Google subliniaza ca aceasta arhitectura pragmatica deschide spatiu valoros in rack-urile IT prin decuplarea surselor de alimentare de hardware-ul serverelor, folosind unitati sidecar AC-DC. Conform estimarilor, eficienta energetica creste cu aproximativ trei procente, iar configuratia modulara simplifica operatiunile de mentenanta.
Insa, poate cea mai presanta provocare ramane racirea. Cipurile de generatie urmatoare pot consuma peste o mie de wati fiecare, iar racirea traditionala cu aer este depasita din punct de vedere tehnologic. Microsoft, Google si Facebook mizeaza astfel pe racirea lichid, considerata singura solutie scalabila pentru medii de calcul cu densitate mare.
Google a implementat la scara larga capsule TPU racite cu lichid care opereaza acum la niveluri de gigawati. Performanta acestora este remarcabila, cu un timp de functionare de 99,999% in ultimele sapte ani, demonstrand fiabilitatea masiva a racirii cu lichid.
Inlocuirea radiatoarelor voluminoase cu placi reci compacte a redus la jumatate amprenta fizica a hardware-ului serverului si a cvadruplat densitatea de calcul fata de generatiile anterioare.
Desi foaia de parcurs prezentata de Google proiecteaza nevoi energetice de peste 500 de kilowati per rack pana in 2030, ramane de vazut daca aceste estimari se vor materializa in intreaga industrie de cloud.
Totusi, colaborarea stransa dintre gigantii hiperscalatori Microsoft, Google si Facebook si comunitatea hardware open semnaleaza un consens clar: vechile paradigme nu mai fac fata. Trecerea la sisteme de 400 V CC si racire lichid pare sa marcheze inceputul unei noi ere pentru centrele de date, unde eficienta si densitatea de calcul sunt puse la zid pentru a sustine inteligenta artificiala de maine.
This post was last modified on mai 18, 2025, 11:31 PM 23:31