OpenAI, awangarda innowacji w dziedzinie sztucznej inteligencji, przygotowuje się na monumentalny wzrost wydatków operacyjnych, prognozując oszałamiające **115 miliardów dolarów** spalania gotówki do 2029 roku. Ta dramatyczna rewizja, o 80 miliardów dolarów wyższa od wcześniejszych prognoz, sygnalizuje kluczowy moment dla firmy, która mierzy się z ogromnymi wymaganiami finansowymi i infrastrukturalnymi związanymi ze skalowaniem zaawansowanej sztucznej inteligencji. Strategiczne implikacje tak przyspieszonych wydatków są dalekosiężne, co skłania OpenAI do inicjowania ambitnych planów rozwoju własnych chipów i autorskich centrów danych, aby sprostać rosnącym potrzebom obliczeniowym.
Prognozy finansowe podkreślają nadzwyczajne inwestycje wymagane do napędzania następnej generacji sztucznej inteligencji. OpenAI przewiduje obecnie spalenie ponad **8 miliardów dolarów w tym roku**, co stanowi gwałtowny wzrost w porównaniu z początkową prognozą 1,5 miliarda dolarów. Patrząc w przyszłość, firma podwoiła swoje oczekiwania dotyczące spalania gotówki na rok 2026 do ponad 17 miliardów dolarów, z wcześniejszych 10 miliardów dolarów. Dalsze prognozy wskazują na spalenie 35 miliardów dolarów w 2027 roku i 45 miliardów dolarów w 2028 roku, co odzwierciedla agresywne zaangażowanie w rozwój i wdrażanie zaawansowanych modeli AI, w szczególności tych napędzających popularnego chatbota ChatGPT.
Te bezprecedensowe wydatki są w dużej mierze napędzane przez intensywną moc obliczeniową potrzebną do trenowania i obsługi zaawansowanych systemów AI. OpenAI szybko stało się jednym z największych na świecie konsumentów usług chmurowych, w dużym stopniu polegając na zewnętrznej infrastrukturze, aby sprostać swoim wymaganiom. Prezes Sam Altman konsekwentnie podkreślał krytyczną potrzebę zwiększenia mocy obliczeniowej, aby sprostać wykładniczemu wzrostowi wykorzystania produktów AI. To obciążenie infrastruktury nie jest unikalne dla OpenAI; badanie infrastruktury AI Deloitte 2025 wykazało, że 79% kadry kierowniczej przewiduje zwiększone zapotrzebowanie na energię w ciągu najbliższej dekady, a obciążenie sieci energetycznej jawi się jako główne wyzwanie dla branży.
Strategiczna Integracja Pionowa w Obliczeniach
Aby złagodzić rosnące koszty operacyjne i zapewnić niezawodny łańcuch dostaw, OpenAI wdraża znaczącą strategię integracji pionowej: projektowanie własnych chipów serwerowych do centrów danych. Inicjatywa ta ma na celu zmniejszenie zależności od zewnętrznych dostawców, zwłaszcza Nvidii, oraz zwiększenie siły przetargowej firmy. Firma podobno nawiązała współpracę z gigantem półprzewodników Broadcom, który ma rozpocząć dostawy tych niestandardowych chipów do przyszłego roku, głównie do użytku wewnętrznego. Prezes Broadcom, Hock Tan, pośrednio potwierdził to podczas rozmowy z analitykami, wspominając o zamówieniu od nowego klienta na 10 miliardów dolarów, które znacząco poprawiło perspektywy wzrostu firmy na rok fiskalny 2026 w segmencie niestandardowych chipów AI.
Oprócz rozwoju chipów, OpenAI dokonuje znaczących inwestycji w swoją infrastrukturę centrów danych. Firma nawiązała współpracę z Oracle w celu uruchomienia centrum danych o mocy 4,5 gigawata i współpracuje z Google Cloud w zakresie dodatkowej mocy obliczeniowej. Działania te uzupełniają ambitny **projekt Stargate o wartości 500 miliardów dolarów**, który obejmuje inwestycje od firm takich jak SoftBank Group, mający na celu budowę rozległej sieci centrów danych superkomputerów AI. OpenAI wcześniej współpracowało również z Taiwan Semiconductor Manufacturing Co. (TSMC) w zakresie produkcji chipów i bada integrację chipów AMD obok istniejącej infrastruktury Nvidii, aby zdywersyfikować źródła mocy obliczeniowej i sprostać rosnącym wymaganiom.
newsblog.pl
Maciej – redaktor, pasjonat technologii i samozwańczy pogromca błędów w systemie Windows. Zna Linuxa lepiej niż własną lodówkę, a kawa to jego główne źródło zasilania. Pisze, testuje, naprawia – i czasem nawet wyłącza i włącza ponownie. W wolnych chwilach udaje, że odpoczywa, ale i tak kończy z laptopem na kolanach.