Niewyczerpany popyt firmy Nvidia Corp
Napędzane dynamiką Nvidii w dziedzinie sztucznej inteligencji, firmy SK Hynix i Samsung ścigają się w rozszerzaniu produkcji pamięci o wysokiej przepustowości.
Rosnący popyt Nvidii na zaawansowane układy pamięci pomógł firmie SK Hynix osiągnąć rekordowe zyski, ponieważ południowokoreański producent chipów wyprzedał całą swoją produkcję półprzewodników na przyszły rok.
Jako główny dostawca Nvidii SK Hynix odnotował 62% wzrost zysku operacyjnego w trzecim kwartale w porównaniu z rokiem poprzednim, osiągając rekordowy poziom 11,4 bln ₩ (8 mld $). Przychody wzrosły o 39% do 22,4 bln ₩, napędzane rosnącym popytem ze strony centrów danych AI.
Jak donosi Financial Times w czwartek, moce produkcyjne SK Hynix w zakresie chipów DRAM, NAND i HBM są w pełni zarezerwowane na przyszły rok, a klienci zamawiają nawet konwencjonalne pamięci na 2026 r.
Optymizm wynika z wstępnej umowy SK Hynix z OpenAI i Samsungiem na dostawę półprzewodników do ogromnego projektu centrum danych Stargate o wartości 500 mld $, realizowanego przez producenta ChatGPT.
SK Hynix oszacował, że zapotrzebowanie na pamięć w ramach tego projektu przekracza dwukrotnie obecne globalne moce produkcyjne HBM i planuje odpowiednio zwiększyć produkcję.
Po sfinalizowaniu umów na dostawy HBM z kluczowymi klientami na przyszły rok SK Hynix ogłosił, że znacznie zwiększy nakłady inwestycyjne i rozpocznie dostawy swoich najbardziej zaawansowanych chipów HBM4 w czwartym kwartale.
Kierownictwo spodziewa się, że podaż pozostanie ograniczona w związku z przyspieszeniem inwestycji w sztuczną inteligencję w Stanach Zjednoczonych i Chinach.
SK Hynix kontroluje obecnie ponad połowę światowego rynku HBM, znacznie wyprzedzając Samsunga i amerykańską firmę Micron. Dominacja firmy w segmencie wysokowydajnych pamięci na potrzeby AI spowodowała w tym roku trzykrotny wzrost ceny jej akcji.
Rosnące zapotrzebowanie firmy Nvidia na wysokowydajną pamięć AI przyczyniło się do znaczącego przełomu dla Samsunga, który potwierdził, że w trzecim kwartale rozpoczął dostawy najnowszych chipów HBM3E do firmy Nvidia i wyprzedał już całą przyszłoroczną dostawę chipów nowej generacji HBM4.
Samsung poinformował, że chipy HBM3E są obecnie produkowane na pełną skalę i dostępne dla wszystkich kluczowych klientów, jak podała w czwartek gazeta Korea Economic Daily.
Po pomyślnym przejściu testów kwalifikacyjnych Nvidii dla 12-warstwowego układu HBM3E na początku tego roku, firma rozpoczęła dostawy produktu do zasilania akceleratorów AI Nvidii.
Wysłała również próbki swoich przyszłych układów HBM4 do klientów w celu ich przetestowania, a zamówienia przedpremierowe na 2025 r. już przekroczyły planowane poziomy produkcji.
Wiceprezes Kim Jae-june powiedział, że Samsung znacznie zwiększył moce produkcyjne HBM na 2025 r., ale nadal boryka się z większym niż oczekiwano popytem.
Firma rozważa dodatkowe inwestycje, aby zrealizować zamówienia, przygotowując się do produkcji HBM4 na dużą skalę w 2026 r.
W wyniku boomu na sztuczną inteligencję dział pamięci Samsunga odnotował w trzecim kwartale rekordowe przychody w wysokości 26,7 bln ₩ (19 mld $), do czego przyczyniła się wysoka sprzedaż układów HBM, DDR5, GDDR7 i dysków półprzewodnikowych do serwerów. Wyniki te podniosły całkowity zysk z półprzewodników do 7 bln ₩.
Oprócz segmentu pamięci, umocniły się również segmenty układów scalonych i foundry firmy Samsung, dzięki nowym kontraktom z Apple Inc.
Firma spodziewa się dalszego wzrostu napędzanego sztuczną inteligencją popytu i planuje rozszerzyć produkcję pamięci DRAM 1c i pamięci serwerowych, jednocześnie zwiększając w przyszłym roku produkcję w fabryce w Taylor w Teksasie, wykorzystującej technologię 2 nanometrów.
Tymczasem Nvidia stała się pierwszą spółką o kapitalizacji rynkowej wynoszącej 5 bln $, a kwartalne wyniki największych firm technologicznych, w tym Meta Platforms
Kurs akcji NVDA: W momencie publikacji niniejszego artykułu w czwartek akcje Nvidii spadły o 1,99% do 202,91 $. Według danych Benzinga Pro kurs akcji zbliża się do swojego 52-tygodniowego maksimum wynoszącego 212,18 $.
