Cipul care ne va schimba viețile. Atinge viteze uimitoare și e disputat de giganții tehnologici
- Andrei Arvinte
- 8 noiembrie 2024, 10:01
Samsung Electronics a fost cândva jucătorul dominant în producţia unui tip de semiconductor cunoscut sub memorie de RAM, punând compania într-o poziţie excelentă pentru a valorifica boomul inteligenţei artificiale.
Dar gigantul de electronice din Coreea de Sud a rămas acum în urma rivalului său de lungă durată SK Hynix în domeniul cipurilor de generaţie următoare care au fost componenta cheie pentru liderul cipurilor AI Nvidia, transmite CNBC.
Rezultatul? Profitul Samsung a scăzut și aproximativ 126 de miliarde de dolari au fost şterse din valoarea sa de piaţă, potrivit datelor de la S&P Capital IQ.
Memoria RAM este un tip important de cip folosit pentru stocarea datelor şi poate fi găsită într-o multitudine de dispozitive, de la smartphone-uri până la laptopuri.
Memoria cu lățime mare de bandă (HBM)
Ani de zile, Samsung a fost liderul incontestabil în această tehnologie, înaintea rivalului sud-coreean SK Hynix şi a concurentului american Micro. Dar, pe măsură ce aplicaţiile AI, cum ar fi ChatGPT de la OpenAI, au crescut în popularitate, infrastructura de bază necesară antrenării modelelor inteligenței artificiale a devenit mai importantă.
Nvidia a apărut ca jucător de top în acest spaţiu cu unităţile sale de procesare grafică (GPU) care au devenit standardul folosit de giganţii tehnologiei pentru instruirea AI.
O parte crucială a acestei arhitecturi semiconductoare este memoria cu lăţime mare de bandă, HBM. Această generaţie următoare de memorie implică stivuirea mai multor cipuri de memorie cu acces aleatoriu (DRAM), care avea o piaţă mică înainte de boom-ul AI. Acolo unde Samsung nu a investit destul.
”HBM a fost un produs foarte de nişă... pentru o lungă perioadă de timp, iar Samsung nu şi-a concentrat resursele asupra dezvoltării sale”, a declarat Kazunori Ito, director de cercetare pentru acţiuni la Morningstar.
Greșeală de strategie
Din cauza dificultăţii tehnologiei implicate în fabricarea memoriilor DRAM şi a dimensiunii mici a pieţei adresabile, s-a considerat că nu erau justificate costurile mari de dezvoltare.
Dar SK Hynix a văzut această oportunitate. Compania a lansat agresiv cipuri HBM care au fost aprobate pentru utilizare în arhitectura Nvidia şi, în acest proces, firma sud-coreeană a stabilit o relaţie strânsă cu gigantul american.
CEO-ul Nvidia a cerut chiar companiei să accelereze furnizarea unui cip de generaţie următoare, subliniind importanţa HBM pentru produsele sale. SK Hynix a înregistrat un profit operaţional trimestrial record în trimestrul încheiat în septembrie.
Samsung s-a repliat
”Cu investiţii puternice în cercetare şi dezvoltare (cercetare şi dezvoltare) şi parteneriate consacrate în industrie, SK Hynix menţine un avantaj atât în ceea ce priveşte inovaţia HBM, cât şi penetrarea pe piaţă”, a declarat Brady Wang, director asociat la Counterpoint Research,.
Samsung a declarat că, în al treilea trimestru, vânzările totale ale HBM au crescut cu peste 70% faţă de trimestrul precedent.
Gigantul tehnologic a adăugat că produsul actual cunoscut sub numele de HBM3E este în producţie de masă şi generează vânzări.
Compania de tehnologie sud-coreeană a remarcat că dezvoltarea următoarei sale generaţii HBM4 este ”în desfăşurare conform planului” şi compania ţinteşte să înceapă ”producţia de masă” în a doua jumătate a anului 2025.
Poate Samsung să îşi revină?
Analiştii au spus ca Samsung rămâne in urma competitorilor din mai multe motive, inclusiv subinvestiţia în HBM.
”Este corect să spunem că Samsung nu a reuşit să reducă decalajul faţă de SK Hynix în foaia de parcurs de dezvoltare a HBM”, a spus Ito de la Morningstar.
Capacitatea Samsung de a-şi reveni în viitorul apropiat pare să fie strâns legată de Nvidia. O companie trebuie să treacă un proces strict de calificare înainte ca Nvidia să o aprobe ca furnizor de HBM, iar Samsung nu a finalizat încă această verificare.
Are nevoie de acceptul Nvidia
Dar acceptul din partea Nvidia ar putea deschide uşa pentru ca Samsung să revină la creştere şi să concureze mai eficient cu SK Hynix, potrivit analiştilor.
”Întrucât NVIDIA deţine mai mult de 90% din piaţa de cipuri AI, unde sunt utilizate cele mai multe HBM, aprobarea NVIDIA este esenţială pentru ca Samsung să beneficieze de cererea puternică de servere AI”, a spus Ito.
Samsung a a făcut ”progrese semnificative” în ceea ce priveşte HBM3E şi ”a finalizat o fază importantă în procesul de calificare”, a declarat un purtător de cuvânt al companiei.
”Ne aşteptăm să începem extinderea vânzărilor în al patrulea trimestru”, a spus acesta.
Ce este HBM
High Bandwidth Memory (HBM), memorie cu lățime de bandă înaltă sau memorie pe mai multe niveluri, este o interfață de memorie RAM de înaltă performanță cu circuite integrate tridimensionale (3D IC) la care memoria este amplasată deasupra unui strat conectiv intermediar, numit interposer.
Un singur strat de memorie HBM suportă o magistrală de 1024 biți și o lățime de bandă de memorie mai mare de 125 GB/s.
În comparație cu memoria GDDR5X, cip-ul HBM rulează la o viteză mai joasă a ceasului, atingând în același timp o lățime de bandă mult mai mare, și un consum de energie mai redus.