
Obecny tydzień przyniósł największy w historii spadek wartości akcji pojedynczej spółki. Amerykańska Nvidia przerwała tym samym pasmo spektakularnych wzrostów. Chiński DeepSeek znacząco utemperował kursy także innych spółek z sektora Big Tech. Mentalność stada inwestorów istotnie zaburzyła rynek technologiczny, ważniejszym pytaniem wydaje się jednak, na ile Chiny mogą realnie zagrozić pozycji USA w sektorze AI.
Nadal potrzebujemy produktów Nvidii
Najpopularniejszym sentymentem wyrażanym przez wielu komentatorów jest “USA marnują dolary, Chiny robią AI za pół-darmo, a Europa przytwierdza nakrętki do butelek”. Mimo wielu głosów VIPów, uważam takie podejście za nadmiernie redukcjonistyczne. Przede wszystkim, większość ludzi zdaje się ignorować efekt inferencji, tj. aktywnego używania wytrenowanego wcześniej modelu.
W największym uproszczeniu, aby stworzyć duży model językowy (Large Language Model, dalej LLM), pierwszym etapem jest ‘nauczenie’ modelu wnioskowania na bazie dużych baz danych. Kolejnym etapem będzie jednak używanie tak wytrenowanego modelu do pracy nad dowolnym zadaniem jakie dla niego mamy, a ta faza wymaga już znacznie większych możliwości obliczeniowych. Ponadto im sprawniejsze będą karty graficzne (Graphics Processing Unit, dalej GPU) użyte do procesowania bieżących działań, tym szybsze otrzymamy pożądane wyniki. Zatem stwierdzenie, że tanie wytrenowanie modelu przez Chiny, wyeliminuje popyt na nowoczesne karty graficzne jest zwyczajnie błędne.
Chińskie modele trenowane na kradzionych danych
Oba opublikowane przez Chiny modele DeepSeek, tj. R1 oraz Janus, zawierają wiele technicznych rozwiązań optymalizujących zużycie zasobów. Udostępnienie modeli w formule open-source pozwala założyć, że pozostałe spółki ze świata wkrótce same zastosują u siebie analogiczne rozwiązania zwyczajnie kopiując je od Chińczyków opłacając się pięknym za nadobne. Financial Times donosi, że OpenAI posiada dowody na to, że DeepSeek używał ChatGPT, aby wytrenować chiński model. To stwierdzenie burzy dotychczasową narrację, głoszoną ochoczo przez niektórych, że Chiny użyły raptem 2 tysięcy GPU i do kilku milionów dolarów do wytrenowania swojego LLM. Podejrzenia powinno budzić już samo to jak rozbieżne są szacunki liczby kart użytych do pracy nad DeepSeek. CEO Scale AI, Alexandr Wang, informuje, że chińska firma miała podobno do dyspozycji nawet 50 tysięcy GPU pozyskanych mimo sankcji USA nałożonych na eksport kart graficznych.
Działania 200-osobowego zespołu AI chińczyków zaskoczyły amerykańskie firmy, które zdawały się ignorować niektóre z kluczowych problemów związanych z rozwojem uczenia maszynowego, zamiast tego zwiększając tylko moc obliczeniową oraz wielkość baz danych używanych do trenowania modeli. Prawdopodobnym efektem będzie zmniejszenie bariery wejścia do sektora AI co powinno przełożyć się na wzrost konkurencyjności, a tym samym zwiększenie innowacyjności na rynku AI.
To dopiero wczesny etap w rozwoju AI
Sam Altman, zarządzający OpenAI, prognozuje, że dzisiejsze zastosowania AI są stosunkowo mało zasobochłonne, jednak prawdziwym wyzwaniem będzie dopiero integracja uczenia maszynowego do w pełni niezależnych agentów AI oraz pełnoprawnych robotów. Wśród wielu firm trwają zaawansowane prace nad stworzeniem schematu szybkiego trenowania (także humanoidalnych) robotów. Idealnym rozwiązaniem byłaby możliwość pokazania robotowi jak wykonać daną czynność, a następnie pozostawienia zrozumienia i stworzenia algorytmu wykonywania takiej czynności samemu modelowi AI robota. Takie podejście nie obejdzie się jednak bez znacznej liczby GPU. Stworzenie milionowego klastra kart przez ogłoszone niedawno konsorcjum Microsoftu, OpenAI, Oracle i Softbanku z pewnością pomoże w szybszym trenowaniu takich modeli, a pojawienie się DeepSeek nie świadczy wcale o niezasadności takiej inwestycji.
Coraz trudniej będzie zarobić na samej infrastrukturze
Warto również dodać, że tworzenie dużych modeli językowych jest z natury rzeczy, kosztowną inwestycją o niepewnym zwrocie z inwestycji. Szef Palantir, Alex Karp, przyznaje, że modele AI staną się raptem surowcami, a prawdziwa wartość zostanie wygenerowana w warstwie aplikacyjnej technologii. Zatem produkty tworzone na bazie LLMów będą prawdziwym driverem wartości na rynku, a same modele leżące u ich podwalin będą służyły wyłącznie jako niezbędna infrastruktura, tak jak dzisiaj internet, który bardziej przypomina usługę komunalną niż wysokomarżowe aplikacje i platformy z miliardami użytkowników działające w globalnej sieci.
Co dalej z Big Techami?
OpenAI nadal może utrzymać pozycję lidera na rynku ze względu na m.in. bazę 300 mln miesięcznych użytkowników, znajomość marki ChatGPT oraz cały ekosystem narzędzi stworzonych w ramach i na bazie GPT. Ponadto GPU od Nvidia, pozyskane legalnie lub omijając sankcje, będą najprawdopodobniej niezbędne do efektywnego użycia modeli AI, podczas gdy Apple i Meta mogą najwięcej zyskać w warstwie aplikacyjnej. Nawet przekreślona już przez wielu Europa może na tym zyskać. Francuski startup AI, Mistral, szykuje się właśnie do dużego giełdowego debiutu i może się niebawem stać jednym z większych graczy na rynku sztucznej inteligencji. Rosnąca dynamika rynku inwestycji w AI może nas wielokrotnie zaskoczyć tempem rozwoju nowych produktów. Konkurencja często przyspiesza innowacje, nawet jeśli prowadzi to do chwilowych spadków na rynkach kapitałowych.