Dzisiejszy artykuł będzie nieco inny niż zwykle, ponieważ kwestia AM będzie tu raczej drugorzędna. Będzie to tekst o branży AI oraz o realnej możliwości, że już za chwilę będziemy świadkami znacznie większego krachu niż cokolwiek, co widzieliśmy wcześniej.
Tak na marginesie, przy obecnych problemach czołowych firm tego sektora epopeja Desktop Metal, Nexa3D czy innych wydaje się wręcz zabawna… W porównaniu do AI to była taka bańka na poziomie przedszkola…
Sztuczna inteligencja przenika niemal każdą dziedzinę gospodarki — od finansów i marketingu, przez medycynę i logistykę, po przemysł wytwórczy.
W branży druku 3D obiecuje automatyzację projektowania, optymalizację procesów produkcyjnych, redukcję kosztów oraz przyspieszenie wdrożeń (bla, bla, bla).
Jednocześnie wokół AI narastają bardzo poważne wątpliwości. Coraz więcej komentatorów i analityków zadaje pytanie, czy obserwujemy rzeczywistą rewolucję technologiczną, czy raczej gigantyczną bańkę spekulacyjną?
Być może największą w historii światowych finansów?
Niedawno trafiłem na dwa fenomenalne artykuły Willa Locketta, opublikowanym na jego Substacku, które bezlitośnie obnażają fundamenty współczesnego boomu na AI i stawiają niewygodne pytania o jego przyszłość.
Lockett rozprawia się z dominującą narracją, według której sztuczna inteligencja ma zrewolucjonizować wszystko, stać się kolejną megabranżą i zapoczątkować nową, w pełni zautomatyzowaną rewolucję przemysłową.
Pokazuje, że ta opowieść, podsycana przez środowiska technologiczne i finansowe, posłużyła do uzasadnienia gigantycznych inwestycji i zadłużenia, w efekcie czego znaczna część zachodniej gospodarki została postawiona na jedną kartę.
Problem polega na tym, że realne dane coraz wyraźniej pokazują, iż obietnice te nie znajdują potwierdzenia w praktyce.
Lockett przywołuje przykład Microsoftu, który od 2020 roku zainwestował setki miliardów dolarów w infrastrukturę AI oraz w OpenAI. Flagowym efektem tych wydatków jest Copilot, agentowy system AI zintegrowany z Windowsem. Mimo ogromnych nakładów finansowych produkt ten okazuje się komercyjną porażką.
Microsoft zmuszony był znacząco obniżyć cele sprzedażowe, a przychody z całej kampanii AI są znikome w stosunku do poniesionych kosztów. Autor podkreśla, że nie jest to kwestia drobnych korekt, lecz sygnał, iż technologia, w którą wpompowano astronomiczne środki, zwyczajnie nie działa tak, jak obiecywano.
Źródłem problemu jest niska użyteczność narzędzi generatywnych. Badania przytaczane przez Locketta pokazują, że tzw. agentowe AI nie potrafią poprawnie wykonać nawet prostych zadań w większości przypadków.
Podobnie ChatGPT, sztandarowy produkt OpenAI, cierpi na chroniczny problem halucynacji, czyli generowania błędnych, zmyślonych lub wprowadzających w błąd odpowiedzi.
Nawet najnowsze i najdroższe modele nie są wolne od tego zjawiska, co w praktyce oznacza, że użytkownik musi poświęcić więcej czasu na weryfikację wyników niż na wykonanie zadania samodzielnie.
Konsekwencje rynkowe są oczywiste. Zaledwie niewielki odsetek użytkowników decyduje się płacić za dostęp do narzędzi takich jak ChatGPT, a nawet wysokie abonamenty nie pokrywają kosztów ich utrzymania.
Co więcej, popyt na AI w sektorze korporacyjnym nie tylko nie rośnie, ale wręcz maleje.
Coraz więcej firm rezygnuje z pilotażowych wdrożeń, a badania instytucji takich jak MIT, BCG czy Forrester konsekwentnie pokazują, że zdecydowana większość projektów AI nie przynosi żadnej mierzalnej wartości biznesowej.
W efekcie kolejne przedsiębiorstwa odkładają planowane wydatki na sztuczną inteligencję, co podkopuje fundamenty całej branży, opartej w dużej mierze na oczekiwanym boomie korporacyjnym.
Lockett idzie jeszcze dalej i zagłębia się w finansowe wnętrzności OpenAI, które autor określa mianem epicentrum bańki AI.
Przedstawione liczby są druzgocące. Mimo miliardowych przychodów firma generuje jeszcze większe straty, a tempo spalania kapitału jest bezprecedensowe.
OpenAI traci wielokrotnie więcej, niż zarabia, a prognozy wskazują, że roczne straty mogą sięgnąć dziesiątek miliardów dolarów. Kluczowym problemem jest struktura finansowania, oparta w coraz większym stopniu na długu i instrumentach takich jak obligacje zamienne, które jedynie odsuwają w czasie moment rozliczenia realnych kosztów.
Lockett szczegółowo analizuje także plany OpenAI dotyczące dalszej ekspansji infrastrukturalnej.
Budowa gigantycznych centrów danych, wartych łącznie nawet bilion dolarów, ma rzekomo doprowadzić do przełomu jakościowego w AI. Autor pokazuje jednak, że koszty operacyjne takich inwestycji są ogromne i wielokrotnie przewyższają koszty budowy.
Nawet przy bardzo optymistycznych założeniach przychodowych OpenAI nie jest w stanie wygenerować strumienia dochodów, który uzasadniałby taką skalę wydatków.
Co gorsza, sama firma przyznaje w swoich badaniach, że problem halucynacji jest strukturalną cechą modeli generatywnych i nie da się go wyeliminować poprzez samo skalowanie danych i mocy obliczeniowej.
W tym miejscu pojawia się kluczowe pytanie o znaczenie tych problemów dla rynku druku 3D
Branża addytywna od lat korzysta z algorytmów komputerowych do projektowania, symulacji i sterowania procesami, a AI jest postrzegana jako kolejny krok w tej ewolucji.
Obiecuje się automatyczne generowanie geometrii, inteligentne wsparcie inżynierów, samoczynną optymalizację parametrów druku czy predykcyjną kontrolę jakości.
Jednak analiza Locketta rzuca na te obietnice długi cień.
Druk 3D jest obszarem, w którym błędy mają bezpośrednie, fizyczne konsekwencje. Wadliwy model, źle dobrane parametry lub błędna decyzja algorytmu mogą prowadzić do odrzutów, awarii, a w zastosowaniach przemysłowych nawet do zagrożenia bezpieczeństwa.
W tym kontekście problem halucynacji, tak bagatelizowany w marketingu generatywnej AI, staje się absolutnie krytyczny. System, który „często się myli”, może być akceptowalny w generowaniu tekstów marketingowych, ale jest nie do przyjęcia w procesach inżynierskich.
Jednocześnie warto zauważyć, że AI stosowana w druku 3D nie musi i nie powinna opierać się na tych samych paradygmatach co generatywne modele językowe.
Tradycyjne algorytmy uczenia maszynowego, systemy oparte na danych procesowych, modele predykcyjne czy algorytmy optymalizacyjne działają w znacznie bardziej kontrolowanym środowisku.
Są szkolone na konkretnych, zweryfikowanych danych i rozliczane z precyzyjnych wyników.
Problem polega na tym, że hype wokół generatywnej AI często prowadzi do prób bezrefleksyjnego przenoszenia tych technologii do obszarów, w których po prostu się nie sprawdzają.
Potencjalne załamanie rynku AI, o którym pisze Lockett, może więc mieć dwojaki wpływ na druk 3D.
- Z jednej strony istnieje ryzyko, że pęknięcie bańki doprowadzi do ograniczenia finansowania wszelkich projektów z etykietą „AI”, także tych sensownych i inżyniersko uzasadnionych. Może to spowolnić rozwój narzędzi, które realnie poprawiają jakość i efektywność druku addytywnego.
- Z drugiej strony upadek nierealistycznych obietnic może oczyścić rynek z marketingowego szumu i zmusić branżę do bardziej pragmatycznego podejścia.
Jeśli kapitał i uwaga przesuną się z kosztownych, zawodnych modeli generatywnych w stronę wyspecjalizowanych, deterministycznych rozwiązań, druk 3D może na tym skorzystać.
Zamiast „magicznej” AI, która rzekomo zrobi wszystko za inżyniera, pojawi się nacisk na narzędzia, które faktycznie rozwiązują konkretne problemy: stabilność procesu, powtarzalność, kontrolę jakości i optymalizację materiałową.
W tym sensie kryzys AI nie musi oznaczać kryzysu druku 3D, lecz raczej koniec pewnej iluzji.
Wnioski płynące z tekstów Willa Locketta są więc dla branży druku 3D ostrzeżeniem, ale nie wyrokiem. Ewentualne załamanie na rynku generatywnej AI może zaboleć, zwłaszcza tam, gdzie inwestycje oparto na czystym hype’ie.





