Sztuczna inteligencja coraz sprawniej generuje teksty, obrazy i video. Ale równocześnie, im częściej je czytamy i oglądamy, tym wyraźniej dostrzegamy ich wspólną cechę: gładkość pozbawioną charakteru.
Treści tworzone przez AI są poprawne, bezpieczne i „akceptowalne”, ale rzadko żywe, ryzykowne czy naprawdę zapadające w pamięć. Brakuje im napięcia, konkretu i doświadczenia – tego, co bierze się z cielesności, kontekstu i osobistego zaangażowania twórcy.
Oczywiście jeśli przygotujemy prompt bardzo jasno precyzujący, że treść, obraz czy video mają zawierać określone cechy – jest wielce prawdopodobne że to otrzymamy. Ale AI pozostawione samo sobie wygeneruje nam coś co będzie mdłe, poprawnie politycznie, korporacyjne czy zwyczajnie nijakie…
Pojawia się więc pytanie, czy te same ograniczenia – awersja do kontrowersji, unikanie skrajności, preferowanie statystycznej przeciętności – mają znaczenie również poza obszarem treści kulturowych?
Czy przenosi się na projektowanie parametryczne i tworzenie geometrii 3D? Czy druk 3D przez AI stanie się rwnież uśrednioną średnią?
Ograniczenia AI w pisaniu według Alberto Romero
W grudniowym artykule pt. „10 Signs of AI Writing That 99% of People Miss” Alberto Romero stwierdził, że popularne metody wykrywania tekstów generowanych przez AI są powierzchowne i coraz mniej skuteczne.
Aby wykryć treść wygenerowaną przez AI, potrzeba więcej niż zwyczajowe już wykrywanie długich myślników, ikonek, których nikomu nigdy nie chciałoby się samodzielnie szukać i wstawiać do tekstu, czy typowych schematów stylistycznych.
Romero proponuje analizę głębszych warstw tekstu: struktury myślenia, relacji z doświadczeniem oraz sposobu prowadzenia narracji.
Jego główna teza brzmi: AI nie tyle imituje zły styl, co ujawnia fundamentalny brak zakorzenienia w świecie.
To bardzo cenna uwaga, która przekłada się na wszystkie obszary generowania AI – w tym modeli 3D. Romero zwraca uwagę, że modele językowe operują językiem w sposób oderwany od doświadczenia. Prowadzi to do dominacji abstrakcji nad konkretami.
Teksty AI są pełne pojęć ogólnych i „ważnie brzmiących”, ale trudno przełożyć je na obrazy mentalne. Nie wynikają one z obserwacji, lecz z uśrednionych map językowych.
Można powiedzieć, że AI jest jak niewidoma od urodzenia osoba, opisująca kolor żółty.
Drugim istotnym ograniczeniem jest filtr „nieszkodliwości”, będący efektem treningu przez wzmacnianie z udziałem ludzi.
W jego wyniku AI unika ostrych sądów, dziwnych skojarzeń i emocjonalnych słów, zastępując je neutralnym, politycznie poprawnym i korporacyjnym słownictwem. Tekst staje się bezpieczny, ale też pozbawiony ludzkiej emocji.
Znowu – dla doświadczonego użytkownika nie będzie problemem napisanie takiego prompt, który wygeneruje tak rasistowski tekst, że nawet Wielki Mistrz Kul Klux Klanu poczuje dyskomfort z jego czytania. Ale chodzi o to, że aby to osiągnąć, trzeba AI „podejść” – samo z siebie w domyślny sposób to pominie.
Kolejnym problemem jest preferencja dla słów pochodzenia łacińskiego, które statystycznie kojarzą się z autorytetem.
To sprawia, że język AI grzęźnie w rejestrze „business casual”, bez naturalnych przejść między stylem wysokim i potocznym.
Na poziomie zdań Romero wskazuje na zjawisko „odczuwania bez odczuwania”: AI potrafi poprawnie łączyć opisy zmysłowe, ale nie rozumie ich fizycznej konsekwencji, bo nie ma ciała ani perspektywy. Ponownie wracamy do kwestii opisywania kolorów przez osoby niewidome.
Podobnie personifikacje i metafory często wypadają niezgrabnie, ponieważ są generowane jako efekt stylistyczny, a nie wynik potrzeby znaczeniowej.
Istotnym sygnałem jest też strukturalna niepewność: AI buduje zdania, które natychmiast równoważą własne tezy, by nikogo nie urazić i nie popełnić błędu.
Na poziomie całego tekstu prowadzi to do efektu bieżni – dużo słów, niewiele postępu. Tekst krąży wokół tematu, nie zmierzając do wyraźnej tezy ani zakończenia.
Jest rozwlekły, ponieważ długość zastępuje sens jako sygnał jakości.
Dodatkowo AI nie operuje subtekstem: wszystko zostaje dopowiedziane, wyjaśnione i zamknięte, bo model nie ufa ani czytelnikowi, ani samemu sobie. AI woli wytłumaczyćopowiedziany żart, aby mieć pewność że się zaśmiejemy… Chociaż w sumie to bez znaczenia, bo AI nie rozumie pojęcia poczucia humoru – wie tylko co to oznacza.
Romero podkreśla przy tym, że żaden z tych znaków nie jest rozstrzygający – AI można coraz łatwiej zamaskować – ale razem tworzą one charakterystyczny „zapach” tekstu pozbawionego wewnętrznego punktu widzenia.
Czy te same ograniczenia dotyczą projektowania 3D i AM?
Przeniesienie tych wniosków na grunt projektowania 3D prowadzi do ciekawych, ale nieoczywistych konkluzji.
Na pierwszy rzut oka geometria nie wymaga „charakteru” – liczy się funkcja, wytrzymałość i zgodność z procesem technologicznym. Jednak w druku 3D, a zwłaszcza w projektowaniu generatywnym i parametrycznym, decyzje formalne są nierozerwalnie związane z filozofią projektowania.
AI, podobnie jak w pisaniu, operuje na uśrednionych rozwiązaniach. Generatywne algorytmy optymalizują kształty pod kątem zdefiniowanych kryteriów, ale nie kwestionują ich sensu.
Jeśli celem jest minimalna masa przy zadanej sztywności, otrzymamy formy „organiczne”, lecz przewidywalne – estetykę znaną z tysięcy przykładów topologicznej optymalizacji.
Brak życiowego doświadczenia ma tu również znaczenie. Projektant, który sam montuje część, czuje opór zatrzasku, wie gdzie palce się ślizgają, a gdzie materiał powinien być „nieprzyjemnie” szorstki.
AI nie posiada tej wiedzy i takich doświadczeń. Może zoptymalizować uchwyt pod kątem rozkładu naprężeń, ale nie zrozumie, że lekka asymetria poprawia intuicyjność chwytu.
Trudno oczekiwać od sieci neuronowej przemyśleń na temat slizgających się uchwytów czy innych rozwiązań, które po wielokrotnym użyciu powodują pęcherze na rękach lub ból w palcach.
Problem zaczyna się wtedy, gdy algorytm zastępuje myślenie projektowe zamiast je wspierać. Wtedy geometria – podobnie jak tekst – zaczyna „biec na bieżni”: poprawna, zoptymalizowana, ale bez wyraźnego powodu, by właśnie taka była.
Ostatecznie więc mdłość i awersja do ryzyka nie są cechą druku 3D ani projektowania parametrycznego jako takiego, lecz skutkiem bezkrytycznego oddania decyzji systemom statystycznym.
AI nie wnosi doświadczenia ani intencji – wnosi tylko średnią. Charakter, zarówno w tekście, jak i w geometrii, nadal musi pochodzić od człowieka.





