Tak jak przewidywałem kilka miesięcy temu, rynek narzędzi opartych na AI rośnie w coraz szybszym tempie. Jakiś czas temu prezentowałem Backflip AI, ale narzędzia do generowania siatek i modeli 3D pojawiają się coraz częściej.
Trend jest jasny: automatyzacja modelowania i rekonstrukcji przestrzennej staje się kolejnym kamieniem milowym w oprogramowaniu dla AM.
Jednocześnie bądźmy szczerzy — rezultaty tych technologii, choć spektakularne z perspektywy marketingowej, często są dalekie od tego, czego oczekują profesjonalni użytkownicy. To wciąż „praca w toku”, a nie zamiennik precyzyjnej pracy inżyniera czy projektanta.
Do wyścigu dołącza najnowszy gracz — META (znana bardziej jako Facebook).
SAM 3D
META wprowadziła SAM 3D, dwumodułowy system, który potrafi generować obiekty 3D i ludzkie sylwetki ze zwykłych zdjęć 2D. Narzędzie łączy możliwości SAM 3D Objects (rekonstrukcja obiektów i scen) oraz SAM 3D Body (precyzyjne szacowanie kształtu i pozycji ludzkiego ciała).
SAM 3D Objects pozwala przekształcić pojedyncze zdjęcie w model 3D z teksturą, geometrią i orientacją przestrzenną. Użytkownik zaznacza element na fotografii — np. krzesło, lampę czy kubek — a system generuje jego trójwymiarową rekonstrukcję.
Proces modelowania opiera się na wieloetapowym treningu: pre-treningu na syntetycznych zbiorach 3D oraz post-treningu mającym zmniejszyć różnice między scenami syntetycznymi a naturalnymi zdjęciami. Dzięki temu SAM 3D radzi sobie nie tylko z obiektami sfotografowanymi w idealnych warunkach, ale również z tymi częściowo zasłoniętymi, małymi czy uchwyconymi pod nietypowym kątem.
Równolegle SAM 3D Body umożliwia rekonstrukcję pełnej ludzkiej postaci, łącznie z postawą, orientacją i proporcjami. Model korzysta z nowego formatu MHR (Meta Momentum Human Rig), który oddzielnie definiuje strukturę szkieletową oraz „miękką” tkankę ciała.
Dzięki temu wynik jest bardziej realistyczny, zachowując jednocześnie możliwość edycji. SAM 3D Body potrafi analizować nawet trudne ujęcia — obejmujące dynamiczne pozy, częściowe zasłonięcia czy wiele osób na jednym zdjęciu.

Oba modele dostępne są w Segment Anything Playground, platformie demo, gdzie użytkownicy mogą eksperymentować z własnymi obrazami.
To najsilniejszy argument na rzecz „szerokiej dostępności” innowacji Meta, a zarazem krok w kierunku integracji z codziennymi aplikacjami — takimi jak funkcja „View in Room” na Marketplace.
Czy SAM 3D nadaje się do druku 3D?
Chociaż Meta przedstawia SAM 3D jako fundament dla kreatywnych zastosowań — w tym gamedevu, robotyki czy AR/VR — z perspektywy druku 3D narzędzie nie ma obecnie realnej praktycznej wartości.
Modele generowane przez SAM 3D mają zbyt niską rozdzielczość i ekstremalnie uproszczoną geometrię. Często są zniekształcone, pozbawione spójności fizycznej i nie nadają się do bezpośredniej obróbki w slicerach (brak gładkich powierzchni, brak wodoszczelnych meshów).
Dodatkowo nie można ich pobrać w formacie STL/OBJ — Meta udostępnia jedynie format .PLY (oraz podgląd lub animację).
Wszystko to oznacza, że choć technologia jest koncepcyjnie imponująca, dla zastosowań AM pozostaje jedynie ciekawostką. Co więcej, nic nie wskazuje na to, aby miało się to szybko zmienić, ponieważ META najwyraźniej koncentruje się głównie na gamedevie i wideo.
A tak wyglądały moje testy…
Testy…
Zacząłem od kultowego zdjęcia Jokera w wykonaniu Heatha Ledgera. Wgrałem je i zaznaczyłem obszar do analizy. Po prostu kliknąłem na zdjęcie, a aplikacja automatycznie podświetliła dany fragment. Początkowo uchwyciła tylko twarz, ale po kliknięciu na włosy — całą sylwetkę. Następnie kliknąłem „Generate 3D”. Efekt był… cóż… zabawny, delikatnie mówiąc:

Następnie postanowiłem spróbować czegoś bardziej osobistego i użyłem swojego zdjęcia z konferencji, w której ostatnio brałem udział. Procedura była taka sama — najpierw kliknięcie na twarz, potem na dodatkowe elementy (jak kapelusz czy… okulary, które dziwnie były odznaczone domyślnie). Wynik był… karykaturalny:

Gorzej zrobiło się, gdy zaznaczyłem całą postać:

Na koniec spróbowałem zdjęcia znajomego w masce Venoma, którą pokazywaliśmy na Formnext. W wersji przyciętej nie wyszło to najgorzej (pomijając dłoń):

ale w pełnej wersji — cóż, to oprogramowanie ma jeszcze dużo do nauczenia:

Możliwe więc, że dla grafików narzędzie to okaże się w pewnym stopniu użyteczne. Dla użytkowników druku 3D — zdecydowanie nie na tym etapie.
Przetestowałem to, żebyście Wy nie musieli…





