Naukowcy z Uniwersytetu Południowej Kalifornii (USC) opracowali oprogramowanie, które automatycznie konwertuje skan 3D danej osoby na postać do gry lub symulacji. Jeżeli wykonamy wszystko poprawnie, zajmie nam to nie więcej niż 4 minuty.
Zespołem dowodzi Ari Shapiro, szef grupy naukowej ds. Animacji i Symulacji Postaci USC. Grupa opracowała niedrogie rozwiązanie, które pozwala przekonwertować skan 3D twarzy i ciała na spersonalizowanego, w pełni poruszającego się, cyfrowego awatara. Cały proces jest stosunkowo prosty, szybki i co najważniejsze – dostępny dla każdego.
Oczywiście mówimy tu o samym oprogramowaniu, dlatego, aby wszystko się udało potrzebujemy skanu 3D siebie czy innej osoby, której awatara chcemy wykonać. Posłużyć to tego może nam np. Microsoft Kinect albo RealSense od Intel’a. Wyposażeni w urządzenie do skanowania, zaglądamy do zestawu narzędzi przygotowanych przez zespół badawczy USC. Składa się on z 3 elementów. Zaczynamy od wykonania skanu 3D za pomocą dostarczonego w paczce narzędzia do skanowania. Następnie przepuszczamy plik przez autorigger, aby ukończyć konwersje modelu na zrozumiały dla gier. Na koniec używając narzędzia do symulacji SmartBody, sprawimy, że nasz awatar będzie umiał się poruszać, wykonywać gesty i animować nasze komendy. Jak podkreślają programiści, SmartBody jest kluczowym elementem całej układanki, gdyż sprawia, że modele 3D ożywają. USC stale rozwija to narzędzie i w następnej aktualizacji znajdzie się pokaźna paczka mimiki i wyrazów twarzy.
Ciągle obserwujemy wszystkie aspekty tego, co czyni ludzi, ludźmi. Szukamy, jak możemy wymodelować daną osobę, żeby sprawiała przekonywujące wrażenie, że jest tą osobą, a więc uchwycić jej esencję. Staramy się stworzyć cyfrową osobę, która myśli, działa i zachowuje się jak zwyczajna osoba.
Ari Shapiro, szef zespołu USC ds. Animacji i Symulacji Postaci
Do tej pory technologia pozwalająca na taką konwersję była była droga. Zespół z Uniwersytetu Południowej Kalifornii chce, aby ich oprogramowanie było darmowe, a także w wersji open source, tak aby również inni mogli je rozwijać. Shapiro mówi, że „istnieje sporo narzędzi do tworzenia gier i obrazów 3D, jednak brakuje pomostu, który zespoli cały proces bez udziału wysoce wyspecjalizowanych profesjonalistów i oprogramowania”. Udostępniając swoją pracę zespół USC otwiera pole do popisu programistom i zapaleńcom.
Program SmartBody został napisany w języku C++ i jest kompatybilny z silnikami takimi jak Unity, Unreal Engine, Ogre, Panda3D czy GameBryo. Działa na Windowsie, Linuxie, OSx i na urządzeniach mobilnych.
Ciekawe są możliwości użycia i rozwoju tego oprogramowania, np. w kontekście mediów społecznościowych. Obecnie opierają się one o nasze awatary ze zdjęć, jednak nie tak daleka przyszłość może zwrócić nas w stronę Wirtualnej Rzeczywistości, gdzie napotkamy cyfrowe awatary samych siebie i naszych przyjaciół. Shapiro przypomina, że Oculus Rift wypuścił aplikację Oculus Social, która pozwala na interakcję pomiędzy graczami w wirtualnej przestrzeni. Pomysł może nie być wcale tak futurystyczny, choć nie jestem przekonany, czy jednak Rozszerzona Rzeczywistość, z cyfrowymi aplikacjami i obiektami, które dodawane są do naszego rzeczywistego świata i ja, nie znajdzie większego zainteresowania wśród ludzkości, niż nasze wersje cyfrowe.
Źródła: www.3ders.org, www.smartbody.ict.usc.edu