Naukowcy nauczyli sztuczną inteligencję tworzyć fałszywe, wyjątkowo realistyczne nagrania znanych osób. Dzięki opracowanemu systemowi, mimika i ruchy głowy osoby podstawionej, zostały nałożone na istniejące wcześniej w sieci nagrania źródłowe np. celebrytów czy polityków. Efekt był piorunujący i wzbudził liczne kontrowersje.

Naukowcy, którzy opracowali tę technologię, sami przerazili się swojego wyczynu. Wcześniej przy pomocy odpowiedniego oprogramowania można było manipulować jedynie wyrazem twarzy. Wyniki były ciekawe, choć nie do końca przekonujące. Łatwo dało się rozróżnić sfałszowane nagranie od oryginału. Nowa technika powala na przeniesienie trójwymiarowego obrazu ruchu głowy, wyrazu twarzy i oczu oraz mrugania z filmowanej twarzy na inną osobę, której nagrania znajdują się w sieci.

Program o nazwie Deep Video Portraits powstał na bazie wcześniejszych, uczących się algorytmów. W efekcie otrzymano zaskakująco realistyczny, pełen detali i subtelności obraz. Program wychwytuje nawet delikatne kiwnięcie głową, czy wzruszenie ramionami.

Co więcej, nowa technika pozostawia po sobie znacznie mniejszą liczbę zniekształceń. To utrudnia ewentualne wykrycie fałszerstwa. Filmy są tak płynne, że badani ludzie nie byli w stanie dostrzec żadnej manipulacji nagraniem i twierdzili, że jest ono prawdziwe.

Czy Ty dałbyś radę wyłapać fałszerstwo? Zobacz na filmiku poniżej:

Nowe badania naukowców z Uniwersytetu Stanforda mają zostać zaprezentowane tego lata na konferencji SIGGRAPH poświęconej kręceniu filmów VR. Badacze wierzą, że technologia może zostać wykorzystana w praktyce. Dla przykładu filmowcy mogliby używać jej do dokonywania zmian w mimice twarzy aktorów już po nakręceniu zdjęć. Program może także zostać wykorzystany przy dubbingowaniu.

Mimo to technologia wzbudza sporo kontrowersji. Politycy i badacze obawiają się, że program pozwoli na tworzenie nowych, wyjątkowo groźnych i realistycznych fake newsów.

„Niestety mimo swoich pozytywnych stron, taka technologia mogłaby być nadużywana. Obecnie zmodyfikowane nagrania pozostawiają wiele śladów, dzięki którym można zorientować się w fałszerstwie. Ciężko przewidzieć kiedy podrabiane wideo będą nierozróżnialne od prawdziwych nagrań” – napisali badacze.

A tak wyglądają nagrania z wykorzystaniem twarzy Nicolasa Cage’a:

 

 

 

 

 

 

Źródło: Stanford University DziennikNaukowy