Przejdź do głównej treści

Widok zawartości stron Widok zawartości stron

Nawigacja okruszkowa Nawigacja okruszkowa

Nawigacja Nawigacja

Widok zawartości stron Widok zawartości stron

Widok zawartości stron Widok zawartości stron

Deepfake - mydlenie oczu w XXI wieku

Deepfake - mydlenie oczu w XXI wieku

Jest ich dwóch. Są ubrani w garnitury. Od listopada 2018 roku prezentują wiadomości w chińskiej telewizji. W marcu 2019 roku dołączy do nich kobieta. Ludzie? Nie. Humanoidy stworzone przez markę Sogou (chińska wyszukiwarka) i rządową agencję informacyjną Xinhua. O sztucznej inteligencji i deepfake’ach pisze dla nas dr Kamil Mamak z Katedry Prawa Karnego WPiA UJ.

W codziennym doświadczaniu świata opieramy się na tym, co dostarczają nam nasze zmysły, na tym co widzimy, czujemy, słyszymy, czy dotykamy. Nie mamy jednak pewnego sposobu poznania istoty rzeczy. Możemy ufać tylko naszemu aparatowi poznawczemu, a ten jest ułomny. Dotyczy to wielu kwestii. Przykładowo, nigdy z całą pewnością nie możemy stwierdzić co czuje inne osoba. Możemy obserwować jej reakcje ciała, analizować ton głosu czy mimikę, ale to nigdy nie da nam to stuprocentowej pewności co „siedzi w głowie” drugiego człowieka. Jeżeli ktoś dobrze udaje, to może nas zmylić, bo opieramy się na tym co nam się jawi. Nasze ograniczenia poznawcze to jest jeden z największych problemów związanych z technologią deepfake. Filmy, w których nie występuje żywa osoba, a wygenerowane są z użyciem nowoczesnych technologii mogą nas wprowadzać w błąd.

Jeżeli wiemy, że mamy do czynienia ze sztucznie wygenerowaną treścią, to nie ma większego zagrożenia, podobnie, gdy treść ma charakter satyryczny, tak jak niedawny trend, w który popularni politycy „śpiewali” piosenki. Problemy zaczyna się, gdy nie wiemy, że film, na który patrzymy, jest nieprawdziwy. Przykłady potencjalnych zagrożeń łatwo sobie wyobrazić. 

Tuż przed wyborami publikowany jest film, na którym konserwanty polityk, który prowadzi o włos w sondażach, wypowiada treści, które są zaprzeczeniem tego, co dotychczas twierdził. Taki film, może odwrócić losy wyborów. Innym zagrożeniem mogą być oszustwa. Jeżeli zadzwoni do nas na czacie wideo znajomy, z prośbą o przelanie mu pieniędzy, bo akurat teraz nie ma dostępu do własnego konta, to jest duża szansa, że damy się na to nabrać, bazując na wyświetlanej nazwie, jego głosie i wyglądzie.

Przed takimi zagrożeniami w niedostateczny sposób chroni nas prawo, choć nie jest też do końca tak, że deepfake’i są zupełnie poza zakresem jego zainteresowania. Przykład z „kolegą”, który prosi nas o pieniądze to oszustwo, za które także teraz można skazać twórców takiego deepfake’a. Większy problem możemy mieć z pierwszym przykładem związanym z wyborami. Wprawdzie taki film może być przestępstwem, jednak kluczowe jest to, żeby go w ogóle nie było. W Kalifornii widząc takie zagrożenia, przygotowano prawo, które w okresie wyborczym zabrania publikowania takich treści.

Niestety prawo nie rozwiąże wszystkich problemów. Prawo, jeżeli działa, to przeważnie po tym jak coś się stało, mało pomocne jest w momencie, gdy coś złego się dzieje. Niestety deepfake to zagrożenie, do którego trzeba się będzie przyzwyczaić. Podobnie jak kiedyś musieliśmy nauczyć się żyć z faktem, że za pomocą Photoshopu można zmienić każde zdjęcie. Obecnie krytycznie nauczyć się musimy patrzeć także na video.

dr Kamil Mamak

Katedra Prawa Karnego UJ

 

Zdjęcia wykorzystane w tekście: China Xinhua News