Wydanie: PRESS 11-12/2019
Deepfake wideo
Odkąd zmanipulowane filmy służą nie tylko do obnażania gwiazd, ale i ataków na dziennikarzy, redakcje muszą się uczyć, jak sobie radzić z rozpoznawaniem fałszywych wideo.
Indyjska dziennikarka śledcza Rana Ayyub przez lata pracy przyzwyczaiła się do nękania. Dostawała telefony z pogróżkami, obraźliwe SMS-y. „Nazywano mnie seksualną niewolnicą ISIS, prostytutką. Przywykłam” – przyznała w rozmowie z „The Washington Post”. Jednak nic nie mogło jej przygotować na wiadomość, która przyszła w kwietniu 2018 roku na jej komunikator WhatsApp. Ayyub obejrzała kilka klatek i zamarła. Był to film pornograficzny z jej udziałem. „Czułam się po prostu naga” – powiedziała amerykańskiej stacji PRI.
Film robił wrażenie, mimo że wideo nie było perfekcyjnie przygotowane. Autor podmienił jedynie twarz aktorki porno na twarz dziennikarki. Kobiety różniła budowa ciała oraz fryzura, ale tego nie mógł wiedzieć ktoś, kto nie znał dobrze Ayyub.
W jej życiu rozpętało się piekło. Na wszystkie konta w mediach społecznościowych dostawała zrzuty ekranu z fragmentami filmu. Dziennikarka zaczęła mieć problemy z sercem, w końcu wylądowała w szpitalu. Na kilka miesięcy przestała udzielać się publicznie i korzystać z Twittera i Facebooka. Niewiele pomogła policja. Gdy kobieta zgłosiła się na posterunek i chciała, aby funkcjonariusze znaleźli sprawcę, ci jedynie wzruszyli ramionami. „Przecież widać, że to porno” – stwierdzili
Rana Ayyub padła ofiarą deepfake wideo. Programy do ich tworzenia są łatwo dostępne w internecie, wymagają jedynie przeciętnej wiedzy o technologiach i programowaniu. I choć pojawiały się już wcześniej sfałszowane filmiki ze znanymi aktorkami czy piosenkarkami, nikt wcześniej nie walczył za ich pomocą z dziennikarką, która w swoich tekstach otwarcie krytykuje rząd.
Stanisław M. Stanuch
Aby przeczytać cały artykuł:
Zapisz się na nasz newsletter i bądź na bieżąco z najświeższymi informacjami ze świata mediów i reklamy. Pressletter