Serwis www.niedziela.be używa plików Cookies. Korzystając z serwisu bez zmiany ustawień przeglądarki wyrażasz zgodę na ich użycie. Aby poznać rodzaje plików cookie, cel ich użycia oraz sposób ich wyłączenia przeczytaj Politykę prywatności

Headlines:
Czy roboty odbiorą nam pracę?
Niemcy: Prawie 50% osób popiera zakaz skrajnie prawicowej AfD
Belgijskie myśliwce F-35 będą produkowane we Włoszech?
PRACA W BELGII: Szukasz pracy? Znajdziesz na www.NIEDZIELA.BE (sobota 10 maja 2025, www.PRACA.BE)
Zara otworzy największy sklep na świecie w Antwerpii!
Polska: Najtańsze zakupy zrobisz w tych sklepach. Ten sam lider po raz trzeci
Ojciec jako żywiciel rodziny – stereotyp silny również w Belgii
Prawdziwa pamięć czy fikcyjny produkt? Skandal z Renee Salt i „książkami duchów”
Belgia: 4 na 10 osób nigdy nie korzysta z AI w pracy
Wojna: Trump obwinia Putina: przełom w narracji o wojnie

Polska: Widzicie go? Słyszycie? A więc jest to Zełenski!

Polska: Widzicie go? Słyszycie? A więc jest to Zełenski! Fot. iStock / screen Facebook Центр стратегічних комунікацій та інформаційної безпеки

To, co widzimy, nie zawsze jest zgodne z rzeczywistością. Nowoczesne technologie pozwalają na robienie filmów z wykorzystaniem cudzego wizerunku. Metoda ich tworzenia jest nazywana deepfakiem. Właśnie przed takim działaniem ostrzega ukraińskie Centrum Strategicznych Komunikacji i Bezpieczeństwa Informacyjnego.

W Polsce popularnymi filmami typu deepfake były obrazy wykorzystujące m.in. twarze byłego ministra zdrowia Łukasza Szumowskiego czy prezydenta Andrzeja Dudy. Po sieci krążyły nagrania, w których można było zobaczyć, jak śpiewają jedną ze znanych piosenek o narkotykach. Chociaż jakość sfabrykowanych filmów nie pozostawiała wątpliwości, że są one fałszywe – profesjonaliści są w stanie przygotować taki montaż, który trudno będzie odróżnić od prawdziwego.

Właśnie tego obawia się ukraińskie CSKiB, które ostrzega w swoim komunikacie przed rosyjską propagandą. Deepfake może być elementem cybernetycznej wojny.

„Wyobraźcie sobie, że widzicie w telewizji Wołodymyra Zełenskiego, który wydaje oświadczenie w sprawie kapitulacji. Widzicie go? Słyszycie? A zatem to prawda. Ale to nie jest prawda. To technologia deepfake. Wiedzcie, że to fejk, którego celem jest dezorientacja, zasianie paniki, podkopanie zaufania i skłonienie naszych wojsk do poddania się” – czytamy w facebookowym wpisie.

Technika tworzenia tego typu filmów wykorzystuje zaawansowane algorytmy, które pozwalają odtworzyć mimikę twarzy ofiary w taki sposób, aby dopasowane były one do podłożonego dźwięku. To doskonałe narzędzie do manipulacji, bo nawet najbardziej czujne oko może nie dostrzec nieprawidłowości. Aby „wyłapać” sfabrykowany film, warto obserwować, czy ruch ust przemawiającej osoby jest zgodny ze słowami, które wypowiada.

Ukraińskie Centrum Strategicznych Komunikacji i Bezpieczeństwa apeluje, aby nie wierzyć w filmy z wykorzystaniem wizerunku prezydenta Wołodymyra Zełenskiego oświadczającego o poddaniu się rosyjskiej agresji.

„Zapewniamy – Ukraina nie skapituluje!” – czytamy w poście.

Link: TUTAJ


03.03.2022 Niedziela.BE // źródło: News4Media // fot. iStock / screen Facebook Центр стратегічних комунікацій та інформаційної безпеки

(sm)

 

Dodaj komentarz

Kod antyspamowy
Odśwież