W sieci krąży filmik, na którym mężczyzna błaga na kolanach o pracę, a kobieta z ukraińskim akcentem odpowiada mu, że pracy nie ma. Material jest podpisany „Urząd Pracy Kraków”. To dezinformacja stworzona przez sztuczną inteligencję – typowy przykład deepfake’a mającego szerzyć nienawiść.
----- Reklama -----
Manipulacja obrazem z instytucji
Fałszywy filmik wykorzystuje w miarę realne miejsce, co ma nadać mu pozorów wiarygodności. To klasyczna technika manipulatorów – wykorzystanie wizerunku znanych instytucji do uwiarygodnienia fałszywych treści. Podobnych filmów jest w sieci coraz więcej, a wszystkie mają jeden cel: podsycać napięcia społeczne i szerzyć dezinformację.
Prawdziwy Urząd Pracy nigdy nie publikowałby takiego materiału. To instytucja państwowa, która działa według ściśle określonych procedur i standardów komunikacji. Każdy oficjalny komunikat przechodzi wieloetapową weryfikację, a treści są publikowane wyłącznie na oficjalnych kanałach.
No ładnie pic.twitter.com/bwPsMRqIRK----- Reklama -----
Co to jest deepfake?
Deepfake to technologia wykorzystująca sztuczną inteligencję do tworzenia fałszywych, ale realistycznych materiałów wideo i audio. Opiera się na sieciach neuronowych typu GAN (Generative Adversarial Networks), gdzie dwie sieci współpracują – jedna tworzy fałszywe treści, druga je weryfikuje, co pozwala na doskonalenie jakości.
Największym problemem jest dostępność tej technologii. Dziś każdy może stworzyć deepfake’a w kilka minut, nie potrzebując specjalistycznej wiedzy ani drogiego sprzętu. Narzędzia są tanie, łatwe w obsłudze i masowo dostępne w internecie.
Jak rozpoznać deepfake?
NASK podaje pięć podstawowych zasad rozpoznawania fałszywych filmów:
1. Błędy w generowaniu obrazu
Zwróć uwagę na niepoprawną animację ust – często nie pasują do wypowiadanych słów. Sztuczna inteligencja ma problemy z naturalnymi mikroekspresami, mruganiem czy subtelnymi ruchami twarzy.
2. Nienaturalny sposób mówienia
Automatycznie wygenerowany głos często niepoprawnie intonuje wypowiedzi, brzmi mechanicznie lub ma problemy z płynnym łączeniem słów.
3. Błędy gramatyczne
AI wciąż ma problemy z odmianą liczebników i złożoną składnią polskiego języka. Jeśli słyszysz niepoprawne formy gramatyczne, to czerwona lampka.
4. Niespójności logiczne
Mowa ciała może nie zgadzać się z wypowiadanymi słowami. Mimika twarzy wydaje się sztywna, pozbawiona naturalnych emocji.
5. Zabiegi maskujące
Twórcy deepfake’ów celowo nakładają efekty, tekstury, znaki wodne czy szumy dźwiękowe, żeby ukryć niedoskonałości.
Dodatkowe sygnały ostrzegawcze
Eksperci zwracają uwagę na detale:
- Punktowe rozmycia na twarzy lub jej krawędziach
- Nienaturalne oświetlenie i cienie niepasujące do źródła światła
- Statyczne tło, które wydaje się „doklejone”
- Ograniczone ruchy – najczęściej widać tylko tułów i głowę
- Brak naturalnych ruchów palców czy gestów
Sprawdź źródło i kontekst
Zawsze weryfikuj źródło materiału. Czy pochodzi z oficjalnej strony instytucji? Czy inne media o tym informują? Deepfake’i często pojawiają się na anonimowych kontach w mediach społecznościowych lub małowiarygodnych stronach.
Zadaj sobie pytanie o kontekst – czy to, co widzisz, wydaje się prawdopodobne? Czy pasuje do tego, co wiesz o danej instytucji lub osobie?
Narzędzia do weryfikacji
Jeśli masz wątpliwości, skorzystaj z dostępnych narzędzi:
- watchframebyframe.com – pozwala oglądać film klatka po klatce
- Sensity AI – platforma do analizy deepfake’ów
- Deepware Scanner – narzędzie do wykrywania manipulacji
Nie daj się manipulować
Celem takich filmów jest wywoływanie emocji i konfliktów społecznych. Zanim udostępnisz kontrowersyjny materiał, zatrzymaj się i pomyśl – czy to na pewno prawda? Weryfikacja zajmuje kilka minut, ale może uchronić Cię przed rozprzestrzenianiem kłamstw.
Pamiętaj: w dobie AI każdy może być „gwiazdą” fałszywego filmu. Twoja czujność to najlepsza obrona przed dezinformacją.