PSL przygotuje własny projekt ustawy w sprawie dzieci na polowaniach
Na szczęście istnieją techniki i metody, które mogą pomóc w rozpoznaniu filmów wygenerowanych przez AI i uchronić nas przed dezinformacją.
Jeszcze do niedawna jednym z najprostszych sposobów wykrywania filmów generowanych przez AI było wychwytywanie oczywistych błędów w szczegółach. Nienaturalny układ dłoni, nieprawidłowa liczba palców czy bezsensowne napisy w tle często zdradzały pochodzenie materiału.
Twórcy fałszywych nagrań znaleźli jednak sposób na obejście tego problemu - celowo obniżają jakość obrazu. Ziarniste, rozmazane i niewyraźne filmy mogą więc stanowić tzw. czerwoną flagę, czyli sygnał ostrzegawczy dla odbiorcy.
Oczywiście nagrania z kamer monitoringu z natury mają gorszą jakość, jednak filmy rejestrowane telefonami komórkowymi - zwłaszcza nowej generacji - powinny oferować dobrą ostrość obrazu, stabilizację i czytelne detale. Ich brak powinien wzbudzić naszą czujność.
Mimo ogromnych postępów technologicznych, algorytmy AI nadal mają trudności z idealnym odwzorowaniem ludzkiej mimiki i mikroekspresji. Warto zwrócić szczególną uwagę na ruch ust zsynchronizowany z mową - to jeden z najczęstszych słabych punktów generowanych nagrań.
Problem ten jest szczególnie widoczny w filmach, w których wypowiedzi są w języku polskim. Nasz język, ze względu na złożoną fonetykę, wciąż stanowi wyzwanie nawet dla zaawansowanych modeli sztucznej inteligencji.
Kolejną często spotykaną niespójnością są cienie, które zachowują się w sposób nienaturalny lub niekonsekwentny. Jeśli potrafimy wskazać źródło światła w kadrze, łatwo zauważymy błędy, których sztuczna inteligencja wciąż nie potrafi skutecznie zamaskować.
Problematyczny dla algorytmów AI pozostaje także drugi plan. Uważna obserwacja tła pozwala dostrzec nietypowe ruchy, znikające postacie czy artefakty obrazu, które często zdradzają ingerencję lub całkowitą manipulację nagraniem.
Równie istotna jak warstwa wizualna jest sama treść nagrania. Jeśli coś wydaje się zbyt idealne, by było prawdziwe - najczęściej takie właśnie jest. Podobnie w przypadku materiałów skrajnie kontrowersyjnych, emocjonalnych lub perfekcyjnie wpisujących się w narrację jednej ze stron sporu.
Takie filmy często mają na celu manipulację odbiorcą, dlatego każdą sensacyjną informację warto dodatkowo zweryfikować w wiarygodnych źródłach.
Specjaliści z zakresu wideo i cyberbezpieczeństwa mogą analizować tzw. metadane, czyli zestaw informacji technicznych zawartych w każdym pliku wideo. Dane te mogą ujawniać m.in. sposób powstania nagrania, użyte narzędzia czy historię modyfikacji materiału.
Choć dla przeciętnego użytkownika analiza metadanych bywa trudna, w przypadku wątpliwości warto polegać na opiniach ekspertów i organizacji zajmujących się weryfikacją treści.
Oprócz samodzielnej analizy warto korzystać z dostępnych narzędzi, które pomagają w identyfikacji treści generowanych przez AI:
Wszystkie opisane metody mają jednak swój „termin ważności”. Rozwój sztucznej inteligencji sprawia, że weryfikacja treści będzie coraz trudniejsza. Długofalowym rozwiązaniem pozostaje wprowadzenie jasnych procedur oraz regulacji prawnych dotyczących wykorzystania AI.
Do tego czasu najskuteczniejszą formą ochrony pozostaje zdrowy sceptycyzm i ostrożność wobec wszystkiego, co oglądamy w internecie. Intencje osób i organizacji stojących za wiralowymi filmami nie zawsze są czyste - dlatego warto myśleć krytycznie, zanim uwierzymy w to, co widzimy na ekranie.
Źródła:
How to Identify AI-Generated Videos & Detect Fake Content https://www.resemble.ai/how-to-tell-if-a-video-is-ai-generated/?utm_source=chatgpt.com
The number one sign you're watching an AI video https://www.bbc.com/future/article/20251031-the-number-one-sign-you-might-be-watching-ai-video
Deepfake – jak rozpoznać fałszywe treści? Wojskowa Akademia Techniczna https://promocja.wat.edu.pl/cyberwat/deep-fake-jak-rozpoznac-falszywe-tresci/
Matthew Groh, Aruna Sankaranarayanan, Nikhil Singh, Dong Young Kim, Andrew Lippman&Rosalind Picard;Human detection of political speech deepfake sacrosstranscripts, audio, and video; Nature Communications https://www.nature.com/articles/s41467-024-51998-z