Contents

Kto lepiej wykrywa podróbki: Człowiek czy maszyna?

Kluczowe wnioski

Rozprzestrzenianie się technologii deepfake stanowi wiele wyzwań dla współczesnego społeczeństwa, obejmując potencjał zaostrzenia rozpowszechniania wprowadzających w błąd informacji, podważania wiarygodności osób poprzez fałszywe oświadczenia, a nawet podżegania do konfliktów, które zagrażają bezpieczeństwu narodowemu.

Pomimo dostępności zaawansowanych technologii sztucznej inteligencji zaprojektowanych do wykrywania deepfake’ów, należy pamiętać, że metody te nie są nieomylne. W związku z tym ludzka ocena nadal odgrywa kluczową rolę w identyfikowaniu potencjalnych przypadków fałszerstw.

Integrując unikalne możliwości zarówno ludzkich analityków, jak i systemów sztucznej inteligencji, możliwe jest zwiększenie skuteczności wykrywania i przeciwdziałania zagrożeniom stwarzanym przez technologię deepfake. Chociaż każde z nich ma swój własny zestaw zalet i ograniczeń, połączenie tych dwóch podejść oferuje bardziej kompleksowe podejście do tego pojawiającego się wyzwania.

Pojawienie się technologii deepfake stanowi wszechobecne zagrożenie dla różnych aspektów współczesnego społeczeństwa. Zdolność do rozpoznania autentyczności w mediach cyfrowych staje się coraz bardziej krytyczna w zwalczaniu dezinformacji, ale ponieważ sztuczna inteligencja rozwija się w coraz szybszym tempie, należy zastanowić się, czy poleganie na ludzkiej intuicji lub sprawności technologicznej jest bardziej odpowiednie do identyfikowania takich zwodniczych manipulacji.

The Dangers of Deepfakes

Wraz z rozwojem i ewolucją sztucznej inteligencji, rośnie również potencjał technologii deepfake, która może siać spustoszenie w społeczeństwie. Rozprzestrzenianie się deepfake’ów stwarza liczne wyzwania, którym musimy sprostać, aby uchronić się przed ich szkodliwymi skutkami. Niektóre z tych obaw obejmują rozprzestrzenianie się dezinformacji, erozję zaufania do instytucji oraz utrwalanie mowy nienawiści i dyskryminacji. Konieczne jest, abyśmy pozostali czujni w naszych wysiłkach na rzecz zwalczania tego pojawiającego się zagrożenia i współpracowali w celu złagodzenia jego wpływu.

Technologia Deepfake może potencjalnie rozpowszechniać wprowadzające w błąd informacje poprzez zmanipulowane treści wideo i audio, w tym fałszywe wiadomości, które mogą prowadzić do nieporozumień, a nawet niepokojów społecznych.

Podszywając się pod prawdziwe osoby, DeepFakes mogą potencjalnie zaszkodzić reputacji i wprowadzić w błąd tych, którzy są z nimi zaznajomieni.

Obawy dotyczące bezpieczeństwa narodowego związane z technologią Deepfake dotyczą przede wszystkim możliwości tworzenia treści wizualnych i dźwiękowych przedstawiających światowych przywódców podżegających do wrogości, co może prowadzić do katastrofalnych konsekwencji na skalę międzynarodową.

Wykorzystanie wprowadzających w błąd materiałów wizualnych i dźwiękowych może potencjalnie wywołać niezgodę i wstrząsy w poszczególnych frakcjach, wykorzystując emocje do celów manipulacyjnych.

Cyberbezpieczeństwo staje się coraz większym problemem, ponieważ cyberprzestępcy wykorzystują technologię klonowania głosu opartą na sztucznej inteligencji, aby podszywać się pod wiarygodne źródła i oszukiwać niczego niepodejrzewające ofiary poprzez spersonalizowaną komunikację, zwiększając w ten sposób potencjał udanych ataków na poszczególne cele.

Nikczemne zastosowanie technologii deepfake obejmuje nieautoryzowane przywłaszczenie wizerunku lub podobieństwa danej osoby, które może być szeroko rozpowszechniane bez jej wyraźnej zgody.

Ustanowienie zaufania i pewności opiera się na zdolności do odróżnienia prawdy od fałszu. W okolicznościach, w których takie rozróżnienie nie jest możliwe, wszystkie informacje wydają się z natury niewiarygodne.

Postępy w technologii deepfake stale zwiększają ich realizm, co sprawia, że coraz ważniejsze staje się opracowanie niezawodnych metod identyfikacji tych zmanipulowanych treści medialnych. Sztuczna inteligencja (AI) oferuje potencjalne rozwiązanie poprzez wdrożenie wyspecjalizowanych modeli wykrywania deepfake. Chociaż narzędzia te są obiecujące w oznaczaniu fałszywych filmów lub obrazów, nie są nieomylne, podobnie jak inne algorytmy, które mają na celu wskazanie tekstu wygenerowanego przez sztuczną inteligencję.

Obecnie zdolność ludzkiego osądu i rozeznania pozostaje kluczowym zasobem w rozróżnianiu autentycznych treści od zmanipulowanych mediów. Pojawia się jednak pytanie, czy ludzie mają taką samą zdolność do wykrywania fałszywych obrazów i filmów w porównaniu z zaawansowanymi algorytmami, które zostały opracowane w tym celu.

Czy algorytmy mogą wykrywać deepfake’i lepiej niż ludzie?

Deepfakes są na tyle poważnym zagrożeniem, że giganci technologiczni i grupy badawcze przeznaczają ogromne zasoby na badania i rozwój. W 2019 r. firmy takie jak Meta, Microsoft i Amazon zaoferowały nagrody w wysokości 1 000 000 USD podczas Deepfake Detection Challenge za najdokładniejszy model wykrywania.

Najskuteczniejszy model wykazał dokładność na poziomie 82,56% w zbiorze danych składającym się z publicznie dostępnych filmów. Niemniej jednak, gdy poddano go testowi obejmującemu zestaw 10 000 wcześniej nieobserwowanych filmów, zwanych “zbiorem danych czarnej skrzynki”, wydajność tego samego modelu znacznie spadła, osiągając jedynie 65,18% dokładności.

Nasze badania obejmują szereg badań sprawdzających skuteczność opartych na sztucznej inteligencji systemów głębokiego wykrywania podróbek w porównaniu z wydajnością człowieka.Chociaż wyniki różnych badań różnią się od siebie, warto zauważyć, że ogólnie rzecz biorąc, ludzie wykazują równe lub lepsze osiągnięcia w identyfikowaniu deepfake’ów w porównaniu z tymi technologiami.

Jedno z badań z 2021 roku opublikowane w PNAS wykazało, że “zwykli ludzcy obserwatorzy” osiągnęli nieco wyższy wskaźnik dokładności niż wiodące narzędzia do wykrywania deepfake’ów. Badanie wykazało jednak również, że uczestnicy ludzcy i modele AI były podatne na różne rodzaje błędów.

Co ciekawe, badania przeprowadzone przez The University of Sydney wykazały, że ludzki mózg jest nieświadomie bardziej skuteczny w wykrywaniu deepfake’ów niż nasze świadome wysiłki.

Wykrywanie wizualnych wskazówek w deepfake’ach

Zawiłości wykrywania deepfake’ów wymagają różnego stopnia zbadania w zależności od rodzaju treści. Godnym uwagi przypadkiem w 2020 r. był deepfake przedstawiający przywódcę Korei Północnej Kim Dzong Una jako mówiącą postać; w takich przypadkach korzystne może okazać się zbadanie elementów wizualnych, takich jak kształty ust (visemes) i dźwięki mowy (phonemes) pod kątem rozbieżności, które mogłyby zdradzić fałszerstwo.

Eksperci, przypadkowi widzowie i algorytmy mogą przeprowadzać tego rodzaju analizy, nawet jeśli wyniki są różne. MIT definiuje osiem pytań, które pomagają zidentyfikować deepfake wideo:

Aby stworzyć wysokiej jakości deepfake, ważne jest, aby skupić się na rysach twarzy osoby, ponieważ często ulegają one znacznej transformacji podczas procesu.

Podczas oceny rysów twarzy ważne jest, aby wziąć pod uwagę teksturę i głębokość skóry na policzkach i czole. Wygląd skóry powinien być spójny ze zmianami związanymi z wiekiem w porównaniu z innymi cechami, takimi jak kolor włosów i oczu. Chociaż technologia deepfake znacznie się rozwinęła, nadal mogą występować niespójności, które są zauważalne przy porównywaniu niektórych aspektów twarzy.

Podczas analizy obrazu zwróć szczególną uwagę na oczy i brwi. Czy występują jakieś nieoczekiwane cienie, które mogą potencjalnie wskazywać na użycie technologii deepfake? Chociaż algorytmy deepfake zostały zaprojektowane w celu jak najdokładniejszego odwzorowania fizyki świata rzeczywistego, nie zawsze są w stanie uchwycić wszystkie niuanse danego scenariusza. Dlatego ważne jest, aby dokładnie zbadać elementy wizualne obrazu w celu zidentyfikowania wszelkich potencjalnych niespójności lub anomalii, które mogą sugerować obecność manipulacji deepfake.

Zwróć uwagę na okulary, które nosisz. Czy powodują one dyskomfort lub zniekształcenia? Czy wydają się być nadmiernie błyszczące lub matowe?Ponadto ważne jest, aby wziąć pod uwagę, w jaki sposób pozycja i ruch głowy wpływa na intensywność i kierunek wszelkich odbić obecnych na soczewkach. Podczas gdy technologia deepfake poczyniła znaczne postępy w symulowaniu rzeczywistych środowisk, w tym dynamiki oświetlenia, nadal możliwe jest, że pewne niuanse mogą nie zostać dokładnie uchwycone, szczególnie w odniesieniu do naturalnej fizyki interakcji światła.

Należy zauważyć, że technologia znana jako DeepFakes umożliwia dodawanie lub usuwanie zarostu, takiego jak wąsy, bokobrody lub broda, z dużą dokładnością. Chociaż może ona tworzyć przekonujące wyniki w tym zakresie, naturalność transformacji zarostu osiągnięta dzięki DeepFakes może nie zawsze być w pełni udana.

Należy zwrócić uwagę na wszelkie nieregularności lub asymetrie znamion na twarzy, ponieważ mogą one wskazywać na potencjalne zagrożenia dla zdrowia. Ważne jest, aby dokładnie zbadać swoje znamiona i określić, czy wyglądają naturalnie, czy nie. Jeśli pieprzyk wygląda nienaturalnie lub uległ zmianie, powinien zostać niezwłocznie oceniony przez dermatologa. Regularne samobadanie może pomóc we wczesnym wykryciu raka skóry i innych schorzeń związanych z nieprawidłowymi pieprzykami.

Należy zwrócić uwagę na wszelkie przypadki nadmiernego lub niewystarczającego mrugania ze strony danej osoby, ponieważ może to wskazywać na pewne stany psychiczne lub warunki.

Zwróć szczególną uwagę na ruch moich ust podczas mówienia, ponieważ niektóre filmy deepfake polegają na synchronizacji ust w celu uzyskania realizmu. Oceniając wideo, zwróć uwagę, czy ruchy warg wydają się naturalne i zgodne z tym, co jest mówione.

Zaawansowane systemy sztucznej inteligencji zaprojektowane do wykrywania deepfake’ów są w stanie badać szereg podobnych wskaźników, aczkolwiek z różnym poziomem skuteczności. Nieustanne wysiłki specjalistów od danych obejmują opracowywanie innowacyjnych technik, w tym identyfikację normalnych wzorców przepływu krwi na twarzy wśród osób wygłaszających przemówienia na ekranie. Możliwe, że wdrożenie nowatorskich strategii lub ulepszeń obecnych metodologii może doprowadzić do tego, że sztuczna inteligencja przewyższy ludzką wydajność w tej dziedzinie w niedalekiej przyszłości.

Wykrywanie wskazówek dźwiękowych w deepfake’ach

Identyfikacja deepfake’ów stanowi charakterystyczną przeszkodę ze względu na brak wizualnych wskaźników obecnych w filmach i brak możliwości wykrycia rozbieżności między dźwiękiem a obrazem. Proces identyfikacji deepfake’ów zależy przede wszystkim od badania słuchu, z dodatkowym wsparciem ze strony walidacji metadanych w niektórych sytuacjach.

Badanie opublikowane przez University College London w 2023 roku wykazało, że ludzie są w stanie wykryć fałszywą mowę w 73% przypadków (w języku angielskim i mandaryńskim). Podobnie jak w przypadku filmów deepfake, ludzcy słuchacze często intuicyjnie wykrywają nienaturalne wzorce mowy w mowie generowanej przez sztuczną inteligencję, nawet jeśli nie potrafią określić, co wydaje się nie tak.

Typowe znaki obejmują:

⭐Rozmycie

⭐Brak ekspresji

⭐Tło lub szum interferencyjny

⭐Niespójności wokalne lub mowy

⭐Brak “pełni” w głosie

⭐Nadmiernie-

Brak wad lub nieprawidłowości, takich jak fałszywe początki, rewizje i oczyszczanie strun głosowych jest określane jako brak niedoskonałości.

Po raz kolejny algorytmy mogą również analizować mowę pod kątem tych samych głębokich fałszywych sygnałów, ale nowe metody sprawiają, że narzędzia są bardziej skuteczne. Badania przeprowadzone przez USENIX zidentyfikowały wzorce w rekonstrukcji traktu głosowego AI, które nie naśladują naturalnej mowy. Podsumowując, generatory głosu AI wytwarzają dźwięk pasujący do wąskich ścieżek głosowych (mniej więcej wielkości słomki do picia) bez naturalnych ruchów ludzkiej mowy.

Wcześniejsze badania przeprowadzone przez Horst Görtz Institute przeanalizowały prawdziwy i deepfake audio w języku angielskim i japońskim, ujawniając subtelne różnice w wyższych częstotliwościach prawdziwej mowy i deepfake.

Zarówno wskazówki słuchowe, jak i drobne niuanse we wzorcach mowy są dostrzegalne zarówno przez ludzkich obserwatorów, jak i zaawansowane systemy sztucznej inteligencji. W odniesieniu do subtelnych zmian na wyższych częstotliwościach można sobie wyobrazić, że modele wykrywania AI mogą osiągnąć proporcjonalny poziom precyzji, chociaż można również oczekiwać równoważnej poprawy w odniesieniu do oszustw lub manipulacji generowanych przez AI.

Ludzie i algorytmy dają się oszukać deepfake’om, ale na różne sposoby

Badania wskazują, że zarówno ludzka percepcja, jak i zaawansowane technologie wykrywania sztucznej inteligencji wykazują porównywalną biegłość w rozpoznawaniu deepfake’ów. Skuteczność tych systemów może wahać się od około 50% do ponad 90%, przy czym wyniki wydajności zależą od konkretnych kryteriów zastosowanych podczas testów.

Z szerszej perspektywy oczywiste jest, że zarówno ludzie, jak i systemy sztucznej inteligencji są podobnie podatne na oszustwa popełniane przez deepfake. Istnieje jednak zasadnicza różnica w sposobie, w jaki padamy ofiarą takich manipulacji. Ta odmienność może okazać się naszą największą zaletą w konfrontacji z zagrożeniami stwarzanymi przez technologie deepfake.Konwergencja ludzkich zdolności z zaawansowanymi detektorami podróbek obiecuje zrekompensować nieodłączne wady każdej ze stron, zwiększając w ten sposób ogólne wyniki.

Na przykład, badania MIT wykazały, że ludzie byli lepsi w identyfikowaniu deepfake’ów światowych przywódców i znanych osób niż modele AI. Ujawniono również, że modele AI zmagały się z materiałami filmowymi z wieloma osobami, chociaż zasugerowano, że może to wynikać z algorytmów szkolonych na materiałach filmowych z pojedynczymi mówcami.

W przeciwieństwie do tego, wspomniane wyżej badania ujawniły przypadki, w których sztuczna inteligencja przewyższała ludzką wydajność podczas analizowania klipów wideo charakteryzujących się niską jakością, takich jak rozmycie, ziarnistość i ciemność, które mogły zostać celowo wykorzystane do wprowadzenia w błąd ludzkich obserwatorów. Ponadto współczesne techniki wykrywania AI, takie jak badanie przepływu krwi w określonych obszarach twarzy, wymagają oceny wykraczającej poza ludzkie możliwości.

Postęp w metodologii systemów sztucznej inteligencji w celu identyfikacji subtelnych wskazówek, których ludzie nie mogą dostrzec, niewątpliwie zwiększy ich zdolność do rozpoznawania takich wskaźników w czasie. Jednocześnie jednak postępy te mogą również prowadzić do wzrostu wyrafinowania zwodniczych technik stosowanych przez sztuczną inteligencję. W związku z tym kluczową kwestią dotyczącą przyszłego rozwoju tej dziedziny jest ustalenie, czy innowacje technologiczne mające na celu zdemaskowanie deepfake’ów będą stale przewyższać coraz bardziej wyrafinowany charakter możliwości generowania deepfake’ów.

Widząc rzeczy inaczej w erze deepfake’ów

Wraz z postępem technologii wykrywania głębokich fałszerstw sztucznej inteligencji i wzrostem kalibru głęboko sfałszowanych mediów, potencjał oszustwa poprzez sztuczną inteligencję przewyższającą zdolność do identyfikowania takich manipulacji może stać się niepokojący, podobnie jak w przypadku tekstów generowanych przez sztuczną inteligencję, w których ludzka ocena jest obecnie głównym środkiem zwalczania takich fabrykacji.

Konieczne jest, aby osoby fizyczne zapoznały się ze wskaźnikami deepfake’owych filmów, aby zabezpieczyć się przed potencjalnymi oszustwami, a także zmniejszyć ryzyko rozpowszechniania dezinformacji. Wszechobecność komunikacji cyfrowej wymaga wzmożonej czujności w weryfikowaniu informacji udostępnianych online, aby nie zagrażały one integralności naszych interakcji i wymian.