Vem upptäcker deepfakes bäst? Människa eller maskin?
Viktiga slutsatser
Spridningen av deepfake-teknik innebär en mängd utmaningar för dagens samhälle, eftersom den kan förvärra spridningen av missvisande information, undergräva enskilda personers trovärdighet genom bedrägliga framställningar och till och med uppmuntra till konflikter som äventyrar den nationella säkerheten.
Trots tillgången till avancerad AI-teknik som är utformad för att upptäcka deepfakes är det viktigt att inse att dessa metoder inte är ofelbara. Mänskliga bedömningar fortsätter att spela en avgörande roll för att identifiera potentiella fall av deepfakes.
Genom att integrera de unika egenskaperna hos både mänskliga analytiker och system för artificiell intelligens är det möjligt att öka effektiviteten i att upptäcka och motverka de hot som deepfake-tekniken utgör. Även om varje metod har sina egna fördelar och begränsningar, erbjuder kombinationen av dessa två metoder en mer heltäckande strategi för att hantera denna nya utmaning.
Framväxten av deepfake-teknik utgör ett genomgripande hot mot olika aspekter av det moderna samhället. Förmågan att urskilja äkthet i digitala medier har blivit allt viktigare för att bekämpa felaktig information, men eftersom artificiell intelligens fortsätter att utvecklas i allt snabbare takt måste man fundera på om mänsklig intuition eller teknisk skicklighet är mer lämpad för att identifiera sådana vilseledande manipulationer.
Farorna med deepfakes
I takt med att artificiell intelligens fortsätter att utvecklas, ökar också risken för att deepfake-tekniken skapar förödelse i samhället. Spridningen av deepfakes innebär många utmaningar som vi måste ta itu med för att skydda oss mot deras skadliga effekter. Några av dessa problem är spridningen av felaktig information, urholkningen av förtroendet för institutioner och förekomsten av hatpropaganda och diskriminering. Det är absolut nödvändigt att vi fortsätter att vara vaksamma i våra ansträngningar att bekämpa detta framväxande hot och arbetar tillsammans för att mildra dess inverkan.
Deepfake-teknik har potential att sprida vilseledande information genom manipulerat video- och ljudinnehåll, inklusive falska nyhetsrapporter som kan leda till missförstånd eller till och med allmän oro.
Genom att efterlikna verkliga personer har DeepFakes potential att skada rykten och vilseleda dem som är bekanta med dem.
Farhågorna för den nationella säkerheten kring Deepfake-tekniken handlar främst om risken för tillverkat visuellt och auditivt innehåll som visar världsledare som uppmanar till fientligheter, vilket kan leda till katastrofala följder på internationell nivå.
Användningen av vilseledande bilder och soundbites kan potentiellt skapa osämja och omvälvningar inom vissa fraktioner och utnyttja känslor för manipulativa syften.
Cybersäkerhet har blivit ett allt större problem eftersom cyberbrottslingar använder röstkloningsteknik som drivs av artificiell intelligens för att utge sig för att vara pålitliga källor och lura intet ont anande offer genom personlig kommunikation, vilket ökar potentialen för framgångsrika attacker mot enskilda mål.
Den skadliga tillämpningen av deepfake-teknik innebär obehörigt tillägnande av en persons bild eller liknelse, som kan spridas brett utan deras uttryckliga samtycke.
Upprättandet av förtroende och tillit bygger på en persons förmåga att skilja mellan sanning och lögn. Under omständigheter där sådana distinktioner inte är möjliga framstår all information som otillförlitlig.
Framstegen inom deepfake-tekniken gör att deras realism stadigt förbättras, vilket gör det allt viktigare att utveckla tillförlitliga metoder för att identifiera detta manipulerade medieinnehåll. Artificiell intelligens (AI) erbjuder en potentiell lösning genom användning av specialiserade modeller för att upptäcka deepfake. Även om dessa verktyg är lovande när det gäller att flagga för bedrägliga videor eller bilder är de inte ofelbara, i likhet med andra algoritmer som försöker hitta AI-genererad text.
För närvarande är människans förmåga att bedöma och urskilja fortfarande en avgörande resurs för att skilja mellan autentiskt innehåll och manipulerade medier. Frågan är dock om människor har samma förmåga att upptäcka deepfake-bilder och -videor som de avancerade algoritmer som har utvecklats för detta ändamål.
Kan algoritmer upptäcka deepfakes bättre än människor?
Deepfakes är ett tillräckligt allvarligt hot för att teknikjättar och forskningsgrupper ska kunna ägna stora resurser åt forskning och utveckling. Under 2019 erbjöd Meta, Microsoft och Amazon 1 000 000 USD i priser under en Deepfake Detection Challenge för den mest exakta detekteringsmodellen.
Den högst presterande modellen uppvisade en noggrannhet på 82,56 % på ett dataset bestående av offentligt tillgängliga videor. När samma modell utsattes för ett test med en uppsättning på 10 000 tidigare oobserverade videor, som kallas “black box dataset”, minskade dock prestandan avsevärt och uppnådde endast 65,18 % noggrannhet.
Vår forskning omfattar en rad undersökningar av effektiviteten hos artificiell intelligensbaserade system för upptäckt av deepfake i jämförelse med mänskliga prestationer.Även om resultaten skiljer sig åt mellan olika studier är det anmärkningsvärt att människor i stort sett uppvisar lika bra eller bättre resultat när det gäller att identifiera deepfakes jämfört med dessa tekniker.
En studie från 2021 som publicerades på PNAS fann att “vanliga mänskliga observatörer” uppnådde en något högre noggrannhet än de ledande verktygen för att upptäcka deepfake. Studien visade dock också att de mänskliga deltagarna och AI-modellerna var mottagliga för olika typer av misstag.
Intressant nog har forskning utförd av The University of Sydney visat att den mänskliga hjärnan omedvetet är mer effektiv på att upptäcka deepfakes än våra medvetna ansträngningar.
Detektera visuella ledtrådar i deepfakes
Invecklingen av deepfake-detektering kräver olika grader av undersökning baserat på vilken typ av innehåll som är inblandat. Ett anmärkningsvärt fall under 2020 var en deepfake som avbildade Nordkoreas ledare Kim Jong-un som en talande figur. I sådana fall kan det vara bra att granska visuella element som munformer (visemes) och språkljud (fonemes) för avvikelser som kan avslöja förfalskningen.
Mänskliga experter, tillfälliga tittare och algoritmer kan alla utföra denna typ av analys, även om resultaten varierar. MIT definierar åtta frågor som hjälper till att identifiera deepfake-videor:
För att skapa deepfakes av hög kvalitet är det viktigt att fokusera på en persons ansiktsdrag eftersom de ofta genomgår betydande omvandling under processen.
När man utvärderar ansiktsdragen är det viktigt att ta hänsyn till hudens struktur och djup på kinderna och pannan. Hudens utseende bör överensstämma med dess åldersrelaterade förändringar i jämförelse med andra egenskaper som hår- och ögonfärg. Även om deepfake-tekniken har utvecklats avsevärt kan det fortfarande finnas inkonsekvenser som är märkbara när man jämför vissa aspekter av ansiktet.
Var uppmärksam på ögonen och ögonbrynen när du analyserar bilden. Finns det några oväntade skuggor som skulle kunna tyda på användning av deepfake-teknik? Deepfake-algoritmerna är utformade för att återskapa den verkliga fysiken så exakt som möjligt, men de kanske inte alltid kan fånga alla nyanser i ett visst scenario. Därför är det viktigt att noggrant undersöka de visuella elementen i en bild för att identifiera eventuella inkonsekvenser eller avvikelser som kan tyda på förekomst av deepfake-manipulation.
Vänligen notera vilka glasögon du bär. Orsakar de något obehag eller distorsion? Ser de ut att vara överdrivet blanka eller tråkiga?Dessutom är det viktigt att tänka på hur huvudets position och rörelser påverkar intensiteten och riktningen på eventuella reflektioner på linserna. Även om deepfake-tekniken har gjort betydande framsteg när det gäller att simulera verkliga miljöer, inklusive dynamiken i belysningen, är det fortfarande möjligt att vissa nyanser inte fångas korrekt, särskilt när det gäller den naturliga fysiken i ljusinteraktioner.
Det är viktigt att notera att den teknik som kallas DeepFakes har kapacitet att antingen lägga till eller ta bort ansiktsbehåring som mustasch, polisonger eller skägg med en hög grad av noggrannhet. Även om DeepFakes kan skapa övertygande resultat i dessa avseenden, är det inte säkert att de naturliga ansiktsbehåringarna som uppnås med DeepFakes alltid är helt lyckade.
Observera eventuella oregelbundenheter eller asymmetrier i dina födelsemärken i ansiktet, eftersom de kan vara tecken på potentiella hälsorisker. Det är viktigt att noggrant undersöka dina födelsemärken och avgöra om de ser naturliga ut eller inte. Om ett födelsemärke verkar onaturligt eller har genomgått förändringar bör det omedelbart utvärderas av en hudläkare. Regelbundna självundersökningar kan bidra till tidig upptäckt av hudcancer och andra tillstånd som är relaterade till onormala födelsemärken.
Notera om personen i fråga blinkar för mycket eller för lite, eftersom det kan vara ett tecken på vissa psykologiska tillstånd.
Var uppmärksam på mina läpprörelser när jag talar, eftersom vissa deepfake-videor är beroende av läppsynkronisering för realism. När du utvärderar en video ska du notera om läpprörelserna verkar naturliga och i linje med vad som sägs.
Avancerade system för artificiell intelligens som är utformade för att upptäcka deepfakes kan undersöka en rad liknande indikatorer, om än med varierande effektivitetsnivåer. Dataspecialister arbetar kontinuerligt med att ta fram innovativa tekniker, inklusive att identifiera normala blodflödesmönster i ansiktet hos personer som håller sina tal på skärmen. Det är möjligt att implementeringen av nya strategier eller förbättringar av nuvarande metoder kan leda till att AI överträffar mänsklig prestanda på detta område inom en inte alltför avlägsen framtid.
Detektera ljudledtrådar i deepfakes
Att identifiera deepfake-ljud är ett stort hinder eftersom det inte finns några visuella indikatorer i videor och det inte finns någon möjlighet att upptäcka avvikelser mellan ljud och bild. Processen för att identifiera deepfakes beror främst på hörselundersökning, med ytterligare stöd från metadatavalidering i vissa situationer.
En studie som publicerades 2023 av University College London visade att människor kan upptäcka deepfake-tal 73 % av gångerna (engelska och mandarin). Precis som med deepfake-videor upptäcker mänskliga lyssnare ofta intuitivt onaturliga talmönster i AI-genererat tal, även om de inte kan specificera vad som verkar fel.
Vanliga tecken är t.ex:
⭐Oskärpa
⭐Brist på uttryck
⭐Bakgrunds- eller störningsljud
⭐Inkonsekvenser i röst eller tal
⭐Brist på “fyllighet” i röster
⭐Vidlyftigt- ochskriptad leverans
Frånvaron av defekter eller oregelbundenheter såsom falska början, revideringar och stämbandsrensning kallas för avsaknad av brister.
Återigen kan algoritmer också analysera tal för samma deepfake-signaler, men nya metoder gör verktygen mer effektiva. Forskning av USENIX identifierade mönster i AI:s rekonstruktion av röstkanaler som inte efterliknar naturligt tal. Den sammanfattar att AI-röstgeneratorer producerar ljud som matchar smala röstkanaler (ungefär lika stora som ett sugrör) utan de naturliga rörelserna hos mänskligt tal.
Tidigare forskning från Horst Görtz Institute analyserade äkta och deepfake-ljud på engelska och japanska, vilket avslöjade subtila skillnader i de högre frekvenserna hos äkta tal och deepfakes.
Både hörselintryck och finkorniga nyanser i talmönster kan urskiljas av både mänskliga observatörer och avancerade artificiella intelligenssystem. När det gäller subtila variationer vid högre frekvenser är det tänkbart att AI-detekteringsmodeller kan uppnå en motsvarande nivå av precision, även om en motsvarande förbättring också kan förväntas när det gäller AI-genererade bedrägerier eller manipulationer.
Både människor och algoritmer luras av deepfakes, men på olika sätt
Forskning visar att både mänsklig perception och avancerad teknik för att upptäcka artificiell intelligens uppvisar en jämförbar förmåga att urskilja deepfake-media. Effektiviteten hos dessa system kan variera från cirka 50 % till över 90 %, med resultat som beror på de specifika kriterier som används under testningen.
Ur ett bredare perspektiv är det uppenbart att både människor och artificiella intelligenssystem är lika sårbara för bedrägerier som begås av deepfakes. Det finns dock en väsentlig skillnad i hur vi faller offer för sådana manipulationer. Denna olikhet kan visa sig vara vår största fördel när vi konfronterar de faror som deepfake-tekniken utgör.Konvergensen mellan mänskliga förmågor och avancerade detektorer för deepfakes lovar att kompensera för de inneboende bristerna hos båda parter och därigenom öka de övergripande resultaten.
Till exempel visade MIT forskning att människor var bättre på att identifiera deepfakes av världsledare och kända personer än AI-modeller. Det visade sig också att AI-modellerna kämpade med bilder med flera personer, även om det föreslogs att detta kunde bero på att algoritmerna tränades på bilder med enskilda talare.
Däremot avslöjade den ovannämnda forskningen fall där artificiell intelligens överträffade mänsklig prestanda vid analys av videoklipp som kännetecknas av undermålig kvalitet, såsom suddighet, kornighet och mörker, vilket kan ha använts medvetet för att vilseleda mänskliga observatörer. Dessutom innebär moderna AI-detekteringstekniker som att undersöka blodflödet inom specifika ansiktsområden en bedömning som ligger utanför människans förmåga.
Framsteg inom metodik för artificiella intelligenssystem för att identifiera subtila signaler som människor inte kan uppfatta kommer utan tvekan att förbättra deras förmåga att urskilja sådana indikatorer över tiden. Samtidigt kan dock dessa framsteg också leda till en ökning av sofistikerade bedrägeritekniker som används av AI. En avgörande faktor för den framtida utvecklingen av detta område är därför att avgöra om tekniska innovationer som är utformade för att avslöja deepfakes kommer att fortsätta att överträffa den alltmer sofistikerade karaktären hos deepfake-genereringsförmågan.
Att se saker annorlunda i en tid av deepfakes
I takt med att teknikerna för att upptäcka djupa förfalskningar med hjälp av artificiell intelligens utvecklas och de djupt förfalskade medierna blir allt bättre, kan risken för bedrägerier genom AI som överträffar förmågan att identifiera sådana manipulationer bli ett problem, ungefär som i fallet med AI-genererade texter där mänskliga bedömningar för närvarande är det främsta sättet att bekämpa sådana fabrikationer.
Det är absolut nödvändigt för individer att bli bekanta med indikatorerna för deepfake-videor för att skydda sig mot potentiella bedrägliga system samt minska risken för att sprida felaktig information. Den digitala kommunikationens allestädesnärvaro kräver ökad vaksamhet när det gäller att verifiera information som delas online, så att den inte äventyrar integriteten i våra interaktioner och utbyten.