Wie detecteert Deepfakes beter: Mens of machine?
Belangrijkste conclusies
De proliferatie van deepfake-technologie stelt de hedendaagse samenleving voor een groot aantal uitdagingen. Ze kan de verspreiding van misleidende informatie verergeren, de geloofwaardigheid van individuen ondermijnen door frauduleuze voorstellingen en zelfs aanzetten tot conflicten die de nationale veiligheid in gevaar brengen.
Ondanks de beschikbaarheid van geavanceerde AI-technologieën die ontworpen zijn om deepfakes te detecteren, is het essentieel om te erkennen dat deze methoden niet onfeilbaar zijn. Menselijk oordeel blijft daarom een cruciale rol spelen bij het identificeren van mogelijke gevallen van deepfakes.
Door de unieke capaciteiten van zowel menselijke analisten als kunstmatige intelligentiesystemen te integreren, is het mogelijk om de effectiviteit van het detecteren en tegengaan van de bedreigingen van deepfake technologie te vergroten. Hoewel beide hun eigen voordelen en beperkingen hebben, biedt de combinatie van deze twee benaderingen een uitgebreidere aanpak om deze opkomende uitdaging aan te pakken.
De opkomst van deepfake technologie vormt een alomtegenwoordige bedreiging voor verschillende facetten van de hedendaagse samenleving. Het vermogen om authenticiteit in digitale media te onderscheiden is steeds belangrijker geworden in de strijd tegen desinformatie, maar nu kunstmatige intelligentie steeds sneller voortschrijdt, moet men zich afvragen of vertrouwen op menselijke intuïtie of technologische bekwaamheid geschikter is om dergelijke bedrieglijke manipulaties te identificeren.
De gevaren van deepfakes
Naarmate kunstmatige intelligentie zich blijft ontwikkelen, neemt ook het potentieel van deepfake technologie toe om een ravage aan te richten in de samenleving. De proliferatie van deepfakes brengt tal van uitdagingen met zich mee die we moeten aanpakken om ons te beschermen tegen de schadelijke effecten ervan. Enkele van deze problemen zijn de verspreiding van verkeerde informatie, de erosie van vertrouwen in instellingen en de bestendiging van haatzaaiende taal en discriminatie. Het is noodzakelijk dat we waakzaam blijven in onze pogingen om deze opkomende dreiging te bestrijden en samen te werken om de gevolgen ervan te beperken.
Deepfake-technologie heeft de potentie om misleidende informatie te verspreiden via gemanipuleerde video- en audio-inhoud, waaronder valse nieuwsberichten die kunnen leiden tot misverstanden of zelfs publieke onrust.
Door zich voor te doen als echte personen kunnen DeepFakes reputaties schaden en mensen die ermee bekend zijn misleiden.
De bezorgdheid over de nationale veiligheid rond Deepfake-technologie draait voornamelijk om de mogelijkheid van gefabriceerde visuele en auditieve inhoud waarin wereldleiders worden afgebeeld die aanzetten tot vijandelijkheden, wat zou kunnen leiden tot catastrofale gevolgen op internationale schaal.
Het gebruik van misleidende visuals en soundbites kan tweedracht en onrust zaaien binnen bepaalde facties, waarbij emoties worden misbruikt voor manipulatieve doeleinden.
Cyberveiligheid is een groeiend probleem nu cybercriminelen gebruikmaken van technologie voor het klonen van stemmen op basis van kunstmatige intelligentie om zich voor te doen als betrouwbare bronnen en nietsvermoedende slachtoffers te misleiden via gepersonaliseerde communicatie, waardoor de kans op succesvolle aanvallen op individuele doelwitten toeneemt.
De snode toepassing van deepfake-technologie omvat de ongeautoriseerde toe-eigening van iemands afbeelding of gelijkenis, die op grote schaal kan worden verspreid zonder zijn of haar uitdrukkelijke toestemming.
Vertrouwen is gebaseerd op iemands vermogen om waarheid van leugen te onderscheiden. In omstandigheden waarin een dergelijk onderscheid niet mogelijk is, lijkt alle informatie inherent onbetrouwbaar.
Ontwikkelingen in deepfake technologie worden steeds realistischer, waardoor het steeds belangrijker wordt om betrouwbare methoden te ontwikkelen voor het identificeren van deze gemanipuleerde media-inhoud. Kunstmatige intelligentie (AI) biedt een mogelijke oplossing door de inzet van gespecialiseerde deepfake detectiemodellen. Hoewel deze tools veelbelovend zijn in het signaleren van frauduleuze video’s of afbeeldingen, zijn ze niet onfeilbaar, net als andere algoritmen die proberen AI-gegenereerde tekst te lokaliseren.
Op dit moment blijft de capaciteit voor menselijk oordeel en onderscheidingsvermogen een cruciale bron om onderscheid te maken tussen authentieke inhoud en gemanipuleerde media. De vraag rijst echter of mensen net zo goed in staat zijn om deepfake afbeeldingen en video’s te detecteren als de geavanceerde algoritmen die hiervoor zijn ontwikkeld.
Kunnen algoritmen deepfakes beter detecteren dan mensen?
Deepfakes zijn zo’n ernstige bedreiging dat technologiereuzen en onderzoeksgroepen enorme middelen besteden aan onderzoek en ontwikkeling. In 2019 boden bedrijven als Meta, Microsoft en Amazon tijdens een Deepfake Detection Challenge $1.000.000 aan prijzen aan voor het meest nauwkeurige detectiemodel.
Het best presterende model toonde een nauwkeurigheid van 82,56% op een dataset bestaande uit openbaar toegankelijke video’s. Toen het echter werd onderworpen aan een test met een set van 10.000 niet eerder waargenomen video’s, die de “black box dataset” werd genoemd, gingen de prestaties van hetzelfde model aanzienlijk achteruit en werd slechts 65,18% nauwkeurigheid behaald.
Ons onderzoek omvat een reeks onderzoeken naar de doeltreffendheid van op kunstmatige intelligentie gebaseerde deepfake detectiesystemen in vergelijking met menselijke prestaties.Hoewel de bevindingen in verschillende onderzoeken uiteenlopen, is het opmerkelijk dat mensen over het algemeen een gelijke of superieure staat van dienst hebben bij het identificeren van deepfakes in vergelijking met deze technologieën.
Eén onderzoek uit 2021, gepubliceerd op PNAS , ontdekte dat “gewone menselijke waarnemers” een iets hogere nauwkeurigheid bereikten dan de toonaangevende tools voor deepfakedetectie. Uit het onderzoek bleek echter ook dat de menselijke deelnemers en AI-modellen gevoelig waren voor verschillende soorten fouten.
Interessant genoeg heeft onderzoek uitgevoerd door The University of Sydney aangetoond dat het menselijk brein onbewust effectiever is in het herkennen van deepfakes dan onze bewuste inspanningen.
Visuele aanwijzingen in deepfakes detecteren
De fijne kneepjes van het detecteren van deepfakes vereisen een verschillende mate van onderzoek, afhankelijk van het type inhoud. Een opmerkelijk voorbeeld in 2020 was een deepfake die de Noord-Koreaanse leider Kim Jong-un afbeeldde als een sprekende figuur; in zulke gevallen kan het nuttig zijn om visuele elementen zoals mondvormen (visemen) en spraakklanken (fonemen) te onderzoeken op afwijkingen die de vervalsing zouden kunnen verraden.
Menselijke experts, toevallige kijkers en algoritmen kunnen allemaal dit soort analyses uitvoeren, ook al variëren de resultaten. Het MIT definieert acht vragen om deepfake video’s te helpen identificeren:
Om deepfakes van hoge kwaliteit te maken, is het belangrijk om je te richten op de gelaatstrekken van een individu, omdat deze vaak een significante transformatie ondergaan tijdens het proces.
Bij het evalueren van de gelaatstrekken is het belangrijk om te kijken naar de textuur en diepte van de huid op de wangen en het voorhoofd. Het uiterlijk van de huid moet consistent zijn met de leeftijdgerelateerde veranderingen in vergelijking met andere kenmerken zoals haar- en oogkleur. Hoewel de deepfake technologie aanzienlijk is verbeterd, kunnen er nog steeds inconsistenties zijn die opvallen bij het vergelijken van bepaalde aspecten van het gezicht.
Let goed op de ogen en wenkbrauwen bij het analyseren van de afbeelding. Zijn er onverwachte schaduwen die kunnen wijzen op het gebruik van deepfake-technologie? Hoewel deepfake algoritmes zijn ontworpen om de fysica van de echte wereld zo nauwkeurig mogelijk na te bootsen, zijn ze niet altijd in staat om elke nuance van een bepaald scenario vast te leggen. Daarom is het belangrijk om de visuele elementen van een afbeelding zorgvuldig te onderzoeken om mogelijke inconsistenties of anomalieën te identificeren die zouden kunnen wijzen op de aanwezigheid van deepfake manipulatie.
Let op de bril die je draagt. Veroorzaken ze enig ongemak of vervorming? Zien ze er overdreven glanzend of dof uit?Daarnaast is het belangrijk om te overwegen hoe de positie en beweging van je hoofd de intensiteit en richting van reflecties op de lenzen beïnvloedt. Hoewel de deepfake technologie aanzienlijke vooruitgang heeft geboekt in het simuleren van echte omgevingen, inclusief de dynamiek van verlichting, is het nog steeds mogelijk dat bepaalde nuances niet nauwkeurig worden vastgelegd, vooral met betrekking tot de natuurlijke fysica van lichtinteracties.
Het is belangrijk om op te merken dat de technologie die bekend staat als DeepFakes in staat is om gezichtshaar zoals een snor, bakkebaarden of baard toe te voegen of te verwijderen met een hoge mate van nauwkeurigheid. Hoewel het in deze opzichten overtuigende resultaten kan creëren, is de natuurlijkheid van gezichtshaartransformaties die met DeepFakes worden bereikt niet altijd volledig succesvol.
Let op eventuele onregelmatigheden of asymmetrieën in je gezichtsmoedervlekken, omdat ze kunnen duiden op potentiële gezondheidsrisico’s. Het is belangrijk om je moedervlekken zorgvuldig te onderzoeken. Het is belangrijk om je moedervlekken zorgvuldig te onderzoeken en te bepalen of ze er natuurlijk uitzien of niet. Als een moedervlek er onnatuurlijk uitziet of veranderingen heeft ondergaan, moet deze onmiddellijk door een dermatoloog worden onderzocht. Regelmatig zelfonderzoek kan helpen bij de vroege opsporing van huidkanker en andere aandoeningen die verband houden met abnormale moedervlekken.
Let op als de persoon in kwestie overmatig of onvoldoende knippert, omdat dit kan duiden op bepaalde psychologische toestanden of aandoeningen.
Let goed op de beweging van mijn lippen als ik spreek, want sommige deepfake video’s vertrouwen op lipsynchronisatie voor meer realisme. Let er bij het evalueren van een video op of de lipbewegingen er natuurlijk uitzien en in lijn zijn met wat er gezegd wordt.
Geavanceerde kunstmatige intelligentiesystemen die zijn ontworpen voor het detecteren van deepfakes zijn in staat om een reeks vergelijkbare indicatoren te onderzoeken, zij het met verschillende niveaus van effectiviteit. De voortdurende inspanningen van dataspecialisten omvatten het bedenken van innovatieve technieken, waaronder het identificeren van normale bloedstroompatronen in het gezicht van personen die hun toespraken op het scherm houden. Het is mogelijk dat de implementatie van nieuwe strategieën of verbeteringen aan huidige methodologieën ertoe leiden dat AI in de niet al te verre toekomst de menselijke prestaties op dit gebied overtreft.
Audio-aanwijzingen detecteren in deepfakes
De identificatie van deepfake-audio vormt een bijzondere hindernis door de afwezigheid van visuele indicatoren in video’s en het gebrek aan mogelijkheden om discrepanties tussen geluid en beeld te detecteren. Het identificeren van deepfakes is voornamelijk afhankelijk van auditief onderzoek, met extra ondersteuning van metadata-validatie in bepaalde situaties.
Uit een onderzoek gepubliceerd door University College London in 2023 bleek dat mensen 73% van de tijd deepfake spraak kunnen detecteren (Engels en Mandarijn). Net als bij deepfake video’s detecteren menselijke luisteraars vaak intuïtief onnatuurlijke spraakpatronen in door AI gegenereerde spraak, zelfs als ze niet kunnen aangeven wat er niet klopt.
Veel voorkomende tekens zijn:
⭐Slurring
⭐Lack of expression
⭐Background or interference noise
⭐Vocal or speech inconsistenties
⭐Lack of “fullness” in voices
⭐Overly-
De afwezigheid van gebreken of onregelmatigheden zoals valse beginstemmen, revisies en stembandklaring wordt een gebrek aan onvolkomenheden genoemd.
Nogmaals, algoritmen kunnen ook spraak analyseren voor dezelfde deepfake signalen, maar nieuwe methoden maken de hulpmiddelen effectiever. Onderzoek door USENIX identificeerde patronen in de reconstructie van het spraakkanaal van AI die er niet in slagen natuurlijke spraak na te bootsen. Samengevat produceren AI-stemgeneratoren audio die overeenkomt met smalle spraakkanalen (ongeveer zo groot als een drinkrietje) zonder de natuurlijke bewegingen van menselijke spraak.
Eerder onderzoek van het Horst Görtz Institute analyseerde echte en deepfake audio in het Engels en Japans en onthulde subtiele verschillen in de hogere frequenties van echte spraak en deepfakes.
Zowel auditieve signalen als fijne nuances in spraakpatronen zijn waarneembaar door zowel menselijke waarnemers als geavanceerde kunstmatige intelligentiesystemen. Met betrekking tot subtiele variaties bij hogere frequenties is het denkbaar dat AI-detectiemodellen een even grote mate van precisie bereiken, hoewel een even grote verbetering kan worden verwacht met betrekking tot door AI gegenereerde misleidingen of manipulaties.
Mensen en algoritmen worden allebei voor de gek gehouden door deepfakes, maar op verschillende manieren
Onderzoek wijst uit dat zowel menselijke waarneming als geavanceerde detectietechnologieën op basis van kunstmatige intelligentie een vergelijkbare vaardigheid vertonen in het onderscheiden van deepfake media. De doeltreffendheid van deze systemen kan variëren van ongeveer 50% tot meer dan 90%, waarbij de resultaten afhankelijk zijn van de specifieke criteria die tijdens het testen worden gehanteerd.
Vanuit een breder perspectief is het duidelijk dat zowel mensen als kunstmatige intelligentiesystemen vergelijkbaar kwetsbaar zijn voor de misleiding door deepfakes. Er is echter een essentieel verschil in de manier waarop we ten prooi vallen aan dergelijke manipulaties. Dit verschil zou wel eens ons krachtigste voordeel kunnen zijn in de confrontatie met de gevaren van deepfake technologieën.Het samengaan van menselijke capaciteiten met die van geavanceerde detectoren voor deepfakes belooft de inherente tekortkomingen van beide partijen te compenseren, waardoor de algehele resultaten toenemen.
Uit MIT onderzoek bleek bijvoorbeeld dat mensen beter waren in het identificeren van deepfakes van wereldleiders en beroemde mensen dan AI-modellen. Het onderzoek toonde ook aan dat de AI-modellen moeite hadden met beelden van meerdere personen, hoewel werd gesuggereerd dat dit het gevolg zou kunnen zijn van het feit dat de algoritmen zijn getraind op beelden van één spreker.
Het eerder genoemde onderzoek bracht daarentegen gevallen aan het licht waarin kunstmatige intelligentie de menselijke prestaties overtrof bij het analyseren van videoclips die werden gekenmerkt door ondermaatse kwaliteit, zoals wazigheid, korreligheid en duisternis, die mogelijk opzettelijk werden gebruikt om menselijke waarnemers te misleiden. Bovendien vereisen hedendaagse AI-detectietechnieken, zoals het onderzoeken van de bloedstroom in specifieke gezichtszones, een beoordeling die de menselijke capaciteiten te boven gaat.
Vooruitgang in de methodologie voor kunstmatige intelligentiesystemen om subtiele aanwijzingen te identificeren die mensen niet kunnen waarnemen, zal ongetwijfeld hun vermogen om zulke indicatoren te onderscheiden in de loop van de tijd vergroten. Tegelijkertijd kunnen deze ontwikkelingen echter ook leiden tot een toename in de geavanceerdheid van de misleidingstechnieken die AI gebruikt. Een kritische overweging met betrekking tot de toekomstige ontwikkeling van dit veld ligt dus in het bepalen of technologische innovaties die zijn ontworpen om deepfakes te ontmaskeren de steeds geavanceerdere mogelijkheden om deepfakes te genereren blijvend zullen overtreffen.
Dingen anders zien in het tijdperk van deepfakes
Naarmate de technologieën voor detectie van deepfakes door kunstmatige intelligentie zich verder ontwikkelen en het kaliber van deepfakes in de media toeneemt, kan de mogelijkheid van misleiding door AI die het vermogen om dergelijke manipulaties te herkennen overstijgt, een punt van zorg worden, net als in het geval van door AI gegenereerde teksten, waar menselijke beoordeling momenteel het belangrijkste middel is om dergelijke verzinsels tegen te gaan.
Het is noodzakelijk dat mensen bekend raken met de indicatoren van deepfake video’s om zichzelf te beschermen tegen mogelijke frauduleuze praktijken en het risico op het verspreiden van verkeerde informatie te beperken. De alomtegenwoordigheid van digitale communicatie vereist verhoogde waakzaamheid bij het verifiëren van online gedeelde informatie, zodat de integriteit van onze interacties en uitwisselingen niet in gevaar komt.