Contents

Quem detecta melhor as falsificações profundas? Homem ou máquina?

Key Takeaways

A proliferação da tecnologia deepfake apresenta uma infinidade de desafios para a sociedade contemporânea, abrangendo o potencial de exacerbar a difusão de informações enganosas, minando a credibilidade dos indivíduos através de representações fraudulentas e até mesmo incitando conflitos que comprometem a segurança nacional.

Apesar da disponibilidade de tecnologias avançadas de IA concebidas para detetar deepfakes, é essencial reconhecer que estes métodos não são infalíveis. Como tal, o julgamento humano continua a desempenhar um papel fundamental na identificação de potenciais instâncias de deepfakery.

Ao integrar as capacidades únicas dos analistas humanos e dos sistemas de inteligência artificial, é possível aumentar a eficácia da deteção e neutralização das ameaças colocadas pela tecnologia deepfake. Embora cada um tenha o seu próprio conjunto de vantagens e limitações, a combinação destas duas abordagens oferece uma abordagem mais abrangente para enfrentar este desafio emergente.

O surgimento da tecnologia deepfake representa uma ameaça generalizada a várias facetas da sociedade contemporânea. A capacidade de discernir a autenticidade nos meios digitais tornou-se cada vez mais crítica no combate à desinformação. No entanto, à medida que a inteligência artificial continua a avançar a um ritmo acelerado, há que ponderar se a confiança na intuição humana ou nas proezas tecnológicas é mais adequada para identificar essas manipulações enganosas.

Os perigos dos deepfakes

À medida que a inteligência artificial continua a desenvolver-se e a evoluir, também aumenta o potencial da tecnologia deepfake para causar estragos na sociedade. A proliferação de deepfakes coloca inúmeros desafios que temos de enfrentar para nos protegermos dos seus efeitos nocivos. Algumas dessas preocupações incluem a disseminação de desinformação, a erosão da confiança nas instituições e a perpetuação de discursos de ódio e discriminação. É imperativo que nos mantenhamos vigilantes nos nossos esforços para combater esta ameaça emergente e que trabalhemos em conjunto para atenuar o seu impacto.

A tecnologia Deepfake tem o potencial de propagar informações enganosas através de conteúdos de vídeo e áudio manipulados, incluindo notícias falsas que podem levar a mal-entendidos ou mesmo a agitação pública.

Através do ato de se fazer passar por pessoas reais, os DeepFakes têm o potencial de prejudicar reputações e enganar aqueles que estão familiarizados com eles.

As preocupações com a segurança nacional em torno da tecnologia Deepfake giram principalmente em torno do potencial de fabrico de conteúdos visuais e auditivos que retratam líderes mundiais incitando a hostilidades, o que poderia levar a consequências catastróficas à escala internacional.

A utilização de imagens e frases de efeito enganosas pode potencialmente incitar à discórdia e à agitação no seio de determinadas facções, explorando as emoções para fins de manipulação.

A cibersegurança tornou-se uma preocupação crescente, uma vez que os cibercriminosos utilizam a tecnologia de clonagem de voz alimentada por inteligência artificial para se fazerem passar por fontes fidedignas e enganar vítimas desprevenidas através de comunicações personalizadas, aumentando assim o potencial de ataques bem sucedidos a alvos individuais.

A aplicação nefasta da tecnologia deepfake envolve a apropriação não autorizada da imagem ou semelhança de um indivíduo, que pode ser amplamente divulgada sem o seu consentimento explícito.

O estabelecimento de confiança e segurança baseia-se na capacidade de discernir entre verdade e falsidade. Em circunstâncias em que essa distinção não é possível, toda a informação parece ser inerentemente não fiável.

Os avanços na tecnologia deepfake estão a melhorar constantemente o seu realismo, tornando cada vez mais importante o desenvolvimento de métodos fiáveis para identificar estes conteúdos mediáticos manipulados. A Inteligência Artificial (IA) oferece uma solução potencial através da implementação de modelos especializados de deteção de deepfake. Embora estas ferramentas sejam promissoras na deteção de vídeos ou imagens fraudulentas, não são infalíveis, à semelhança de outros algoritmos que procuram identificar textos gerados por IA.

Atualmente, a capacidade de julgamento e discernimento humano continua a ser um recurso crucial para distinguir entre conteúdos autênticos e meios manipulados. No entanto, coloca-se a questão de saber se os seres humanos possuem ou não uma capacidade igual para detetar imagens e vídeos deepfake em comparação com os algoritmos avançados que foram desenvolvidos para este fim.

Os algoritmos podem detetar deepfakes melhor do que os humanos?

Os deepfakes são uma ameaça suficientemente séria para que os gigantes da tecnologia e os grupos de investigação estejam a dedicar vastos recursos à investigação e desenvolvimento. Em 2019, empresas como a Meta, a Microsoft e a Amazon ofereceram $1.000.000 em prémios durante um Deepfake Detection Challenge para o modelo de deteção mais preciso.

O modelo com melhor desempenho demonstrou uma taxa de precisão de 82,56% num conjunto de dados constituído por vídeos acessíveis ao público. No entanto, quando submetido a um teste que envolveu um conjunto de 10.000 vídeos não observados anteriormente, referido como o “conjunto de dados da caixa negra”, o desempenho do mesmo modelo diminuiu significativamente, atingindo apenas 65,18% de precisão.

A nossa investigação abrange uma série de investigações que examinam a eficácia dos sistemas de deteção de deepfake baseados em inteligência artificial em comparação com o desempenho humano.Embora as descobertas divirjam em vários estudos, é digno de nota que, em geral, os humanos exibem um histórico igual ou superior na identificação de deepfakes quando comparados a essas tecnologias.

Um estudo de 2021 publicado em PNAS descobriu que “observadores humanos comuns” alcançaram uma taxa de precisão ligeiramente superior à das principais ferramentas de deteção de deepfake. No entanto, o estudo também descobriu que os participantes humanos e os modelos de IA eram suscetíveis a diferentes tipos de erros.

Curiosamente, uma investigação levada a cabo pela Universidade de Sydney descobriu que o cérebro humano é, inconscientemente, mais eficaz a detetar deepfakes do que os nossos esforços conscientes.

Detetar pistas visuais em deepfakes

Os meandros da deteção de deepfakes requerem vários graus de análise com base no tipo de conteúdo envolvido. Um caso notável em 2020 apresentou um deepfake retratando o líder norte-coreano Kim Jong-un como uma figura falante; nesses casos, pode ser benéfico examinar elementos visuais como formas de boca (visemas) e sons de fala (fonemas) em busca de discrepâncias que possam trair a falsificação.

Peritos humanos, observadores casuais e algoritmos podem efetuar este tipo de análise, mesmo que os resultados variem. O MIT define oito perguntas para ajudar a identificar vídeos deepfake:

Para criar deepfakes de alta qualidade, é importante concentrar-se nas características faciais de um indivíduo, uma vez que estas sofrem frequentemente uma transformação significativa durante o processo.

Ao avaliar as características faciais, é importante considerar a textura e a profundidade da pele nas bochechas e na testa. A aparência da pele deve ser consistente com as alterações relacionadas com a idade em comparação com outras características, como a cor do cabelo e dos olhos. Embora a tecnologia deepfake tenha avançado significativamente, ainda podem existir inconsistências que são perceptíveis quando se comparam determinados aspectos do rosto.

Preste muita atenção aos olhos e às sobrancelhas ao analisar a imagem. Existem sombras inesperadas que possam indicar a utilização de tecnologia deepfake? Embora os algoritmos de deepfake sejam concebidos para reproduzir a física do mundo real com a maior precisão possível, nem sempre conseguem captar todas as nuances de um determinado cenário. Por conseguinte, é importante examinar cuidadosamente os elementos visuais de uma imagem para identificar potenciais inconsistências ou anomalias que possam sugerir a presença de manipulação de deepfake.

Por favor, tome nota dos óculos que está a usar. Estão a causar algum desconforto ou distorção? Têm um aspeto excessivamente brilhante ou baço?Além disso, é importante considerar como a posição e o movimento da cabeça afectam a intensidade e a direção de quaisquer reflexos presentes nas lentes. Embora a tecnologia deepfake tenha feito avanços significativos na simulação de ambientes do mundo real, incluindo a dinâmica da iluminação, ainda é possível que certas nuances não sejam captadas com precisão, particularmente no que diz respeito à física natural das interacções da luz.

É importante notar que a tecnologia conhecida como DeepFakes tem a capacidade de adicionar ou remover pêlos faciais, como bigode, patilhas ou barba, com um elevado grau de precisão. Embora possa criar resultados convincentes nestes aspectos, a naturalidade das transformações de pêlos faciais conseguidas através do DeepFakes pode nem sempre ser totalmente bem sucedida.

Tenha em atenção quaisquer irregularidades ou assimetrias nas suas pintas faciais, pois podem ser indicativas de potenciais riscos para a saúde. É importante examinar cuidadosamente as suas pintas e determinar se parecem naturais ou não. Se uma toupeira não parecer natural ou tiver sofrido alterações, deve ser imediatamente avaliada por um dermatologista. Os auto-exames regulares podem ajudar na deteção precoce do cancro da pele e de outras doenças relacionadas com sinais anormais.

Tenha em atenção quaisquer casos de pestanejo excessivo ou insuficiente por parte do indivíduo em questão, uma vez que tal pode ser indicativo de determinados estados ou condições psicológicas.

Presta muita atenção ao movimento dos meus lábios enquanto falo, pois alguns vídeos deepfake dependem da sincronização dos lábios para serem realistas. Ao avaliar um vídeo, repare se os movimentos dos lábios parecem ou não naturais e de acordo com o que está a ser dito.

Os sistemas avançados de inteligência artificial concebidos para detetar deepfakes são capazes de examinar uma série de indicadores semelhantes, embora com diferentes níveis de eficácia. Os esforços contínuos dos especialistas em dados envolvem a conceção de técnicas inovadoras, incluindo a identificação de padrões normais de fluxo sanguíneo facial entre os indivíduos que proferem os seus discursos no ecrã. É possível que a implementação de novas estratégias ou o aperfeiçoamento das metodologias actuais possam levar a que a IA ultrapasse o desempenho humano nesta área num futuro não muito distante.

Deteção de pistas de áudio em deepfakes

A identificação de áudio deepfake apresenta um obstáculo distinto devido à ausência de indicadores visuais presentes nos vídeos e à falta de oportunidade de detetar discrepâncias entre o som e a imagem. O processo de identificação de deepfakes depende principalmente do exame auditivo, com apoio adicional da validação de metadados em determinadas situações.

Um estudo publicado pela University College London em 2023 revelou que os humanos conseguem detetar discursos falsos em 73% das vezes (inglês e mandarim). Tal como acontece com os vídeos deepfake, os ouvintes humanos detectam muitas vezes intuitivamente padrões de discurso não naturais no discurso gerado por IA, mesmo que não consigam especificar o que parece estar errado.

Os sinais mais comuns incluem:

⭐Desfoque

⭐Falta de expressão

⭐Ruído de fundo ou de interferência

⭐Inconsistências vocais ou de fala

⭐Falta de “plenitude” nas vozes

⭐Encenação excessivaA ausência de defeitos ou irregularidades, tais como falsos começos, revisões e limpeza das cordas vocais é referida como ausência de imperfeições.

Mais uma vez, os algoritmos também podem analisar o discurso para os mesmos sinais deepfake, mas novos métodos estão a tornar as ferramentas mais eficazes. A investigação da USENIX identificou padrões na reconstrução do trato vocal da IA que não conseguem emular o discurso natural. Resume que os geradores de voz de IA produzem áudio que corresponde a tractos vocais estreitos (aproximadamente do tamanho de uma palhinha) sem os movimentos naturais da fala humana.

Uma investigação anterior do Horst Görtz Institute analisou áudio genuíno e deepfake em inglês e japonês, revelando diferenças subtis nas frequências mais altas do discurso genuíno e dos deepfakes.

Tanto as pistas auditivas como as nuances finas dos padrões de discurso são discerníveis tanto por observadores humanos como por sistemas avançados de inteligência artificial. No que diz respeito a variações subtis em frequências mais elevadas, é concebível que os modelos de deteção de IA possam atingir um nível de precisão proporcional, embora se possa igualmente prever uma melhoria equivalente no que diz respeito a enganos ou manipulações gerados por IA.

Os humanos e os algoritmos são ambos enganados por deepfakes, mas de formas diferentes

A investigação indica que tanto a perceção humana como as tecnologias avançadas de deteção de inteligência artificial apresentam uma proficiência comparável no discernimento de meios de comunicação deepfake. A eficácia destes sistemas pode variar entre aproximadamente 50% e mais de 90%, com resultados de desempenho dependentes dos critérios específicos utilizados durante os testes.

Numa perspetiva mais alargada, é evidente que tanto os seres humanos como os sistemas de inteligência artificial são igualmente vulneráveis ao engano perpetrado pelos deepfakes. No entanto, existe uma distinção essencial na forma como somos vítimas de tais manipulações. Esta dissemelhança pode revelar-se a nossa maior vantagem no confronto com os perigos colocados pelas tecnologias deepfake.A convergência das capacidades humanas com as dos detectores avançados de deepfakes promete compensar as deficiências inerentes a qualquer uma das partes, aumentando assim os resultados globais.

Por exemplo, a investigação MIT revelou que os humanos eram melhores a identificar deepfakes de líderes mundiais e pessoas famosas do que os modelos de IA. Também revelou que os modelos de IA tiveram dificuldades com filmagens com várias pessoas, embora tenha sugerido que isso poderia resultar do facto de os algoritmos terem sido treinados em filmagens com oradores individuais.

Em contrapartida, a investigação acima mencionada revelou casos em que a inteligência artificial ultrapassou o desempenho humano ao analisar clips de vídeo caracterizados por uma qualidade inferior, como a desfocagem, a granulação e a escuridão, que podem ter sido deliberadamente empregues para enganar os observadores humanos. Além disso, as técnicas contemporâneas de deteção de IA, como o exame do fluxo sanguíneo em áreas faciais específicas, envolvem uma avaliação que ultrapassa as capacidades humanas.

Os avanços na metodologia dos sistemas de inteligência artificial para identificar pistas subtis que os humanos não conseguem perceber irão, sem dúvida, melhorar a sua capacidade de discernir esses indicadores ao longo do tempo. Ao mesmo tempo, porém, estes avanços podem também conduzir a um aumento da sofisticação das técnicas de engano utilizadas pela IA. Assim, uma consideração crítica relativa ao desenvolvimento futuro deste campo reside em determinar se as inovações tecnológicas concebidas para desmascarar os deepfakes irão ultrapassar persistentemente a natureza cada vez mais sofisticada das capacidades de geração de deepfake.

Ver as coisas de forma diferente na era das falsificações profundas

À medida que as tecnologias de deteção de falsificações profundas da inteligência artificial progridem e o calibre dos meios de comunicação com falsificações profundas aumenta, o potencial de engano através da IA que ultrapassa a capacidade de identificar tais manipulações pode tornar-se uma preocupação, tal como no caso dos textos gerados por IA, em que o julgamento humano é atualmente o principal meio de combater tais fabricações.

É imperativo que as pessoas se familiarizem com os indicadores dos vídeos deepfake para se protegerem de potenciais esquemas fraudulentos e para mitigarem o risco de espalharem desinformação. A omnipresença da comunicação digital exige uma maior vigilância na verificação das informações partilhadas em linha, para que não se comprometa a integridade das nossas interacções e trocas.