O que é o FraudGPT? Como se proteger deste chatbot perigoso
A emergência da inteligência artificial (IA) apresenta uma situação dupla, oferecendo possibilidades significativas de progresso e, simultaneamente, ameaças substanciais. Embora os esforços para controlar a IA estejam a ser defendidos com veemência, parece que indivíduos ou entidades mal-intencionados ultrapassaram essas medidas.
O aparecimento de um novo modelo de chatbot, conhecido como FraudGPT, tem-se revelado popular entre os cibercriminosos. Esta ferramenta inovadora permite a estes indivíduos racionalizar e melhorar uma parte significativa das suas actividades ilícitas através da automatização. Como tal, existe um risco considerável de que qualquer indivíduo possa ser vítima desta ameaça, sublinhando a importância de estar vigilante e bem informado sobre as suas características. Abaixo estão as informações actuais disponíveis no FraudGPT.
O que é o FraudGPT?
O FraudGPT é um instrumento avançado de inteligência artificial, concebido especificamente com o objetivo de ajudar os cibercriminosos na prática de cibercrimes. Esta ferramenta de IA de alta qualidade pode ser acedida através de um serviço de assinatura, proporcionando aos utilizadores a capacidade de realizar várias actividades ilícitas, como fraudes com cartões de crédito, esquemas de phishing e desenvolvimento de malware.
Embora os detalhes sobre a ferramenta permaneçam muito limitados, os investigadores da Netenrich, uma empresa de investigação de segurança, descobriram vários anúncios na dark web a publicitar a ferramenta. De acordo com o relatório de investigação da Netenrich , as taxas de subscrição variam entre 200 dólares por mês e 1.700 dólares por ano.
O FraudGPT funciona de forma semelhante ao ChatGPT, mas o seu objetivo é combater actividades fraudulentas online. Podemos imaginar o FraudGPT como um chatbot avançado programado com a capacidade de identificar e prevenir comportamentos fraudulentos em plataformas digitais. A funcionalidade desta ferramenta baseia-se em algoritmos de inteligência artificial que analisam padrões no comportamento do utilizador para detetar potenciais instâncias de fraude. Os cibercriminosos são conhecidos por utilizar esta tecnologia para obter acesso não autorizado a informações confidenciais ou roubar dinheiro de utilizadores desprevenidos.
Como é que o FraudGPT funciona?
Crédito da imagem:
Freepik
O FraudGPT não se desvia substancialmente das ferramentas típicas que são alimentadas por um grande modelo de linguagem. Essencialmente, é uma interface interligada concebida para que indivíduos mal intencionados tenham acesso a um tipo específico de modelo de linguagem que foi aperfeiçoado para perpetrar cibercrimes.
No início da implementação do ChatGPT, as funcionalidades do chatbot de IA eram versáteis e incluíam potenciais aplicações malévolas, devido ao facto de o seu modelo de linguagem ser alimentado por um extenso corpus que englobava diversos conjuntos de dados, alguns dos quais podem ter sido utilizados por entidades ilícitas para os seus objectivos.
Um modelo linguístico de grandes dimensões é geralmente fornecido com um conjunto diversificado de dados que englobam conteúdos salutares, como teorias científicas, informações sobre saúde e discurso político, bem como material censurável, incluindo amostras de código malware, mensagens de campanhas de cibercrime, como carding e phishing, e outros materiais ilícitos. Dado o âmbito dos conjuntos de dados necessários para treinar modelos linguísticos colossais como os utilizados pelo ChatGPT, é quase inevitável que estes modelos incluam instâncias de dados indesejáveis.
Apesar das tentativas diligentes de erradicar todos os elementos indesejáveis de um determinado conjunto de dados, alguns vestígios podem persistir e ser suficientes para que um modelo de aprendizagem automática produza materiais que ajudem nas actividades cibercriminosas. Consequentemente, uma estratégia eficaz de engenharia rápida pode resultar no desenvolvimento de ferramentas como o ChatGPT, o Google Bard e o Bing AI, que podem ajudar na composição de mensagens de correio eletrónico fraudulentas ou no desenvolvimento de software malicioso.
A utilização de ferramentas avançadas de inteligência artificial como o FraudGPT, que foi aperfeiçoado com intenções nefastas e melhorado para além do seu objetivo original, representa uma ameaça iminente para as medidas de cibersegurança. O potencial de danos generalizados que pode ser infligido por uma força tão formidável é alarmante, especialmente quando se considera a natureza prolífica desta tecnologia em comparação com os métodos tradicionais de atividade criminosa.
A utilização deste dispositivo pode ser facilitada pelos cibercriminosos através da conversação com o chatbot de uma forma semelhante à do ChatGPT. Os criminosos podem solicitar ao chatbot que produza e-mails fraudulentos dirigidos a um indivíduo chamado Jane Doe, empregado na organização ABC, ou talvez solicitar a geração de software malicioso escrito em C++ para apreender todos os documentos PDF situados num computador com Windows 10. Essencialmente, os actores nefastos podem simplesmente conceber uma automatização maligna e confiar ao chatbot a realização das árduas tarefas envolvidas.
Como se pode proteger da FraudGPT?
O aparecimento do FraudGPT não representa uma forma radicalmente nova de atividade maliciosa. Pelo contrário, pode ser visto como uma melhoria das técnicas existentes para perpetrar o cibercrime através da utilização de automação avançada e de uma maior eficácia operacional.
A utilização deste instrumento pode potencialmente levar à criação de mensagens de phishing mais persuasivas, esquemas melhorados para esquemas fraudulentos e malware mais eficiente por parte dos criminosos, embora estes continuem, em grande parte, a empregar métodos convencionais na execução das suas actividades malévolas. Por conseguinte, os meios tradicionais de proteção contra essas ameaças continuam a ser aplicáveis.
É aconselhável ter cuidado ao receber comunicações não solicitadas que peçam informações pessoais ou que levem a clicar em hiperligações, uma vez que é essencial validar a autenticidade de tais fontes antes de fornecer quaisquer dados ou navegar através delas.
É aconselhável estabelecer comunicação com as organizações em causa através de um meio verificável e imparcial para verificar a sua autenticidade. Verifique os detalhes de contacto da organização utilizando uma fonte autónoma em vez de confiar em qualquer mensagem duvidosa ou suspeita recebida de fontes desconhecidas.
É imperativo utilizar palavras-passe robustas e distintas, que sejam difíceis de decifrar, e adotar com entusiasmo a autenticação multifactor para todas as contas, sempre que esta seja oferecida. Além disso, deve evitar-se a divulgação de palavras-passe ou códigos que lhes sejam transmitidos.
Inspecionar periodicamente os registos financeiros para detetar quaisquer transacções invulgares ou não autorizadas é uma precaução essencial para garantir a segurança das contas.
Certifique-se de que o seu software é atualizado regularmente e utilize programas antivírus ou anti-malware para proteger o seu sistema de potenciais ameaças.
Quando os papéis com dados pessoais ou financeiros já não são necessários, é aconselhável destruí-los para manter a confidencialidade e proteger as informações sensíveis de potenciais violações.
Para saber mais sobre as medidas que pode tomar para se proteger na era da inteligência artificial, consulte o nosso guia completo sobre
Mantenha-se informado para se proteger
O advento de inovações como o FraudGPT serve como um lembrete saliente de que, embora a inteligência artificial (IA) tenha o potencial de conferir inúmeros benefícios à sociedade, também apresenta um instrumento formidável ao alcance de entidades malévolas.
Enquanto as entidades governamentais e as principais empresas de inteligência artificial se empenham numa busca intensa para implementar métodos mais eficazes para governar a IA, é imperativo reconhecer o perigo potencial que a IA representa atualmente e adotar medidas adequadas para se salvaguardar.