Contents

3 Riscos e preocupações com a privacidade dos chatbots que deve conhecer

Os chatbots existem há vários anos, mas o aparecimento de grandes modelos linguísticos, como o ChatGPT e o Google Bard, deu um novo fôlego à indústria dos chatbots.

Os indivíduos utilizam globalmente chatbots baseados em inteligência artificial aos milhões; no entanto, é crucial considerar os potenciais riscos para a privacidade quando se exploram estas tecnologias.

Recolha de dados

Os chatbots evoluíram significativamente desde as suas primeiras encarnações como assistentes virtuais básicos que podiam simplesmente cumprimentar os utilizadores. Os chatbots contemporâneos são capazes de responder a questões complexas e de satisfazer uma série de pedidos, necessitando frequentemente de um grande número de informações por parte dos utilizadores. Apesar de a questão ser simples, os indivíduos geralmente preferem que esta se mantenha dentro dos limites da sua interação.

De acordo com a secção de apoio da OpenAI , pode eliminar os registos de conversação do ChatGPT sempre que desejar, e esses registos serão permanentemente eliminados dos sistemas da OpenAI após 30 dias. No entanto, a empresa retém e analisa determinados registos de conversação se estes tiverem sido assinalados como conteúdo nocivo ou inadequado.

Outro chatbot de IA popular, o Claude, também regista as suas conversas anteriores. O centro de suporte da Anthropic afirma que o Claude rastreia “os seus prompts e outputs no produto para lhe proporcionar uma experiência de produto consistente ao longo do tempo, de acordo com os seus controlos”. Pode apagar as suas conversas com o Claude, para que ele se esqueça do que tem estado a falar, mas isso não significa que a Anthropic apague imediatamente os seus registos dos seus sistemas.

É possível questionar se as informações pessoais estão a ser retidas ou não. Além disso, levanta questões sobre a utilização desses dados por entidades como o ChatGPT e outros sistemas de IA de conversação.

Mas as preocupações não se ficam por aqui.

Como é que o ChatGPT aprende?

Para fornecer informações, são treinados grandes modelos linguísticos com enormes quantidades de dados. De acordo com o Science Focus , só o ChatGPT-4 recebeu 300 mil milhões de palavras de informação durante o seu período de treino. Isto não é retirado diretamente de algumas enciclopédias. Em vez disso, os programadores de chatbots utilizam grandes quantidades de informação da Internet para treinar os seus modelos. Isto pode incluir dados de livros, filmes, artigos, entradas da Wikipédia, publicações em blogues, comentários e até sites de avaliação.

Tendo em conta que alguns programadores de chatbots podem ter políticas de privacidade diferentes, é possível que algumas das fontes de dados mencionadas anteriormente não sejam utilizadas durante o processo de treino.

ChatGPT tem sido alvo de críticas generalizadas devido à falta de medidas adequadas para salvaguardar a privacidade dos utilizadores. Este sentimento sugere que os utilizadores estão preocupados com a potencial utilização indevida ou divulgação das suas informações pessoais por ChatGPT. Consequentemente, muitos indivíduos vêem o ChatGPT como uma entidade não fiável no que diz respeito à proteção de dados sensíveis. As razões subjacentes a estas preocupações podem resultar de vários factores, tais como protocolos de encriptação insuficientes, práticas de tratamento de dados pouco rigorosas e transparência inadequada relativamente às políticas de recolha e utilização de dados.

A declaração fornecida pelo ChatGPT-3.5 sobre a ausência de exposição direta a comentários de artigos de utilizadores e a análises de produtos durante o seu processo de formação parece inequívoca. No entanto, após uma análise mais aprofundada, parece haver alguma ambiguidade quanto à extensão desta afirmação. Quando questionado especificamente sobre essas fontes de dados, o ChatGPT-3.5 mantém uma negação enfática; no entanto, alusões indirectas nas respostas do modelo podem sugerir o contrário.

/pt/images/gpt-3-5-question.jpg

Em vez disso, foi educado utilizando um conjunto variado de textos retirados da Internet, abrangendo sítios Web, publicações, ensaios e várias outras fontes escritas que estavam acessíveis ao público em setembro de 2021.

Tendo em conta este facto, podemos perguntar-nos se um padrão semelhante se aplica à GPT-4.

Durante o nosso inquérito ao GPT-4, foi confirmado pelo sistema que a OpenAI não utilizou críticas, informações privadas ou comentários de utilizadores específicos no contexto da fase de treino do chatbot. Além disso, o GPT-4 informou-nos que o seu resultado é derivado de padrões encontrados no conjunto de dados em que foi educado, que inclui predominantemente obras literárias, publicações e textos online.

O GPT-4 reconheceu que alguns conteúdos das redes sociais podem ser incorporados no seu conjunto de dados de formação; no entanto, sublinha que os indivíduos responsáveis pela criação desses conteúdos não devem ser identificados. A este respeito, o GPT-4 afirma inequivocamente que não pode aceder a determinados comentários, envios ou qualquer informação que possa levar à identificação de um utilizador específico.

Outro aspeto relevante da resposta do GPT-4 é o facto de a OpenAI não ter divulgado todas as fontes de dados específicas utilizadas no seu processo de formação. Embora possa ser um desafio para a organização enumerar todas as fontes no valor de 300 mil milhões de palavras, esta falta de transparência deixa, no entanto, espaço para conjecturas e incertezas relativamente à natureza e âmbito destas fontes.

Num artigo do Ars Technica , foi afirmado que o ChatGPT recolhe “informações pessoais obtidas sem consentimento”. No mesmo artigo, foi mencionada a integridade contextual, um conceito que se refere à utilização das informações de alguém apenas no contexto em que foram inicialmente utilizadas. Se o ChatGPT violar esta integridade contextual, os dados das pessoas podem estar em risco.

Outra questão que requer atenção diz respeito à adesão da OpenAI ao Regulamento Geral de Proteção de Dados (GDPR), que é uma estrutura imposta pela UE com o objetivo de salvaguardar as informações pessoais dos indivíduos. Em particular, as autoridades italianas e polacas iniciaram investigações sobre o alinhamento da organização com esta medida regulamentar. Além disso, durante um breve período, o ChatGPT foi proibido em Itália devido a preocupações com a privacidade.

Foi noticiado que a OpenAI tinha anteriormente contemplado a possibilidade de se retirar da União Europeia em resultado das medidas regulamentares propostas para a IA, embora esta posição tenha sido posteriormente anulada.

Embora o ChatGPT seja atualmente um dos maiores chatbots com IA disponíveis, é importante reconhecer que as preocupações relativas à privacidade dos chatbots vão para além desta plataforma em particular. De facto, se um indivíduo utilizar um chatbot questionável com uma política de privacidade ambígua, existe a possibilidade de as suas conversas serem indevidamente exploradas ou, ainda mais alarmante, de serem incorporadas informações confidenciais nos dados de treino do chatbot.

Roubo de dados

À semelhança de outros recursos ou plataformas digitais, os chatbots podem ser susceptíveis de serem vítimas de infracções cibernéticas. Independentemente das medidas de segurança robustas implementadas por um chatbot para salvaguardar a privacidade e as informações do utilizador, existe um risco inerente de hackers qualificados violarem as defesas do sistema.

No caso de um agente de conversação manter informações sensíveis relativas à subscrição premium de um indivíduo, tais como detalhes do cartão de crédito ou contactos pessoais, existe um risco potencial de estas serem comprometidas no caso de uma intrusão cibernética bem sucedida.

De facto, a utilização de um chatbot de qualidade inferior, que não tenha sido equipado com medidas de segurança robustas, pode resultar tanto na violação da infraestrutura de informação da organização como no potencial comprometimento da conta pessoal devido à ausência de notificações de início de sessão ou de protocolos de verificação.

Infelizmente, a proliferação de chatbots com IA atraiu a atenção dos cibercriminosos, que aproveitaram este sector emergente como uma oportunidade para perpetrar esquemas fraudulentos.A prevalência de sites e plug-ins falsos do ChatGPT é um exemplo notável de tal atividade maliciosa, que se tornou particularmente desenfreada desde o lançamento do chatbot da OpenAI no final de 2022. Como resultado, indivíduos desavisados foram vítimas desses golpes, comprometendo suas informações pessoais sob o falso pretexto de interagir com um chatbot genuíno e confiável.

Em março de 2023, o All Things N revelou que havia uma extensão fraudulenta do ChatGPT para o Chrome em circulação que pretendia melhorar as interacções com o Facebook. Infelizmente, descobriu-se que esta extensão em particular estava a obter ilegalmente credenciais de login, aproveitando uma vulnerabilidade na infraestrutura de segurança da plataforma. Além disso, foi descoberto que esta instância representa apenas um entre muitos outros serviços ChatGPT enganadores, destinados a enganar os utilizadores desavisados.

Infeção por Malware

/pt/images/system-hacked-graphic.jpg

A utilização de um chatbot sem escrúpulos pode resultar no fornecimento de links para sites nefastos. O chatbot pode seduzi-lo com a perspetiva de uma oferta aliciante ou fornecer uma justificação para as suas afirmações através dessas fontes. Nos casos em que os operadores da plataforma têm segundas intenções, o seu principal objetivo pode ser a disseminação de malware e de fraudes através de hiperligações nocivas.

Em alternativa, os cibercriminosos podem explorar vulnerabilidades em serviços legítimos de chatbots, que posteriormente utilizam como canais para distribuir software malicioso. Nos casos em que estes chatbots têm uma popularidade significativa entre os utilizadores, um grande número de indivíduos pode ser vítima do malware. Vale a pena notar que versões falsas do ChatGPT também apareceram na estimada Apple App Store, sublinhando assim a importância de ter cuidado ao descarregar e usar aplicações.

É aconselhável ter cuidado ao interagir com os chatbots, passando primeiro todos os links fornecidos por um serviço de verificação de links respeitável antes de clicar neles. Embora esta medida de precaução possa parecer entediante, serve como uma proteção essencial contra sites potencialmente nefastos.

De facto, antes de instalar qualquer plug-in ou extensão de chatbot, é essencial verificar a sua autenticidade. Fazer alguma pesquisa sobre a aplicação para determinar se recebeu críticas positivas, bem como procurar informações sobre o programador, pode ajudar a identificar potenciais sinais de alerta.

Os chatbots não são imunes a questões de privacidade

De facto, tal como acontece com muitos recursos digitais contemporâneos, os chatbots são frequentemente sujeitos a um escrutínio relativamente a potenciais vulnerabilidades em termos de proteção de dados e privacidade.Isto inclui preocupações sobre a possibilidade de falhas na salvaguarda do bem-estar do utilizador, bem como os perigos prevalecentes colocados por ameaças cibernéticas e actividades fraudulentas. Por conseguinte, é essencial que os utilizadores estejam cientes das informações recolhidas pela plataforma de chatbot escolhida e verifiquem se foram implementadas medidas de segurança adequadas para mitigar estes riscos.