3 Chatbot-privacyrisico's en -zorgen waar u van op de hoogte moet zijn
Chatbots bestaan al jaren, maar de opkomst van grote taalmodellen, zoals ChatGPT en Google Bard, heeft de chatbotindustrie nieuw leven ingeblazen.
Wereldwijd maken miljoenen mensen gebruik van chatbots op basis van kunstmatige intelligentie; het is echter cruciaal om rekening te houden met mogelijke privacyrisico’s bij het verkennen van dergelijke technologieën.
Gegevensverzameling
Chatbots zijn aanzienlijk geëvolueerd ten opzichte van hun vroege incarnaties als eenvoudige virtuele assistenten die gebruikers alleen maar konden begroeten. Hedendaagse chatbots zijn in staat om ingewikkelde vragen te beantwoorden en aan een reeks eisen te voldoen, waarvoor vaak uitgebreide input van gebruikers nodig is. Hoewel de vraag eenvoudig is, geven mensen er over het algemeen de voorkeur aan dat deze binnen de grenzen van hun interactie blijft.
Volgens OpenAI’s support sectie , kun je ChatGPT chat logs verwijderen wanneer je maar wilt, en die logs worden dan permanent verwijderd uit OpenAI’s systemen na 30 dagen. Het bedrijf zal echter bepaalde chatlogs bewaren en herzien als ze zijn gemarkeerd voor schadelijke of ongepaste inhoud.
Een andere populaire AI-chatbot, Claude, houdt ook je vorige gesprekken bij. Anthropic’s ondersteuningscentrum stelt dat Claude “je prompts en outputs in het product bijhoudt om je in de loop van de tijd een consistente productervaring te bieden in overeenstemming met je besturingselementen”. Je kunt je gesprekken met Claude verwijderen, zodat het vergeet waar je het over hebt gehad, maar dit betekent niet dat Anthropic je logs onmiddellijk uit zijn systemen verwijdert.
Je kunt je afvragen of persoonlijke informatie al dan niet bewaard wordt. Bovendien roept het vragen op over het gebruik van dergelijke gegevens door entiteiten zoals ChatGPT en andere AI-systemen voor conversaties.
Maar de zorgen houden hier niet op.
Hoe leert ChatGPT?
Om informatie te verstrekken, worden grote taalmodellen getraind met enorme hoeveelheden gegevens. Volgens Science Focus werd ChatGPT-4 alleen al gevoed met 300 miljard woorden aan informatie tijdens de trainingsperiode. Dit komt niet rechtstreeks uit een paar encyclopedieën. Chatbotontwikkelaars gebruiken massa’s informatie van het internet om hun modellen te trainen. Dit kunnen gegevens zijn van boeken, films, artikelen, Wikipedia-items, blogberichten, commentaren en zelfs beoordelingssites.
In gedachten houdend dat bepaalde chatbotontwikkelaars een ander privacybeleid kunnen hebben, is het mogelijk dat sommige van de eerder genoemde gegevensbronnen niet worden gebruikt tijdens het trainingsproces.
ChatGPT is het onderwerp geweest van wijdverspreide kritiek voor zijn vermeende gebrek aan adequate maatregelen om de privacy van gebruikers te waarborgen. Dit gevoel suggereert dat gebruikers zich zorgen maken over het mogelijke misbruik of de openbaarmaking van hun persoonlijke informatie door ChatGPT. Bijgevolg zien veel individuen ChatGPT als een onbetrouwbare entiteit met betrekking tot de bescherming van gevoelige gegevens. De redenen achter deze bezorgdheid kunnen voortkomen uit verschillende factoren, zoals ontoereikende encryptieprotocollen, lakse gegevensbehandelingspraktijken en onvoldoende transparantie met betrekking tot het beleid inzake gegevensverzameling en -gebruik.
De verklaring van ChatGPT-3.5 over de afwezigheid van directe blootstelling aan artikelcommentaren van gebruikers en productrecensies tijdens het trainingsproces lijkt ondubbelzinnig. Bij nader onderzoek blijkt er echter enige onduidelijkheid te bestaan over de reikwijdte van deze bewering. Wanneer ChatGPT-3.5 specifiek naar dergelijke gegevensbronnen wordt gevraagd, blijft hij nadrukkelijk ontkennen; indirecte toespelingen in de antwoorden van het model suggereren echter iets anders.
In plaats daarvan werd het opgeleid met behulp van een gevarieerd assortiment van tekst afkomstig van het internet, waaronder websites, publicaties, essays en diverse andere geschreven bronnen die toegankelijk waren voor het publiek per september 2021.
In het licht hiervan kan men zich afvragen of een soortgelijk patroon geldt voor GPT-4.
Tijdens ons onderzoek naar GPT-4 werd door het systeem bevestigd dat OpenAI geen gebruik maakte van specifieke gebruikerskritieken, privé-informatie of commentaar binnen de context van de trainingsfase van de chatbot. Verder liet GPT-4 ons weten dat zijn output is afgeleid van patronen die zijn gevonden in de dataset waarop hij is getraind, die voornamelijk bestaat uit literaire werken, publicaties en online teksten.
GPT-4 heeft erkend dat sommige inhoud van sociale media kan worden opgenomen in de trainingsdataset; GPT-4 benadrukt echter dat de personen die verantwoordelijk zijn voor het creëren van dergelijke inhoud niet worden geïdentificeerd. In dit verband verklaart GPT-4 ondubbelzinnig dat het niet in staat is om toegang te krijgen tot bepaalde opmerkingen, inzendingen of informatie die mogelijk kan leiden tot de identificatie van een specifieke gebruiker.
Een ander relevant aspect van het antwoord van GPT-4 is dat OpenAI niet alle specifieke gegevensbronnen bekend heeft gemaakt die worden gebruikt in het trainingsproces. Hoewel het voor de organisatie een uitdaging kan zijn om alle bronnen ter waarde van 300 miljard woorden op te sommen, laat dit gebrek aan transparantie toch ruimte voor vermoedens en onzekerheid over de aard en omvang van deze bronnen.
In een artikel van Ars Technica werd gesteld dat ChatGPT “persoonlijke informatie verzamelt die zonder toestemming is verkregen”. In hetzelfde artikel werd contextuele integriteit genoemd, een concept dat verwijst naar het alleen gebruiken van iemands informatie in de context waarin het oorspronkelijk werd gebruikt. Als ChatGPT deze contextuele integriteit schendt, kunnen de gegevens van mensen in gevaar komen.
Een andere kwestie die aandacht vereist, heeft te maken met OpenAI’s naleving van de General Data Protection Regulation (GDPR), een door de EU opgelegd kader gericht op het beschermen van persoonlijke informatie van individuen. Met name Italiaanse en Poolse autoriteiten hebben onderzoeken ingesteld naar de naleving van deze regelgeving door de organisatie. Bovendien werd ChatGPT korte tijd verboden in Italië vanwege bezorgdheid over privacy.
Naar verluidt heeft OpenAI eerder overwogen om zich terug te trekken uit de Europese Unie als gevolg van voorgestelde AI-regelgeving, maar dit standpunt is later ingetrokken.
ChatGPT is momenteel een van de grootste AI-gestuurde chatbots, maar het is belangrijk om te erkennen dat de bezorgdheid over de privacy van chatbots verder reikt dan alleen dit specifieke platform. In feite, als een individu een twijfelachtige chatbot met een dubbelzinnig privacybeleid gebruikt, bestaat er een duidelijke mogelijkheid dat hun conversaties op ongepaste wijze kunnen worden geëxploiteerd, of nog alarmerender, dat vertrouwelijke informatie kan worden opgenomen in de trainingsgegevens van de chatbot.
Gegevensdiefstal
Net als andere digitale bronnen of platforms kunnen chatbots gevoelig zijn voor cybergerelateerde misdrijven. Ongeacht de robuuste beveiligingsmaatregelen die een chatbot heeft geïmplementeerd om de privacy en informatie van gebruikers te beschermen, bestaat er een inherent risico dat ervaren hackers de systeemverdediging doorbreken.
In het geval dat een conversatie-agent gevoelige informatie met betrekking tot het premium abonnement van een individu bewaart, zoals creditcardgegevens of persoonlijke contacten, bestaat er een potentieel risico dat deze gecompromitteerd worden in het geval van een succesvolle cyberinbraak.
Het gebruik van een ondermaatse chatbot die niet is uitgerust met robuuste beveiligingsmaatregelen kan leiden tot zowel een inbreuk op de informatie-infrastructuur van de organisatie als het mogelijk in gevaar brengen van iemands persoonlijke account door het ontbreken van aanmeldingsmeldingen of verificatieprotocollen.
De proliferatie van AI-chatbots heeft helaas de aandacht getrokken van cybercriminelen die deze opkomende industrie hebben aangegrepen om frauduleuze oplichtingspraktijken uit te voeren.De prevalentie van valse ChatGPT-websites en plugins is een opmerkelijk voorbeeld van dergelijke kwaadwillige activiteit, die vooral is toegenomen sinds de release van OpenAI’s chatbot eind 2022. Als gevolg hiervan zijn nietsvermoedende individuen het slachtoffer geworden van deze zwendel, waarbij hun persoonlijke gegevens in gevaar werden gebracht onder het valse voorwendsel van interactie met een echte en betrouwbare chatbot.
In maart 2023 onthulde All Things N dat er een frauduleuze ChatGPT Chrome-extensie in omloop was die beweerde Facebook-interacties te verbeteren. Helaas bleek deze extensie illegaal inloggegevens te verkrijgen door gebruik te maken van een kwetsbaarheid in de beveiligingsinfrastructuur van het platform. Bovendien is ontdekt dat dit slechts één van de vele andere bedrieglijke ChatGPT-services is, gericht op het duperen van nietsvermoedende gebruikers.
Malware-infectie
Het onbewust gebruiken van een gewetenloze chatbot kan resulteren in het aanbieden van links naar kwaadaardige websites. De chatbot zou je kunnen verleiden met het vooruitzicht van een verleidelijk weggevertje of zijn beweringen rechtvaardigen via dergelijke bronnen. In gevallen waarin de beheerders van het platform bijbedoelingen hebben, kan hun primaire doel het verspreiden van malware en oplichting zijn door middel van schadelijke hyperlinks.
Ook kunnen cybercriminelen kwetsbaarheden in legitieme chatbotdiensten misbruiken, die ze vervolgens gebruiken als kanalen voor het verspreiden van kwaadaardige software. In gevallen waarin deze chatbots erg populair zijn onder gebruikers, kan een groot aantal mensen het slachtoffer worden van malware. Het is vermeldenswaard dat nepversies van ChatGPT ook zijn verschenen in de gewaardeerde Apple App Store, wat het belang onderstreept van voorzichtigheid bij het downloaden en gebruiken van applicaties.
Het is raadzaam om voorzichtigheid te betrachten bij interactie met chatbots door eerst alle links door een gerenommeerde link-checking service te halen voordat je erop klikt. Hoewel deze voorzorgsmaatregel misschien vervelend lijkt, dient het als een essentiële bescherming tegen potentieel schadelijke websites.
Voordat je een chatbot plugin of extensie installeert, is het inderdaad essentieel om de authenticiteit ervan te verifiëren. Onderzoek naar de applicatie om te bepalen of deze positieve recensies heeft ontvangen en zoek naar informatie over de ontwikkelaar om potentiële rode vlaggen te identificeren.
Chatbots zijn niet ongevoelig voor privacykwesties
Net als veel andere hedendaagse digitale middelen, worden chatbots vaak onderworpen aan kritisch onderzoek naar mogelijke kwetsbaarheden op het gebied van gegevensbescherming en privacy.Dit omvat bezorgdheid over de mogelijkheid van tekortkomingen in de bescherming van het welzijn van de gebruiker, evenals de heersende gevaren van cyberdreigingen en frauduleuze activiteiten. Daarom is het essentieel voor gebruikers om zich bewust te zijn van de informatie die wordt verzameld door het chatbotplatform van hun keuze en om te controleren of er passende beveiligingsmaatregelen zijn geïmplementeerd om deze risico’s te beperken.