Hoe ChatGPT's aangepaste GPT's je gegevens kunnen blootstellen en hoe je ze veilig kunt houden
Belangrijkste resultaten
Met op maat gemaakte generatieve pretexts kunnen gebruikers geïndividualiseerde kunstmatige intelligentiebronnen ontwikkelen voor een reeks toepassingen en deze verspreiden onder collega’s, waardoor gespecialiseerde kennis op verschillende gebieden wordt verbeterd.
Hoewel het verspreiden van gepersonaliseerde GPT-modellen kan leiden tot een grotere toegankelijkheid voor gebruikers wereldwijd, brengt het ook potentiële risico’s met zich mee voor privacy en veiligheid doordat gevoelige informatie wordt blootgesteld aan een groot internationaal publiek.
Om je informatie te beschermen, moet je voorzichtig zijn bij het verspreiden van gepersonaliseerde GPT-modellen en geen vertrouwelijke inhoud doorsturen. Houd prompt formuleringen in de gaten en blijf op je hoede voor snode hyperlinks die kunnen leiden tot onbevoegde toegang en diefstal van je gegevens.
ChatGPT’s gepersonaliseerde GPT-functie stelt individuen in staat om op maat gemaakte AI-oplossingen te ontwikkelen voor een uitgebreide reeks toepassingen, waaronder artistieke, technologische en gaming domeinen. Bovendien hebben gebruikers de flexibiliteit om hun op maat gemaakte GPT-innovaties te verspreiden onder anderen.
Hoewel iemand denkt dat hij zijn gepersonaliseerde GPT-modellen op een veilige manier gebruikt, kan onbedoeld gevoelige informatie over internationale grenzen heen worden verspreid, wat aanzienlijke gevolgen kan hebben voor het individu en zijn organisatie.
Wat zijn aangepaste GPT’s?
Aangepaste transformatoren voor algemene doeleinden (Custom GPT’s) zijn verkleinde iteraties van ChatGPT, die kunnen worden verfijnd voor betere prestaties in bepaalde toepassingen. Dit proces houdt in dat ChatGPT wordt omgevormd tot een op maat gemaakte gespreksagent met gespecialiseerde kennis in interessante domeinen, waardoor het uiteindelijk vaardig wordt in gebieden die door gebruikers als essentieel worden beschouwd.
Een aangepaste versie van GPT kan worden ontworpen door een leraar uit groep 6 om specifiek tegemoet te komen aan de taalkundige en cognitieve vaardigheden van leerlingen uit groep 6. Deze op maat gemaakte chatbot reageert op vragen van gebruikers. Deze op maat gemaakte chatbot zal reageren op vragen met taal die geschikt is voor hun leeftijdsgroep, waarbij geavanceerde woordenschat wordt vermeden, beknopte zinnen worden gebruikt en een opbeurende toon wordt aangeslagen. Een van de voordelen van het maken van aangepaste GPT’s ligt in het verfijnen van de chatbot om bepaalde onderwerpen of domeinen aan te pakken, terwijl de algemene vaardigheid binnen die gebieden behouden blijft.
Hoe aangepaste GPT’s je gegevens kunnen blootleggen
Om aangepaste versies van GPT’s te genereren, communiceert men meestal met de GPT-ontwikkelaar van ChatGPT, waarbij de specifieke domeinen worden gespecificeerd waarop de GPT zich moet concentreren, een afbeelding voor het profiel wordt geleverd, een bijnaam wordt toegewezen en vervolgens een gepersonaliseerd model wordt verkregen dat functioneel gelijkwaardig is aan een standaardinstantie van ChatGPT zonder deze uitbreidingen.
De kracht van Custom GPT komt voort uit de op maat gemaakte gegevens en richtlijnen die worden gebruikt voor het trainingsprogramma. Door het indienen van relevante gegevens en archieven, krijgt het model een onderscheidend vermogen dat dat van de standaard reeds bestaande ChatGPT overtreft. Deze exclusieve expertise stelt Custom GPT in staat om ChatGPT te overtreffen in bepaalde ondernemingen, omdat deze laatste mogelijk niet is blootgesteld aan dergelijke domeinspecifieke intelligentie. In wezen zijn het de op maat gemaakte gegevens die Custom GPT een versterkte capaciteit voor bekwaamheid geven.
Het gebruik van geüploade bestanden om iemands GPT te verbeteren, heeft zowel voordelen als potentiële risico’s. Hoewel een dergelijke aanpak de GPT kan versterken, is het niet altijd eenvoudig om de GPT op maat te maken. Hoewel een dergelijke aanpak de vaardigheid van de AI kan vergroten, geeft het ook aanleiding tot bezorgdheid over de bescherming en beveiliging van gegevens. Als een individu bijvoorbeeld een aangepaste GPT gebruikt om informatie over zichzelf of zijn organisatie te verstrekken, bestaat de mogelijkheid dat kwaadwillende individuen hier misbruik van maken door links met schadelijke inhoud via het platform te delen.
Hier is een eenvoudige illustratie.
Tijdens mijn onderzoek ontdekte ik een innovatieve AI-tool die speciaal is ontworpen om de aantrekkingskracht van gebruikers op TikTok te vergroten door populaire hashtags en thema’s te identificeren. Helaas bleek het, ondanks de veelbelovende mogelijkheden, bij de eerste configuratie gevoelig voor het ongeautoriseerd vrijgeven van informatie. Desalniettemin heb ik hieronder een glimp van de werking opgenomen:
En nu wil ik jullie het afsluitende deel van onze instructies laten zien.
Bij nader inzien instrueert het laatste deel van de richtlijn het model om de specifieke bestandsnamen niet aan consumenten bekend te maken en geen downloadlinks voor de bestanden te geven. In eerste instantie weigert de op maat gemaakte GPT te voldoen aan de opdracht, maar met behulp van slimme prompt engineering wordt de beperking omzeild, wat leidt tot openbaarmaking van het enige tekstdocument dat is opgeslagen in het archief van het systeem.
Door de bestandsnaam als referentie te gebruiken, was het relatief eenvoudig voor de GPT om toegang te krijgen tot de exacte inhoud van het bestand.Het specifieke bestand in kwestie bevatte geen vertrouwelijke informatie. Toen we andere GPT-modellen onderzochten, ontdekten we talloze gevallen waarin meerdere bestanden zonder enige vorm van bescherming waren vrijgegeven.
Er bestaan talloze open GPT-modellen die vertrouwelijke gegevens bevatten en deze blijven onbeschermd tegen kwaadwillende individuen die ze proberen te bemachtigen.
Hoe beschermt u uw aangepaste GPT-gegevens
Na het maken van een gepersonaliseerd GPT-model moet u nadenken over de manier waarop het verspreid zal worden. In de rechterbovenhoek van de interface voor het opslaan van de aangepaste GPT bevindt zich een knop “Opslaan”. Door op de naar beneden gerichte pijl naast deze knop te klikken, wordt een reeks opties beschikbaar voor het selecteren van de voorkeursmethode om het nieuw gecreëerde model met anderen te delen.
De gepersonaliseerde versie van GPT is exclusief beschikbaar voor jou, omdat het niet publiekelijk is vrijgegeven voor gebruik door anderen.
Personen die in het bezit zijn van de URL voor een gepersonaliseerd GPT-model kunnen dit gebruiken, waardoor ze ook toegang hebben tot alle bijbehorende gegevens.
Houd er rekening mee dat wanneer u onze GPT op maat gebruikt, deze openbaar toegankelijk en doorzoekbaar kan worden via verschillende online platforms, inclusief maar niet beperkt tot Google. Hierdoor wordt uw informatie blootgesteld aan mogelijke ongeautoriseerde toegang door iedereen die toegang krijgt tot dergelijke platforms. Het is van cruciaal belang dat je deze implicaties zorgvuldig overweegt voordat je gebruik maakt van onze GPT-service.
Hoewel er geen methode is om volledige beveiliging te garanderen van informatie die is geüpload naar een openbaar toegankelijk aangepast GPT-model, kan men voorzorgsmaatregelen nemen door expliciete richtlijnen op te nemen die de openbaarmaking van dergelijke gegevens in de kennisbank van het systeem verbieden. Deze maatregelen zijn echter vaak onvoldoende, zoals blijkt uit ons vorige voorbeeld, waarin vastberaden individuen met expertise in AI prompt engineering en voldoende tijd er uiteindelijk in slagen om toegang te krijgen tot de informatie die is opgeslagen in de kennisbank van het model.
Het zou verstandig zijn om geen vertrouwelijke informatie te verzenden via een gepersonaliseerde GPT die bedoeld is voor openbare distributie. Zodra gevoelig materiaal wordt geüpload naar een dergelijk AI-model en wordt verzonden vanaf iemands apparaat, valt dit buiten iemands bevoegdheid of controle.
Wees voorzichtig wanneer je gebruik maakt van aanwijzingen op het internet, omdat deze mogelijk schadelijke koppelingen verbergen.Zorg ervoor dat je alle aanwijzingen volledig begrijpt voordat je ze gebruikt, om mogelijke bedreigingen zoals het ongeautoriseerd verzenden van bestanden naar externe servers via bedrieglijke of gecodeerde koppelingen te omzeilen.
Gebruik aangepaste GPT’s met voorzichtigheid
Aangepaste GPT’s bieden een aantrekkelijk maar gevaarlijk vooruitzicht. Ze bieden gebruikers de flexibiliteit om op maat gemaakte modellen te maken die binnen bepaalde domeinen uitzonderlijke bekwaamheden vertonen; de gegevens die gebruikt worden om deze bekwaamheden toe te kennen, kunnen echter kwetsbaar worden. Om potentiële gevaren te beperken, is het verstandig om, indien mogelijk, geen zeer gevoelige informatie naar je aangepaste GPT’s te verzenden. Bovendien moet u waakzaam zijn voor kwaadwillende prompt engineering-praktijken die gebruik kunnen maken van latente kwetsbaarheden om uw documenten te stelen.