Wat is AI-regulering? Wie moet AI reguleren?
Belangrijkste conclusies
In het licht van de voortdurende ontwikkelingen op het gebied van kwetsbaarheden in cyberbeveiliging en zorgen over privacy is het noodzakelijk dat kunstmatige intelligentie aan strenger toezicht wordt onderworpen.
Om kunstmatige intelligentie effectief te reguleren, is het belangrijk dat meerdere belanghebbenden, waaronder overheden, technologiebedrijven en individuen, hun verantwoordelijkheid nemen. Aan elk van deze benaderingen zijn echter beperkingen verbonden waarmee rekening moet worden gehouden.
AI-regulering is een gezamenlijke inspanning waarbij verschillende belanghebbenden betrokken zijn, waaronder mediakanalen, non-profitorganisaties, brancheorganisaties, academische instellingen en wetshandhavingsinstanties. Deze entiteiten spelen een belangrijke rol bij het waarborgen van een verantwoorde ontwikkeling en inzet van kunstmatige intelligentie technologieƫn en het aanpakken van mogelijke ethische bezwaren en juridische implicaties.
Hoewel er onder het grote publiek verschillende perspectieven bestaan met betrekking tot kunstmatige intelligentie, beweren sommigen dat machines uiteindelijk menselijke arbeid volledig zullen verdringen, terwijl anderen beweren dat AI slechts een vluchtige trend is. Toch lijkt er consensus te bestaan over het feit dat meer toezicht op en regulering van AI gerechtvaardigd is.
Ondanks het grote belang van regulerende maatregelen op het gebied van kunstmatige intelligentie, heeft het streven naar de ontwikkeling van steeds geavanceerdere modellen de zorgen over het bestuur ervan overschaduwd. Ontwikkelaars zijn zelfs zo gefixeerd geraakt op het bouwen van het volgende baanbrekende AI-systeem dat ze helaas de cyberveiligheid in gevaar hebben gebracht in hun streven naar vooruitgang. De centrale vraag is niet of AI toezicht nodig heeft, maar welke overheidsinstantie, die over voldoende financiƫle middelen, personeel en technische mogelijkheden beschikt, de verantwoordelijkheid op zich moet nemen om richtlijnen op te stellen en te handhaven.
Dus wie moet AI reguleren?
Overheidsinstanties
Het sentiment met betrekking tot AI-regulering overstijgt verschillende sectoren, met individuen variƫrend van gewone burgers tot prominente technologische pioniers die pleiten voor interventie door de overheid. Zelfs prominenten als Elon Musk en Sam Altman, die invloedrijk zijn in het vormgeven van het AI-landschap, erkennen dat bepaalde privacykwesties die samenhangen met kunstmatige intelligentie de aandacht van regelgevende instanties verdienen.
Als een bestuursorgaan kunstmatige intelligentie effectief wil reguleren, is het noodzakelijk dat ze prioriteit geven aan het waarborgen van de privacyrechten en burgerlijke vrijheden van hun burgers. Helaas bedenken cybercriminelen voortdurend nieuwe methoden om misbruik te maken van de zwakke plekken in AI-systemen. Daardoor kunnen personen met beperkte kennis over AI vatbaar zijn voor manipulatie door het gebruik van geavanceerde technologieĆ«n zoals synthetische spraak, deepfakes en geautomatiseerde online persona’s.
Hoewel er gegronde zorgen bestaan over de mogelijke negatieve gevolgen van AI-systemen, is het belangrijk om de bredere implicaties van meer overheidstoezicht op technologische vooruitgang te overwegen. Een mogelijk nadeel van regelgevende interventie is het risico dat innovatie onbedoeld wordt belemmerd door het opleggen van beperkingen of eisen die mogelijk niet volledig worden begrepen door degenen die verantwoordelijk zijn voor het toezicht op de ontwikkeling, inzet en training van deze systemen. Gezien de complexiteit en het snel veranderende karakter van kunstmatige intelligentie moeten pogingen tot regulering een delicaat evenwicht vinden tussen bescherming tegen schadelijke uitkomsten en het stimuleren van de voortdurende ontwikkeling van dit baanbrekende veld.
AI-ontwikkelaars, technologiebedrijven en laboratoria
Gezien de mogelijkheid van belemmeringen door overheidstoezicht op AI-technologieƫn, geven sommige individuen er de voorkeur aan dat technologiebedrijven de verantwoordelijkheid nemen voor het reguleren van hun eigen producten. Op deze manier kunnen ontwikkelaars zich concentreren op het stimuleren van innovatie en tegelijkertijd zorgen voor een efficiƫnte voortgang in de ontwikkeling van dergelijke systemen.
Hun grondige begrip van kunstmatige intelligentie stelt hen in staat om rechtvaardig en goed geïnformeerd beleid te formuleren dat de bescherming van gebruikers in balans brengt met behoud van operationele efficiëntie. In dit opzicht is expertise op een bepaald gebied van vitaal belang voor effectief toezicht. Het aanstellen van ongeschoolde autoriteiten om toezicht te houden op geavanceerde technologieën kan extra complicaties opleveren in plaats van substantiële voordelen.
Neem als voorbeeld de hoorzitting van de Amerikaanse Senaat in 2018 over de privacywetten van Facebook. In dit verslag van The Washington Post zie je dat veel wetgevers in de war zijn met de basisfuncties van Facebook. Dus tenzij de Amerikaanse Senaat ĆĀ©ĆĀ©n afdeling van technische specialisten opricht, zijn ze waarschijnlijk niet gekwalificeerd om zoĆ¢ā¬ā¢n geavanceerd, steeds veranderend systeem als AI te reguleren.
Een potentieel probleem met betrekking tot zelfregulering door technologiebedrijven is de mogelijkheid dat gewetenloze organisaties misbruik maken van hun autoriteit zonder extern toezicht.Door het ontbreken van een bemiddelende derde partij kunnen dergelijke entiteiten relatief straffeloos handelen en hun eigen belangen nastreven ten koste van consumentenbescherming of ethische overwegingen.
Eindgebruikers
Er bestaat bezorgdheid dat zowel publieke als private organisaties misbruik kunnen maken van geavanceerde kunstmatige intelligentiesystemen. Het idee om een beperkt aantal regelgevende instanties absolute macht toe te vertrouwen over deze krachtige technologieƫn wekt bezorgdheid, vooral gezien de voortdurende ontwikkelingsstadia van AI. Er wordt gevreesd dat er geschillen over jurisdictie kunnen ontstaan tussen deze bestuursorganen, waardoor coƶperatief bestuur mogelijk wordt belemmerd ten gunste van conflicterende belangen.
Om deze potentiƫle valkuilen te verkleinen, stellen voorstanders van een laissez-faire benadering dat individuen onbeperkte autonomie zouden moeten hebben om kunstmatige intelligentiesystemen naar eigen inzicht te gebruiken. Ze beweren dat regelgevende instanties hun betrokkenheid moeten beperken tot gevallen waarin AI-gebruikers wettelijke grenzen overschrijden. Deze ambitie lijkt misschien hoog gegrepen, maar is theoretisch haalbaar als open-source AI-ontwikkelaars aanzienlijke invloed zouden uitoefenen op de industrie.
De huidige configuratie vormt inderdaad een uitdaging voor mensen zonder technische expertise. De verantwoordelijkheid om beperkingen op te leggen ligt bij de gebruikers, hoewel niet iedereen over de nodige middelen of capaciteiten beschikt om dergelijke taken uit te voeren.
Het is net zo kortzichtig om propriƫtaire AI-modellen uit de circulatie te halen. De verspreiding van open source AI-modellen heeft een dubbele uitkomst, omdat het zowel voor- als nadelen heeft die in omvang variƫren voor verschillende individuen of organisaties. Voor bepaalde entiteiten kunnen de nadelen de voordelen overtreffen.
Andere entiteiten die een rol spelen bij de regulering van AI
Hoewel de primaire verantwoordelijkheid voor het toezicht op en de regulering van kunstmatige intelligentie (AI) bij toonaangevende organisaties en instellingen ligt, dragen ook een aantal andere belangrijke spelers aanzienlijk bij aan dit proces:
Media
Media spelen een centrale rol in de vorming van het perspectief van de bevolking op kunstmatige intelligentie. Via hun berichtgeving verspreiden ze informatie over ontwikkelingen binnen de industrie, introduceren ze nieuwe technologische innovaties, vergroten ze het publieke bewustzijn over nadelige toepassingen van AI en faciliteren ze discussies met vooraanstaande specialisten over relevante kwesties.
De verspreiding van onnauwkeurige informatie over kunstmatige intelligentie is een belangrijk punt van zorg omdat deze voornamelijk afkomstig is van mediabronnen.Het onbedoeld verspreiden van onwaarheden kan ernstige gevolgen hebben en moet koste wat het kost worden vermeden vanwege de snelheid waarmee dergelijke verkeerde informatie zich verspreidt.
Niet-gouvernementele organisaties
Verschillende non-profitorganisaties richten hun inspanningen op het beschermen van de privacyrechten en burgerlijke vrijheden van individuen die gebruik maken van kunstmatige intelligentie technologie. Deze organisaties verstrekken gratis educatief materiaal aan het grote publiek, pleiten voor nieuwe beleidsinitiatieven, werken samen met vertegenwoordigers van de overheid en maken mensen bewust van vaak verwaarloosde kwesties met betrekking tot AI-gebruik.
Een van de grootste uitdagingen voor non-profitorganisaties (NPO’s) is hun beperkte beschikbaarheid van middelen. Omdat deze entiteiten niet zijn aangesloten bij een overheidsinstantie, zijn ze afhankelijk van particuliere bijdragen en oproepen om hun routinefuncties uit te voeren. Helaas ontvangt slechts een minimaal aantal van deze organisaties voldoende financiĆ«le steun.
Technische brancheorganisaties
Technische brancheorganisaties die zich richten op kunstmatige intelligentie hebben de capaciteit om het welzijn van de samenleving te handhaven door te pleiten voor de rechten en belangen van het algemene publiek. Dergelijke entiteiten werken op dezelfde manier als non-profitorganisaties (NPO’s), werken samen met wetgevers om rechtvaardig beleid te bevorderen, vertegenwoordigen de zorgen van betrokken individuen en verhogen het bewustzijn over relevante zaken.
Hoewel beide categorieƫn fondsenwervende groepen wervingsactiviteiten kunnen uitvoeren, bestaat er een onderscheid tussen hen wat betreft hun banden met particuliere entiteiten. Leden die tot de laatste groep behoren, krijgen meestal voldoende financiƫle steun van de aan hen gelieerde bedrijven of instellingen, zolang ze de gewenste resultaten behalen met hun fondsenwervingsinspanningen.
Academische instellingen
Hoewel kunstmatige intelligentie een aantal potentiƫle gevaren met zich meebrengt, blijft het fundamenteel onpartijdig. De bron van alle vooroordelen, privacyproblemen, veiligheidslekken en gevoeligheid voor cybercriminele activiteiten is terug te voeren op menselijk handelen en niet op een intrinsiek kenmerk van AI zelf. Daarom zou het onjuist zijn om AI te karakteriseren als een entiteit die angst of vrees moet inboezemen.
Hoewel het begrip van hedendaagse modellen voor kunstmatige intelligentie beperkt is tot een selecte groep, dragen misplaatste overtuigingen over deze technologieƫn bij aan een vertekend perspectief op AI en ongegronde angsten over de mogelijke impact ervan op de samenleving, zoals zorgen over de verdringing van mensen door AI of over het verdringen van werkgelegenheid.
Academische instellingen spelen een cruciale rol bij het aanpakken van de geconstateerde kennishiaten door gemakkelijk toegankelijke bronnen aan te bieden. Hoewel er nog steeds een beperkt aantal academische publicaties beschikbaar is over hedendaagse grote taalmodellen (LLM’s) en natuurlijke taalverwerkingssystemen (NLP), vereist het vergroten van het bewustzijn over verantwoord AI-gebruik en het bestrijden van cybercriminaliteit een uitgebreid begrip van de onderliggende mechanismen.
Wetshandhavingsinstanties
De toenemende prevalentie van generatieve modellen heeft geleid tot een toename in het gebruik van kunstmatige intelligentie bij cyberaanvallen door criminelen. Deze aanvallen kunnen bestaan uit het genereren van valse stemopnames, gemanipuleerde afbeeldingen die bekend staan als “deepfakes” en het schrapen van persoonlijke identificatiegegevens voor kwaadaardige doeleinden. Daarnaast kunnen deze aanvallers ook volledig verzonnen online personas creĆ«ren om nietsvermoedende slachtoffers te misleiden.
Veel rechtshandhavingsinstanties beschikken niet over de middelen en expertise die nodig zijn om hedendaagse cybercriminaliteit effectief te bestrijden. Om daders van dergelijke misdrijven beter te kunnen aanhouden, is het essentieel dat ze geavanceerde technologie implementeren en hun personeel uitgebreid trainen in de nieuwste ontwikkelingen op het gebied van digitale criminaliteit. Als ze dit niet doen, kan dit leiden tot een verminderde capaciteit om deze daders te pakken en de maatschappij te beschermen tegen schade.
De toekomst van AI-regulering
Gezien de snelle technologische vooruitgang op het gebied van kunstmatige intelligentie zou het voor een enkele regelgevende instantie een uitdaging zijn om toezicht te houden op de ontwikkeling en toepassing ervan. Hoewel verwacht mag worden dat technologieleiders meer invloed hebben dan eindgebruikers, vereist effectief beheer van de potentiĆ«le risico’s van AI samenwerking tussen meerdere belanghebbenden. Om te voorkomen dat onbedoelde gevolgen innovatie in de weg staan, is het verstandig om richtlijnen en protocollen op te stellen in dit vroege stadium, waarin het vooruitzicht op het bereiken van Kunstmatige Algemene Intelligentie nog speculatief is.
Hoewel het regelgevingskader voor kunstmatige intelligentie nog in de kinderschoenen staat, in overeenstemming met het niveau van vooruitgang dat door Artificial General Intelligence (AGI) is bereikt, is het noodzakelijk dat individuen voorzichtige maatregelen nemen om potentiĆ«le risico’s van AI-gebaseerde bedreigingen tegen te gaan. Door zich te houden aan basisbeveiligingsprotocollen, zoals het beperken van de toegang tot persoonlijke informatie en het beperken van verbindingen binnen virtuele netwerken, kunnen gebruikers deze gevaren effectief ondervangen.