De AI-machtsparadox

Kunnen staten leren hoe ze kunstmatige intelligentie moeten beheersen, voordat het te laat is? door op in Lees Voer

Door Ian Bremmer en Mustafa Suleyman

Het is 2035 en kunstmatige intelligentie is overal. AI-systemen besturen ziekenhuizen, exploiteren luchtvaartmaatschappijen en strijden met elkaar in de rechtszaal. De productiviteit is tot ongekende hoogten gestegen, en talloze bedrijven die voorheen onvoorstelbaar waren, zijn razendsnel opgeschaald, wat een enorme vooruitgang op het gebied van welzijn heeft opgeleverd. Er komen dagelijks nieuwe producten, geneeswijzen en innovaties op de markt, terwijl wetenschap en technologie in een stroomversnelling komen. En toch wordt de wereld zowel onvoorspelbaarder als kwetsbaarder, nu terroristen nieuwe manieren vinden om samenlevingen te bedreigen met intelligente, evoluerende cyberwapens en witteboordenarbeiders massaal hun baan verliezen.

Nog maar een jaar geleden zou dat scenario puur fictief hebben geleken; vandaag de dag lijkt het bijna onvermijdelijk. Generatieve AI-systemen kunnen al duidelijker en overtuigender schrijven dan de meeste mensen en kunnen originele afbeeldingen, kunst en zelfs computercode produceren op basis van eenvoudige taalinstructies. En generatieve AI is slechts het topje van de ijsberg. De komst ervan markeert een Big Bang-moment, het begin van een wereldveranderende technologische revolutie die de politiek, economieën en samenlevingen opnieuw zal veranderen.

Net als eerdere technologische golven zal AI buitengewone groei en kansen koppelen aan enorme verstoringen en risico's. Maar in tegenstelling tot eerdere golven zal het ook een seismische verschuiving teweegbrengen in de structuur en het evenwicht van de mondiale macht, omdat het de status van natiestaten als de belangrijkste geopolitieke actoren van de wereld bedreigt. Of ze het nu toegeven of niet, de makers van AI zijn zelf geopolitieke actoren, en hun soevereiniteit over AI verankert de opkomende ‘technopolaire’ orde nog verder – een orde waarin technologiebedrijven het soort macht uitoefenen in hun domeinen die ooit voorbehouden waren aan natiestaten. De afgelopen tien jaar zijn grote technologiebedrijven in feite onafhankelijke, soevereine actoren geworden in de digitale domeinen die zij hebben gecreëerd. AI versnelt deze trend en breidt deze uit tot ver buiten de digitale wereld. De complexiteit van de technologie en de snelheid van de vooruitgang ervan zullen het voor overheden vrijwel onmogelijk maken om in een redelijk tempo relevante regels op te stellen. Als regeringen hun achterstand niet snel inhalen, is het mogelijk dat ze dat nooit zullen doen.

Gelukkig beginnen beleidsmakers over de hele wereld zich bewust te worden van de uitdagingen die AI met zich meebrengt en worstelen ze met de manier waarop ze deze moeten besturen. In mei 2023 lanceerde de G-7 het ‘Hiroshima AI-proces’, een forum gewijd aan het harmoniseren van AI-beheer. In juni keurde het Europees Parlement een ontwerp van de EU-AI-wet goed, de eerste alomvattende poging van de Europese Unie om waarborgen rond de AI-industrie te creëren. En in juli riep VN-secretaris-generaal Antonio Guterres op tot de oprichting van een mondiale AI-waakhond. Ondertussen roepen politici aan beide kanten van het gangpad in de Verenigde Staten op tot regelgevende maatregelen. Maar velen zijn het eens met Ted Cruz, de Republikeinse senator uit Texas, die in juni concludeerde dat het Congres ‘niet weet wat het in vredesnaam doet’.

Helaas blijft een te groot deel van het debat over AI-beheer gevangen in een gevaarlijk vals dilemma: kunstmatige intelligentie inzetten om de nationale macht uit te breiden of deze onderdrukken om de risico's ervan te vermijden. Zelfs degenen die het probleem accuraat diagnosticeren, proberen het op te lossen door AI in bestaande of historische bestuurskaders te integreren. Toch kan AI niet worden bestuurd zoals elke voorgaande technologie, en het verandert nu al de traditionele opvattingen over geopolitieke macht.

De uitdaging is duidelijk: een nieuw governance-framework ontwerpen dat geschikt is voor deze unieke technologie. Als mondiaal bestuur van AI mogelijk wil worden, moet het internationale systeem de traditionele opvattingen over soevereiniteit achter zich laten en technologiebedrijven aan tafel verwelkomen. Deze actoren ontlenen misschien geen legitimiteit aan een sociaal contract, democratie of het aanbieden van publieke goederen, maar zonder hen zal effectief AI-beheer geen schijn van kans hebben. Dit is een voorbeeld van hoe de internationale gemeenschap de basisaannames over de geopolitieke orde zal moeten heroverwegen. Maar het is niet de enige.

Een uitdaging die zo ongebruikelijk en urgent is als AI, vraagt om een originele oplossing. Voordat beleidsmakers kunnen beginnen met het opzetten van een passende regelgevingsstructuur, zullen ze het eens moeten worden over de basisprincipes voor het besturen van AI. Om te beginnen zal elk bestuurskader preventief, wendbaar, inclusief, ondoordringbaar en doelgericht moeten zijn. Voortbouwend op deze principes zouden beleidsmakers ten minste drie overlappende bestuursregimes moeten creëren: één om feiten vast te stellen en regeringen te adviseren over de risico’s die AI met zich meebrengt, één om een totale wapenwedloop tussen hen te voorkomen, en één om de ontwrichtende krachten van een technologie unlizoals alles wat de wereld heeft gezien.

Of je het nu leuk vindt of niet, 2035 komt eraan. Of het wordt gedefinieerd door de positieve vooruitgang die AI mogelijk maakt of door de negatieve verstoringen die erdoor worden veroorzaakt, hangt af van wat beleidsmakers nu doen.

SNELLER HOGER STERKER

AI is anders: anders dan andere technologieën en verschillend in het effect ervan op macht. Het brengt niet alleen beleidsuitdagingen met zich mee; het hyperevolutionaire karakter ervan maakt het ook steeds moeilijker om deze uitdagingen op te lossen. Dat is de machtsparadox van AI.

Het tempo van de vooruitgang is onthutsend. Neem de wet van Moore, die met succes de verdubbeling van de rekenkracht elke twee jaar heeft voorspeld. Door de nieuwe golf van AI lijkt dat tempo vreemd. Toen OpenAI in 2018 zijn eerste grote taalmodel lanceerde, bekend als GPT-1, had het 117 miljoen parameters – een maatstaf voor de schaal en complexiteit van het systeem. Vijf jaar later zou het model van de vierde generatie van het bedrijf, GPT-4, over een biljoen beschikken. De hoeveelheid rekenwerk die wordt gebruikt om de krachtigste AI-modellen te trainen, is de afgelopen tien jaar elk jaar met een factor tien toegenomen. Met andere woorden: de meest geavanceerde AI-modellen van vandaag – ook wel ‘frontier’-modellen genoemd – gebruiken vijf miljard keer de rekenkracht van de allernieuwste modellen van tien jaar geleden. Een verwerking die ooit weken duurde, gebeurt nu in enkele seconden. Er komen de komende jaren modellen die tientallen biljoenen parameters kunnen verwerken. Modellen op ‘hersenschaal’ met meer dan 100 biljoen parameters – ruwweg het aantal synapsen in het menselijk brein – zullen binnen vijf jaar levensvatbaar zijn.

Met elke nieuwe orde van grootte ontstaan er onverwachte mogelijkheden. Weinigen hadden voorspeld dat training in ruwe tekst grote taalmodellen in staat zou stellen samenhangende, nieuwe en zelfs creatieve zinnen te produceren. Minder verwachtten nog steeds dat taalmodellen muziek zouden kunnen componeren of wetenschappelijke problemen zouden kunnen oplossen, zoals sommigen nu kunnen. Binnenkort zullen AI-ontwikkelaars er waarschijnlijk in slagen systemen te creëren met zelfverbeteringsmogelijkheden – een cruciaal moment in het traject van deze technologie dat iedereen zou moeten doen nadenken.

AI-modellen doen ook meer met minder. De geavanceerde mogelijkheden van gisteren draaien tegenwoordig op kleinere, goedkopere en beter toegankelijke systemen. Slechts drie jaar nadat OpenAI GPT-3 heeft uitgebracht, hebben open-sourceteams modellen gemaakt die hetzelfde prestatieniveau kunnen behalen en die minder dan een zestigste van hun omvang hebben – dat wil zeggen 60 keer goedkoper om in productie te draaien, geheel gratis, en voor iedereen op internet beschikbaar. Toekomstige grote taalmodellen zullen dit efficiëntietraject waarschijnlijk volgen en in open-sourcevorm beschikbaar komen slechts twee of drie jaar nadat toonaangevende AI-laboratoria honderden miljoenen dollars hebben uitgegeven aan de ontwikkeling ervan.

Zoals met elke software of code zijn AI-algoritmen veel gemakkelijker en goedkoper te kopiëren en te delen (of te stelen) dan fysieke activa. Het risico van proliferatie is duidelijk. Meta’s krachtige Llama-1 grote taalmodel lekte bijvoorbeeld binnen enkele dagen na de debuut in maart op het internet. Hoewel de krachtigste modellen nog steeds geavanceerde hardware vereisen om te kunnen werken, kunnen midrange-versies draaien op computers die voor een paar dollar per uur kunnen worden gehuurd. Binnenkort zullen dergelijke modellen op smartphones draaien. Geen enkele technologie die zo krachtig is, is zo toegankelijk, zo breed en zo snel geworden.


Robots bereiden eten in een hotpot-restaurant in Peking, november 2018 Jason Lee/Reuters

AI verschilt ook van oudere technologieën doordat deze bijna allemaal kan worden gekarakteriseerd als ‘dubbel gebruik’ – met zowel militaire als civiele toepassingen. Veel systemen zijn inherent algemeen, en algemeenheid is inderdaad het primaire doel van veel AI-bedrijven. Ze willen dat hun applicaties zoveel mogelijk mensen op zoveel mogelijk manieren helpen. Maar dezelfde systemen die auto's aandrijven, kunnen tanks aandrijven. Een AI-applicatie die is gebouwd om ziekten te diagnosticeren, zou mogelijk een nieuwe kunnen creëren (en bewapenen). De grenzen tussen het veilige civiele en het militair destructieve zijn inherent vervaagd, wat gedeeltelijk verklaart waarom de Verenigde Staten de export van de meest geavanceerde halfgeleiders naar China hebben beperkt.

Dit alles speelt zich af op een mondiaal terrein: zodra ze eenmaal zijn vrijgegeven, kunnen en zullen AI-modellen overal aanwezig zijn. En er is slechts één kwaadaardig of ‘uitbraakmodel’ nodig om grote schade aan te richten. Om die reden kan het reguleren van AI niet op een lappendeken gebeuren. Het heeft in sommige landen weinig zin om AI te reguleren als het in andere landen ongereguleerd blijft. Omdat AI zich zo gemakkelijk kan verspreiden, mag het bestuur ervan geen hiaten vertonen.

Bovendien kent de schade die AI kan aanrichten geen duidelijke limiet, ook al blijven de prikkels om AI te bouwen (en de voordelen ervan) toenemen. AI zou kunnen worden gebruikt om giftige desinformatie te genereren en te verspreiden, waardoor het sociale vertrouwen en de democratie worden uitgehold; burgers in de gaten houden, manipuleren en onderwerpen, waardoor de individuele en collectieve vrijheid wordt ondermijnd; of om krachtige digitale of fysieke wapens te creëren die mensenlevens bedreigen. AI zou ook miljoenen banen kunnen vernietigen, de bestaande ongelijkheid kunnen verergeren en nieuwe kunnen creëren; discriminerende patronen verankeren en de besluitvorming verstoren door de vergoeding voor slechte informatie te versterkendback-lussen; of onbedoelde en oncontroleerbare militaire escalaties veroorzaken die tot oorlog leiden.

Ook voor de grootste risico’s is het tijdsbestek niet duidelijk. Desinformatie op internet is een duidelijke bedreiging op de korte termijn, net zoals autonome oorlogsvoering op de middellange termijn plausibel lijkt. Verderop aan de horizon schuilt de belofte van kunstmatige algemene intelligentie, het nog steeds onzekere punt waarop AI de menselijke prestaties bij een bepaalde taak overtreft, en het (weliswaar speculatieve) gevaar dat AGI zelfsturend, zelfreplicerend en zichzelf verbeterend zou kunnen worden. buiten menselijke controle. Met al deze gevaren moet vanaf het begin rekening worden gehouden in de governance-architectuur.

AI is niet de eerste technologie met enkele van deze krachtige kenmerken, maar wel de eerste die ze allemaal combineert. AI-systemen zijn niet zoals auto's of vliegtuigen, die zijn gebouwd op hardware die vatbaar is voor stapsgewijze verbeteringen en waarvan de duurste mislukkingen de vorm aannemen van individuele ongelukken. Ze zijn niet zoals chemische of nucleaire wapens, die moeilijk en duur zijn om te ontwikkelen en op te slaan, laat staan in het geheim te delen of in te zetten. Naarmate hun enorme voordelen vanzelfsprekend worden, zullen AI-systemen alleen maar groter, beter, goedkoper en alomtegenwoordiger worden. Ze zullen zelfs in staat zijn tot quasi-autonomie – in staat om concrete doelen te bereiken met minimaal menselijk toezicht – en mogelijk tot zelfverbetering. Elk van deze kenmerken zou traditionele bestuursmodellen uitdagen; ze maken deze modellen allemaal hopeloos ontoereikend.

TE KRACHTIG OM TE PAUZEREN

Alsof dat nog niet genoeg is, compliceert AI, door de structuur en het evenwicht van de wereldmacht te verschuiven, de politieke context waarin deze wordt bestuurd. AI is niet alleen maar softwareontwikkeling zoals gewoonlijk; het is een geheel nieuwe manier om macht te projecteren. In sommige gevallen zal het bestaande autoriteiten op hun kop zetten; in andere gevallen zal het hen verschansen. Bovendien wordt de vooruitgang ervan aangedreven door onweerstaanbare prikkels: elke natie, onderneming en individu zal er een versie van willen hebben.

Binnen landen zal AI degenen die het toepassen in staat stellen bevolkingen te monitoren, te misleiden en zelfs te controleren – waardoor de verzameling en het commerciële gebruik van persoonlijke gegevens in democratieën een impuls krijgen en de instrumenten voor repressie die autoritaire regeringen gebruiken om hun samenlevingen te onderwerpen, worden aangescherpt. In alle landen zal AI het middelpunt zijn van hevige geopolitieke concurrentie. Of het nu gaat om de repressieve capaciteiten, het economische potentieel of het militaire voordeel, AI-suprematie zal een strategische doelstelling zijn voor elke regering die over de middelen beschikt om te concurreren. De minst fantasierijke strategieën zullen geld pompen in AI-kampioenen van eigen bodem of proberen supercomputers en algoritmen te bouwen en te controleren. Meer genuanceerde strategieën zullen specifieke concurrentievoordelen bevorderen, zoals Frankrijk probeert te doen door AI-startups rechtstreeks te ondersteunen; het Verenigd Koninkrijk, door te profiteren van zijn universiteiten en durfkapitaalecosysteem van wereldklasse; en de EU, door het mondiale gesprek over regelgeving en normen vorm te geven.

De overgrote meerderheid van de landen heeft noch het geld, noch de technologische knowhow om te concurreren om AI-leiderschap. Hun toegang tot grensverleggende AI zal in plaats daarvan worden bepaald door hun relaties met een handvol reeds rijke en machtige bedrijven en staten. Deze afhankelijkheid dreigt de huidige geopolitieke machtsonevenwichtigheden te verergeren. De machtigste regeringen zullen strijden om de controle over de meest waardevolle hulpbron ter wereld, terwijl landen in het mondiale Zuiden opnieuw achter zullen blijven. Dit wil niet zeggen dat alleen de rijksten zullen profiteren van de AI-revolutie. Net als internet en smartphones zal AI zich verspreiden zonder respect voor grenzen, evenals de productiviteitswinst die het oplevert. En net als energie en groene technologie zal AI veel landen ten goede komen die er geen controle over hebben, inclusief de landen die bijdragen aan de productie van AI-inputs zoals halfgeleiders.

Aan de andere kant van het geopolitieke spectrum zal de strijd om de suprematie van AI echter hevig zijn. Aan het einde van de Koude Oorlog hadden machtige landen wellicht kunnen samenwerken om elkaars angsten weg te nemen en een potentieel destabiliserende technologische wapenwedloop een halt toe te roepen. Maar de huidige gespannen geopolitieke omgeving maakt een dergelijke samenwerking veel moeilijker. AI is niet zomaar een instrument of wapen dat prestige, macht of rijkdom kan brengen. Het heeft het potentieel om een aanzienlijk militair en economisch voordeel ten opzichte van tegenstanders mogelijk te maken. Terecht of ten onrechte zien de twee spelers die er het meest toe doen – China en de Verenigde Staten – de ontwikkeling van AI als een nulsomspel dat de winnaar de komende decennia een beslissende strategische voorsprong zal geven.

China en de Verenigde Staten zien de ontwikkeling van AI allebei als een nulsomspel.

Vanuit het gezichtspunt van Washington en Peking is het risico dat de andere partij een voorsprong zal verwerven op het gebied van AI groter dan enig theoretisch risico dat de technologie zou kunnen opleveren voor de samenleving of voor hun eigen binnenlandse politieke autoriteit. Om die reden steken zowel de Amerikaanse als de Chinese regering enorme middelen in de ontwikkeling van AI-capaciteiten, terwijl ze proberen elkaar die mogelijkheden te ontnemen over de input die nodig is voor doorbraken van de volgende generatie. (Tot nu toe zijn de Verenigde Staten veel succesvoller geweest dan China in dat laatste, vooral met hun exportcontroles op geavanceerde halfgeleiders.) Deze nulsomdynamiek – en het gebrek aan vertrouwen aan beide kanten – betekent dat Peking en Washington gericht op het versnellen van de ontwikkeling van AI, in plaats van deze te vertragen. Volgens hen zou een ‘pauze’ in de ontwikkeling om de risico’s in te schatten, zoals sommige leiders uit de AI-industrie hebben opgeroepen, neerkomen op een dwaze eenzijdige ontwapening.

Maar dit perspectief gaat ervan uit dat staten op zijn minst enige controle over AI kunnen uitoefenen en behouden. Dit kan het geval zijn in China, dat zijn technologiebedrijven in het staatsweefsel heeft geïntegreerd. Maar in het Westen en elders is het waarschijnlijker dat AI de staatsmacht ondermijnt dan versterkt. Buiten China controleert een handvol grote, gespecialiseerde AI-bedrijven momenteel elk aspect van deze nieuwe technologische golf: wat AI-modellen kunnen doen, wie er toegang toe heeft, hoe ze kunnen worden gebruikt en waar ze kunnen worden ingezet. En omdat deze bedrijven angstvallig hun rekenkracht en algoritmen bewaken, begrijpen alleen zij (het grootste deel van) wat ze creëren en (het grootste deel van) wat die creaties kunnen doen. Deze paar bedrijven kunnen hun voordeel in de nabije toekomst behouden – of ze kunnen worden overschaduwd door een reeks kleinere spelers, omdat lage toetredingsdrempels, open source-ontwikkeling en vrijwel nul marginale kosten leiden tot een ongecontroleerde proliferatie van AI. Hoe dan ook, de AI-revolutie zal buiten de overheid plaatsvinden.

In beperkte mate lijken sommige van deze uitdagingen op die van eerdere digitale technologieën. Internetplatforms, sociale media en zelfs apparaten zoals smartphones opereren allemaal tot op zekere hoogte binnen sandboxes die worden beheerd door hun makers. Wanneer regeringen de politieke wil hebben opgeroepen, zijn ze in staat geweest regelgevingsregimes voor deze technologieën te implementeren, zoals de Algemene Verordening Gegevensbescherming van de EU, de Digital Markets Act en de Digital Services Act. Maar het duurde tien jaar of langer voordat dergelijke regelgeving in de EU tot stand kwam, en in de Verenigde Staten is deze nog steeds niet volledig gerealiseerd. AI beweegt zich veel te snel voor beleidsmakers om in hun gebruikelijke tempo te reageren. Bovendien helpen sociale media en andere oudere digitale technologieën zichzelf niet te creëren, en de commerciële en strategische belangen die hen drijven zijn nooit op dezelfde manier op elkaar afgestemd: Twitter en TikTok zijn krachtig, maar slechts weinigen denken dat ze de wereldeconomie kunnen transformeren.

Dit alles betekent dat het traject van AI in ieder geval de komende jaren grotendeels zal worden bepaald door de beslissingen van een handvol particuliere bedrijven, ongeacht wat beleidsmakers in Brussel of Washington doen. Met andere woorden: technologen, en niet beleidsmakers of bureaucraten, zullen gezag uitoefenen over een kracht die zowel de macht van natiestaten als de manier waarop zij zich tot elkaar verhouden diepgaand zou kunnen veranderen. Dat maakt de uitdaging van het besturen van AI anders dan alles waar regeringen eerder mee te maken hebben gehad; een evenwichtsoefening op regelgevingsgebied is delicater – en er staat meer op het spel – dan welke beleidsmakers dan ook hebben geprobeerd.

BEWEGEND DOEL, EVOLUEREND WAPEN

Regeringen lopen al achter de feiten aan. De meeste voorstellen voor het besturen van AI behandelen het als een conventioneel probleem dat vatbaar is voor de staatsgerichte oplossingen van de twintigste eeuw: compromissen over regels die zijn opgesteld door politieke leiders die rond een tafel zitten. Maar dat zal niet werken voor AI.

De regelgevingsinspanningen staan tot nu toe nog in de kinderschoenen en zijn nog steeds ontoereikend. De AI-wet van de EU is de meest ambitieuze poging om AI in welk rechtsgebied dan ook te regeren, maar zal pas in 2026 volledig van toepassing zijn, wanneer de AI-modellen onherkenbaar gevorderd zullen zijn. Groot-Brittannië heeft een nog lossere, vrijwillige aanpak voorgesteld voor de regulering van AI, maar het ontbreekt het land aan middelen om effectief te zijn. Geen van beide initiatieven probeert de ontwikkeling en inzet van AI op mondiaal niveau te beheersen – iets dat nodig zal zijn om AI-governance te laten slagen. En hoewel vrijwillige toezeggingen om de veiligheidsrichtlijnen voor AI te respecteren, zoals die in juli zijn gedaan door zeven toonaangevende AI-ontwikkelaars, waaronder Inflection AI, onder leiding van een van ons (Suleyman), welkom zijn, zijn ze geen vervanging voor juridisch bindende nationale en internationale regelgeving.

Voorstanders van overeenkomsten op internationaal niveau om AI te temmen neigen naar het model van kernwapenbeheersing. Maar AI-systemen zijn niet alleen oneindig veel gemakkelijker te ontwikkelen, te stelen en te kopiëren dan kernwapens; ze worden gecontroleerd door particuliere bedrijven, niet door overheden. Nu de nieuwe generatie AI-modellen zich sneller dan ooit verspreidt, lijkt de nucleaire vergelijking steeds ouderwetser. Zelfs als regeringen met succes de toegang kunnen controleren tot de materialen die nodig zijn om de meest geavanceerde modellen te bouwen – zoals de regering-Biden probeert te doen door te voorkomen dat China geavanceerde chips aanschaft – kunnen ze weinig doen om de verspreiding van die modellen te stoppen als ze eenmaal zijn getraind en vereisen daarom veel minder chips om te werken.

Om mondiaal AI-beheer te laten werken, moet het worden toegesneden op de specifieke aard ervane van de technologie, de uitdagingen die deze met zich meebrengt, en de structuur en het machtsevenwicht waarin deze opereert. Maar omdat de evolutie, het gebruik, de risico's en de voordelen van AI onvoorspelbaar zijn, kan AI-governance niet volledig worden gespecificeerd vanaf het begin – of op welk moment dan ook. Het moet net zo innovatief en evolutionair zijn als de technologie die het wil besturen, en enkele van de kenmerken delen die AI in de eerste plaats zo’n krachtige kracht maken. Dat betekent dat je helemaal opnieuw moet beginnen, een nieuw regelgevingskader van de grond af moet heroverwegen en opnieuw moet opbouwen.

Het overkoepelende doel van elke mondiale AI-regelgevingsarchitectuur zou moeten zijn om de risico’s voor de mondiale stabiliteit te identificeren en te beperken, zonder AI-innovatie en de kansen die daaruit voortvloeien te belemmeren. Noem deze benadering ‘technoprudentialisme’, een mandaat dat veel lijkt op de macroprudentiële rol die wordt gespeeld door mondiale financiële instellingen zoals de Financial Stability Board, de Bank of International Settlements en het Internationale Monetaire Fonds. Hun doel is het identificeren en beperken van risico’s voor de mondiale financiële stabiliteit zonder de economische groei in gevaar te brengen.


Bewakers op een Huawei-conferentie in Shanghai, september 2019 Aly Song / Reuters

Een technoprudentieel mandaat zou op dezelfde manier werken en de creatie van institutionele mechanismen vereisen om de verschillende aspecten van AI aan te pakken die de geopolitieke stabiliteit zouden kunnen bedreigen. Deze mechanismen zouden op hun beurt worden geleid door gemeenschappelijke principes die zowel zijn afgestemd op de unieke kenmerken van AI als die de nieuwe technologische machtsbalans weerspiegelen die technologiebedrijven aan het stuur heeft gezet. Deze principes zouden beleidsmakers helpen gedetailleerdere regelgevingskaders op te stellen om AI te besturen naarmate deze zich ontwikkelt en een meer alomtegenwoordige kracht wordt.

Het eerste en misschien wel meest cruciale principe voor AI-governance is voorzorg. Zoals de term impliceert, wordt het technoprudentialisme in de kern geleid door het voorzorgscredo: ten eerste: doe geen kwaad. Het maximaal beperken van AI zou betekenen dat we de levensveranderende voordelen moeten opgeven, maar het maximaal bevrijden ervan zou betekenen dat we al zijn potentieel catastrofale nadelen riskeren. Met andere woorden: het risico-opbrengstprofiel voor AI is asymmetrisch. Gezien de radicale onzekerheid over de omvang en onomkeerbaarheid van sommige potentiële schade van AI, moet AI-governance ernaar streven deze risico’s te voorkomen voordat ze werkelijkheid worden, in plaats van ze achteraf te beperken. Dit is vooral belangrijk omdat AI de democratie in sommige landen zou kunnen verzwakken en het voor hen moeilijker zou kunnen maken om regelgeving uit te vaardigen. Bovendien moet de bewijslast dat een AI-systeem boven een redelijke drempel veilig is, bij de ontwikkelaar en eigenaar liggen; het mag niet uitsluitend aan overheden zijn om problemen aan te pakken zodra deze zich voordoen.

AI-governance moet ook wendbaar zijn, zodat het zich kan aanpassen en de koers kan corrigeren naarmate AI evolueert en zichzelf verbetert. Publieke instellingen zijn vaak zo verkalkt dat ze zich niet meer aan veranderingen kunnen aanpassen. En in het geval van AI zal de enorme snelheid van de technologische vooruitgang snel het vermogen van de bestaande bestuursstructuren om de achterstand in te halen en bij te houden, overweldigen. Dit betekent niet dat AI-governance het ‘beweeg snel en maak dingen kapot’-ethos van Silicon Valley moet overnemen, maar het moet beter aansluiten bij de aard van de technologie die het wil beheersen.

AI-governance moet niet alleen voorzorgsgericht en wendbaar zijn, maar ook inclusief zijn en de deelname van alle actoren uitnodigen die nodig zijn om AI in de praktijk te reguleren. Dat betekent dat het bestuur van AI niet uitsluitend op de staat gericht kan zijn, aangezien overheden AI niet begrijpen of controleren. Particuliere technologiebedrijven ontberen misschien soevereiniteit in de traditionele zin van het woord, maar ze beschikken over echte – zelfs soevereine – macht en keuzevrijheid in de digitale ruimtes die ze hebben gecreëerd en die ze effectief besturen. Deze niet-statelijke actoren mogen niet dezelfde rechten en privileges krijgen als staten, waarvan internationaal wordt erkend dat zij namens hun burgers optreden. Maar ze moeten partij zijn bij internationale topconferenties en ondertekenaars zijn van alle overeenkomsten over AI.

Een dergelijke verbreding van het bestuur is noodzakelijk omdat elke regelgevingsstructuur die de echte agenten van AI-macht uitsluit, gedoemd is te mislukken. In eerdere golven van technologieregulering kregen bedrijven vaak zoveel speelruimte dat ze te ver gingen, waardoor beleidsmakers en toezichthouders hard op hun excessen reageerden. Maar deze dynamiek kwam noch de technologiebedrijven, noch het publiek ten goede. Het uitnodigen van AI-ontwikkelaars om vanaf het begin deel te nemen aan het regelgevingsproces zou helpen een meer op samenwerking gerichte cultuur van AI-bestuur tot stand te brengen, waardoor de noodzaak om deze bedrijven achteraf in toom te houden met kostbare en vijandige regelgeving wordt verminderd.

AI is een probleem van de mondiale commons, en niet alleen het domein van twee supermachten.

Techbedrijven moeten niet altijd inspraak hebben; sommige aspecten van AI-beheer kunnen het beste aan overheden worden overgelaten, en het spreekt voor zich dat staten altijd het uiteindelijke vetorecht over beleidsbeslissingen moeten behouden. Overheden moeten zich ook wapenen tegen ‘regulatory capture’ om ervoor te zorgen dat technologiebedrijven hun invloed binnen politieke systemen om hun belangen te behartigen ten koste van het algemeen belang. Maar een inclusief bestuursmodel met meerdere belanghebbenden zou ervoor zorgen dat de actoren die het lot van AI zullen bepalen, betrokken zijn bij – en gebonden zijn aan – de regelgevingsprocessen. Naast regeringen (vooral maar niet beperkt tot China en de Verenigde Staten) en technologiebedrijven (vooral maar niet beperkt tot de Big Tech-spelers), wetenschappers, ethici, vakbonden, maatschappelijke organisaties en andere stemmen met kennis van macht voorbij is, of er moet een aandeel in AI-resultaten aan tafel zitten. Het Partnership on AI – een non-profitorganisatie die een reeks grote technologiebedrijven, onderzoeksinstellingen, liefdadigheidsinstellingen en maatschappelijke organisaties bijeenbrengt om verantwoord AI-gebruik te bevorderen – is een goed voorbeeld van het soort gemengd, inclusief forum dat nodig is.

AI-governance moet ook zo ondoordringbaar mogelijk zijn. In tegenstelling tot de beperking van de klimaatverandering, waarbij het succes wordt bepaald door de som van alle individuele inspanningen, wordt de veiligheid van AI bepaald door de kleinste gemene deler: een enkel uitbraakalgoritme kan onnoemelijke schade aanrichten. Omdat mondiaal AI-beheer slechts zo goed is als het slechtst bestuurde land, bedrijf of technologie, moet het overal waterdicht zijn – waarbij toetreding eenvoudig genoeg is om deelname af te dwingen en uittreding kostbaar genoeg om niet-naleving te ontmoedigen. Eén enkele maas in de wet, een zwakke schakel of een malafide overloper zal de deur openen voor wijdverbreide lekkage, slechte actoren of een regelgevende race naar de bodem.

AI-governance moet niet alleen de hele wereld bestrijken, maar ook de hele toeleveringsketen bestrijken: van productie tot hardware, van software tot diensten en van leveranciers tot gebruikers. Dit betekent technoprudentiële regulering en toezicht op elk knooppunt van de AI-waardeketen, van de productie van AI-chips tot het verzamelen van gegevens, van modeltraining tot eindgebruik, en van de hele reeks technologieën die in een bepaalde toepassing worden gebruikt. Een dergelijke ondoordringbaarheid zal ervoor zorgen dat er geen grijze gebieden op regelgevingsgebied kunnen worden benut.

Ten slotte zal AI-governance gericht moeten zijn, in plaats van one-size-fits-all. Omdat AI een technologie voor algemene doeleinden is, brengt het multidimensionale bedreigingen met zich mee. Eén enkel governance-instrument is niet voldoende om de verschillende bronnen van AI-risico’s aan te pakken. In de praktijk zal het bepalen van welke instrumenten geschikt zijn om welke risico's aan te pakken het ontwikkelen van een levende en ademende taxonomie vereisen van alle mogelijke effecten die AI zou kunnen hebben – en hoe deze het beste kunnen worden beheerd. Zo zal AI in sommige toepassingen evolutionair zijn, waardoor de huidige problemen zoals privacyschendingen verergeren, en in andere revolutionair zijn, waardoor geheel nieuwe schade wordt aangericht. Soms is de beste plaats om in te grijpen de plek waar gegevens worden verzameld. Andere keren zal dit het punt zijn waarop geavanceerde chips worden verkocht, zodat ze niet in verkeerde handen vallen. Voor het omgaan met desinformatie en desinformatie zijn andere instrumenten nodig dan voor het omgaan met de risico's van AGI en andere onzekere technologieën met potentieel existentiële gevolgen. Een lichte regelgevende aanpak en vrijwillige begeleiding zullen in sommige gevallen werken; in andere landen zullen overheden de naleving strikt moeten afdwingen.

Dit alles vereist een diepgaand begrip en actuele kennis van de technologieën in kwestie. Regelgevers en andere autoriteiten zullen toezicht op en toegang tot belangrijke AI-modellen nodig hebben. In feite zullen ze een auditsysteem nodig hebben dat niet alleen capaciteiten op afstand kan volgen, maar ook rechtstreeks toegang kan krijgen tot kerntechnologieën, waarvoor op hun beurt het juiste talent nodig is. Alleen dergelijke maatregelen kunnen ervoor zorgen dat nieuwe AI-toepassingen proactief worden beoordeeld, zowel op voor de hand liggende risico's als op potentieel ontwrichtende tweede- en derde-orde gevolgen. Gericht bestuur moet met andere woorden goed geïnformeerd bestuur zijn.

DE TECHNOPRUDENTIËLE IMPERATIEF

Bovenop deze principes moeten minimaal drie AI-governanceregimes zijn gebouwd, elk met verschillende mandaten, hefbomen en deelnemers. Ze zullen allemaal nieuw van opzet moeten zijn, maar ze kunnen allemaal inspiratie zoeken in bestaande regelingen voor het aanpakken van andere mondiale uitdagingen – namelijk klimaatverandering, wapenproliferatie en financiële stabiliteit.

Het eerste regime zou zich richten op feitenonderzoek en de vorm aannemen van een mondiaal wetenschappelijk orgaan dat regeringen en internationale instanties objectief adviseert over vragen die zo fundamenteel zijn als wat AI is en welke soorten beleidsuitdagingen het met zich meebrengt. Als niemand het eens kan worden over de definitie van AI of de mogelijke omvang van de schade ervan, zal effectieve beleidsvorming onmogelijk zijn. Hier is de klimaatverandering leerzaam. Om een basis van gedeelde kennis voor klimaatonderhandelingen te creëren, hebben de Verenigde Naties het Intergouvernementeel Panel voor Klimaatverandering opgericht en het een eenvoudig mandaat gegeven: beleidsmakers voorzien van “regelmatige beoordelingen van de wetenschappelijke basis van klimaatverandering, de gevolgen ervan en toekomstige risico’s, en opties voor aanpassing en mitigatie.” AI heeft een soortgelijk orgaan nodig dat regelmatig de stand van zaken op het gebied van AI evalueert, op onpartijdige wijze de risico’s en potentiële gevolgen ervan inschat, scenario’s voorspelt entechnische beleidsoplossingen om het mondiale publieke belang te beschermen. Net als het IPCC zou dit orgaan een mondiale imprimatur en wetenschappelijke (en geopolitieke) onafhankelijkheid hebben. En de rapporten van het IPCC zouden multilaterale onderhandelingen en onderhandelingen met meerdere belanghebbenden over AI kunnen informeren, net zoals de rapporten van het IPCC de VN-klimaatonderhandelingen informeren.

De wereld heeft ook een manier nodig om de spanningen tussen de grote AI-machten te beheersen en de verspreiding van gevaarlijke geavanceerde AI-systemen te voorkomen. De belangrijkste internationale relatie op het gebied van AI is die tussen de Verenigde Staten en China. Samenwerking tussen de twee rivalen is onder de beste omstandigheden moeilijk te realiseren. Maar in de context van de toegenomen geopolitieke concurrentie zou een ongecontroleerde AI-race alle hoop op het smeden van een internationale consensus over AI-beheer kunnen doen mislukken. Eén gebied waarop Washington en Peking het wellicht voordelig vinden om samen te werken, is het vertragen van de proliferatie van krachtige systemen die de autoriteit van natiestaten in gevaar zouden kunnen brengen. In het uiterste geval zou de dreiging van ongecontroleerde, zichzelf replicerende AGI’s – mochten ze in de komende jaren worden uitgevonden – sterke prikkels bieden om te coördineren op het gebied van veiligheid en inperking.

Op al deze fronten moeten Washington en Peking ernaar streven gebieden van gemeenschappelijkheid te creëren en zelfs vangrails te creëren die door een derde partij worden voorgesteld en gecontroleerd. Hier zouden de monitoring- en verificatiebenaderingen die vaak voorkomen in wapenbeheersingsregimes kunnen worden toegepast op de belangrijkste AI-inputs, met name die gerelateerd aan computerhardware, waaronder geavanceerde halfgeleiders en datacentra. Het reguleren van belangrijke knelpunten heeft tijdens de Koude Oorlog geholpen een gevaarlijke wapenwedloop in te dammen, en zou nu ook een potentieel nog gevaarlijkere AI-race kunnen helpen indammen.

Er zijn maar weinig machtige kiesdistricten die voorstander zijn van het insluiten van AI.

Maar aangezien een groot deel van AI al gedecentraliseerd is, is het een probleem van de mondiale commons en niet het domein van twee supermachten. Het gedecentraliseerde karakter van AI-ontwikkeling en de kernkenmerken van de technologie, zoals de verspreiding van open source, vergroten de kans dat deze zal worden bewapend door cybercriminelen, door de staat gesponsorde actoren en eenzame wolven. Daarom heeft de wereld een derde AI-beheersregime nodig dat kan reageren wanneer zich gevaarlijke verstoringen voordoen. Voor modellen zouden beleidsmakers kunnen kijken naar de aanpak die financiële autoriteiten hebben gevolgd om de mondiale financiële stabiliteit te handhaven. De Financial Stability Board, samengesteld uit centrale bankiers, ministeries van Financiën en toezichthoudende en regelgevende autoriteiten van over de hele wereld, werkt aan het voorkomen van mondiale financiële instabiliteit door systemische kwetsbaarheden te beoordelen en de noodzakelijke acties te coördineren om deze aan te pakken onder nationale en internationale autoriteiten. Een soortgelijk technocratisch orgaan voor AI-risico’s – noem het de Geotechnology Stability Board – zou kunnen werken aan het handhaven van geopolitieke stabiliteit te midden van snelle, door AI aangedreven veranderingen. Met de steun van nationale regelgevende instanties en internationale normalisatie-instellingen zou het expertise en middelen kunnen bundelen om AI-gerelateerde crises te voorkomen of erop te reageren, waardoor het risico op besmetting wordt verminderd. Maar het zou ook rechtstreeks samenwerken met de particuliere sector, waarbij wordt erkend dat belangrijke multinationale technologieactoren een cruciale rol spelen bij het handhaven van de geopolitieke stabiliteit, net zoals systeemrelevante banken dat doen bij het handhaven van de financiële stabiliteit.

Een dergelijk orgaan, met gezag geworteld in overheidssteun, zou goed gepositioneerd zijn om te voorkomen dat mondiale technologiespelers zich bezighouden met regelgevingsarbitrage of zich verschuilen achter de vestigingsplaats van bedrijven. Het erkennen dat sommige technologiebedrijven systeemrelevant zijn, betekent niet dat start-ups of opkomende innovatoren worden onderdrukt. Integendeel, het creëren van één enkele, directe lijn van een mondiaal bestuursorgaan naar deze technologische giganten zou de effectiviteit van de handhaving van de regelgeving en het crisisbeheer vergroten – die beide het hele ecosysteem ten goede komen.

Een regime dat is ontworpen om de geotechnologische stabiliteit te handhaven zou ook een gevaarlijke leemte in het huidige regelgevingslandschap opvullen: de verantwoordelijkheid voor het besturen van open-source AI. Een zekere mate van online censuur zal noodzakelijk zijn. Als iemand een uiterst gevaarlijk model uploadt, moet deze instantie de duidelijke autoriteit (en mogelijkheid) hebben om het te verwijderen of de nationale autoriteiten opdracht te geven dit te doen. Dit is een ander gebied voor potentiële bilaterale samenwerking. China en de Verenigde Staten zouden moeten willen samenwerken om veiligheidsbeperkingen in open-sourcesoftware te verankeren, bijvoorbeeld door de mate te beperken waarin modellen gebruikers kunnen instrueren over de ontwikkeling van chemische of biologische wapens of het creëren van pandemische ziekteverwekkers. Bovendien zou er ruimte kunnen zijn voor Peking en Washington om samen te werken op het gebied van mondiale antiproliferatie-inspanningen, onder meer door het gebruik van interventionistische cyberinstrumenten.

Elk van deze regimes zou universeel moeten opereren en de steun van alle grote AI-spelers moeten genieten. De regimes zouden gespecialiseerd genoeg moeten zijn om met echte AI-systemen om te gaan en dynamisch genoeg om hun kennis over AI te blijven actualiseren naarmate deze evolueert. Door samen te werken zouden deze instellingen dat niet kunneneen beslissende stap zetten in de richting van technoprudentieel beheer van de opkomende AI-wereld. Maar zij zijn zeker niet de enige instellingen die nodig zullen zijn. Andere regelgevingsmechanismen, zoals ‘ken uw klant’-transparantienormen, licentievereisten, veiligheidstestprotocollen en productregistratie- en goedkeuringsprocessen, zullen de komende jaren op AI moeten worden toegepast. De sleutel bij al deze ideeën zal zijn het creëren van flexibele, veelzijdige bestuursinstellingen die niet worden beperkt door traditie of gebrek aan verbeeldingskracht – technologen zullen immers niet door die dingen worden beperkt.

BEVORDER HET BESTE, VOORKOM HET SLECHTSTE

Geen van deze oplossingen zal eenvoudig te implementeren zijn. Ondanks al het geroezemoes en gepraat van wereldleiders over de noodzaak om AI te reguleren, ontbreekt het nog steeds aan politieke wil om dat te doen. Op dit moment zijn er maar weinig machtige kiesdistricten die voorstander zijn van het inperken van AI – en alle prikkels wijzen op voortdurende passiviteit. Maar goed ontworpen zou een AI-beheersregime van het soort dat hier wordt beschreven geschikt kunnen zijn voor alle geïnteresseerde partijen, waarbij principes en structuren worden verankerd die het beste op het gebied van AI bevorderen en tegelijkertijd het ergste voorkomen. Het alternatief – onbeheerste AI – zou niet alleen onaanvaardbare risico’s met zich meebrengen voor de mondiale stabiliteit; het zou ook slecht zijn voor het bedrijfsleven en in strijd zijn met het nationale belang van elk land.

Een sterk AI-bestuursregime zou zowel de maatschappelijke risico’s van AI verzachten als de spanningen tussen China en de Verenigde Staten verlichten door de mate waarin AI een arena – en een instrument – van geopolitieke concurrentie is, te verminderen. En zo’n regime zou iets bereiken dat zelfs nog diepgaander en langduriger is: het zou een model vestigen voor de manier waarop andere ontwrichtende, opkomende technologieën kunnen worden aangepakt. AI mag dan een unieke katalysator voor verandering zijn, het is zeker niet de laatste ontwrichtende technologie waarmee de mensheid te maken zal krijgen. Kwantumcomputing, biotechnologie, nanotechnologie en robotica hebben ook het potentieel om de wereld fundamenteel te hervormen. Het succesvol besturen van AI zal de wereld helpen ook deze technologieën met succes te besturen.

De 21e eeuw zal weinig uitdagingen met zich meebrengen die zo afschrikwekkend zijn of kansen bieden die zo veelbelovend zijn als die van AI. In de afgelopen eeuw zijn beleidsmakers begonnen met het bouwen van een architectuur voor mondiaal bestuur waarvan zij hoopten dat deze opgewassen zou zijn tegen de taken van deze tijd. Nu moeten ze een nieuwe bestuursarchitectuur bouwen om de meest formidabele en potentieel bepalende kracht van dit tijdperk te beheersen en te benutten. Het jaar 2035 staat voor de deur. Er is geen tijd te verliezen.

IAN BREMMER is president en oprichter van Eurasia Group en GZERO Media. Hij is de auteur van The Power of Crisis: How Three Threats – and Our Response – Will Change the World.
MUSTAFA SULEYMAN is CEO en medeoprichter van Inflection AI. Hij is medeoprichter van DeepMind en auteur van The Coming Wave: Technology, Power, and the Twenty-first Century’s Greatest Dilemma.

Foreign Affairs