Artificiële intelligentie: ‘Het voorkomen van schade is essentieel’

Robert Muggah, Gabriella Seiler en Gordon LaForge (vertaling: Menno Grootveld)

18 april 2023
Opinie

Artificiële intelligentie: ‘Het voorkomen van schade is essentieel’

Artificiële intelligentie: ‘Het voorkomen van schade is essentieel’
Artificiële intelligentie: ‘Het voorkomen van schade is essentieel’

Om een 'veilige, welvarende, duurzame en mensgerichte toekomst' te garanderen, is het nu tijd voor wetgeving die onze mensenrechten centraal stelt. Dat schrijven Robert Muggah en Gabriella Seiler van het Igarapé Institute, en Gordon LaForge van Arizona State University.

Burst (public domain)

Burst (public domain)

Om een ‘veilige, welvarende, duurzame en mensgerichte toekomst’ te garanderen, is het nu tijd voor wetgeving die onze mensenrechten centraal stelt. Dat schrijven Robert Muggah en Gabriella Seiler van het Igarapé Institute, en Gordon LaForge van Arizona State University.

De afgelopen maanden zullen wellicht worden herinnerd als het moment waarop voorspellende kunstmatige intelligentie mainstream ging. Voorspellingsalgoritmen worden al tientallen jaren gebruikt. Maar de introductie van toepassingen zoals OpenAI’s ChatGPT3 – en de snelle integratie ervan met Microsofts Bing-zoekmachine – hebben wellicht de sluizen geopend als het gaat om gebruiksvriendelijke artificiële intelligentie (AI).

Enkele weken na de lancering van ChatGPT3 had het programma al honderd miljoen maandelijkse gebruikers aangetrokken, van wie velen ongetwijfeld ook al de duistere kant hebben ervaren – van beledigingen en bedreigingen tot desinformatie en een vermogen om schadelijke computercode te schrijven.

De chatbots die de krantenkoppen halen zijn het topje van de ijsberg. Applicaties voor het creëren van tekst, spraak, kunst en video boeken snelle vorderingen, met verstrekkende gevolgen. Het is dan ook niet verwonderlijk dat kapitaal de sector vandaag overspoelt. Zowel overheden als bedrijven investeren in start-ups. De nieuwste toepassingen combineren historische data met machinaal leren, natuurlijke taalverwerking en deep learning gebaseerd op zogenaamde neurale netwerken om de waarschijnlijkheid van toekomstige gebeurtenissen te bepalen.

Het is cruciaal dat deze technologieën niet enkel ingang vinden in rijke landen via bedrijven als Google, Meta en Microsoft die het voortouw hebben genomen bij de ontwikkeling ervan. De technologieën verspreiden zich vandaag al over lage- en middeninkomenslanden. Daar zijn voorspellende analyses voor het terugdringen van stedelijke ongelijkheid of het aanpakken van voedselonzekerheid beloftevol. Overheden, bedrijven en ngo’s kunnen met minder geld efficiënter werken.

Het probleem is dat er onvoldoende aandacht is geweest voor de mogelijke negatieve externe effecten en onbedoelde gevolgen van deze technologieën. Het meest voor de hand liggende risico is dat ongekend krachtige voorspellingsinstrumenten de surveillance-capaciteit van autoritaire regimes zullen versterken.

Een veel genoemd voorbeeld is het Chinese ‘sociale kredietstelsel,’ dat gebruik maakt van je kredietverleden, strafrechtelijke veroordelingen, online gedrag en andere gegevens om je een score toe te kennen. Die scores kunnen dan bepalen of iemand een lening kan krijgen, toegang heeft tot een goede school, per trein of vliegtuig kan reizen, enzovoort. Al wordt China’s systeem aangeprezen als een instrument voor transparantie, het dient duidelijk het doel van sociale controle.

Maar zelfs als de nieuwe technologieën worden gebruikt door ogenschijnlijk goedwillende democratische regeringen, verantwoorde bedrijven en non-profitorganisaties kunnen voorspellende instrumenten suboptimale resultaten opleveren.

Ontwerpfouten in de onderliggende algoritmen en bevooroordeelde datasets kunnen leiden tot inbreuken op de privacy en tot discriminatie. Dit is in sneltempo een probleem geworden in het strafrecht, waar voorspellende analyses routinematig raciale en sociaaleconomische ongelijkheden bestendigen. Zo discrimineerde een systeem, ontwikkeld om rechters in de Verenigde Staten te helpen de kans op recidive in te schatten, onterecht zwarte verdachten.

De bezorgdheid over hoe AI de ongelijkheid op de werkplek kan vergroten neemt ook toe. Tot nu toe hebben voorspellende algoritmen de efficiëntie en winsten verhoogd, maar wel op een manier die managers en aandeelhouders ten goede komen ten koste van de andere werknemers.

In al deze voorbeelden houden AI-systemen de samenleving een spiegel voor, waarin onze vooroordelen en ongelijkheden gereflecteerd en uitvergroot worden. Zoals technologie-onderzoeker Nanjira Sambuli opmerkt, verergert digitalisering reeds bestaande politieke, sociale en economische problemen.

Het enthousiasme om voorspellende instrumenten te gebruiken moet worden afgeremd door een ethische overweging van de bedoelde en onbedoelde effecten. Wanneer de effecten van krachtige algoritmen onbekend zijn, moet het voorzorgsbeginsel de inzet ervan ontraden.

We moeten voorkomen dat AI het zoveelste terrein wordt waarop te laat gereageerd wordt door beleidsmakers. Daarom hebben de Hoge Commissaris voor de Mensenrechten van de Verenigde Naties en anderen al opgeroepen tot een moratorium op de invoering van AI-systemen totdat de ethische en mensenrechtenkaders zijn bijgewerkt.

Om de juiste kaders te creëren moet een consensus worden bereikt over de basisbeginselen die ten grondslag moeten liggen aan het ontwerp en het gebruik van voorspellende AI. Gelukkig heeft de wedloop naar AI ook geleid tot een golf van onderzoek, initiatieven, instituten en netwerken op het vlak van ethiek. En hoewel het maatschappelijk middenveld het voortouw heeft genomen, zijn ook intergouvernementele instanties zoals de OESO en de UNESCO betrokken.

Lage- en middeninkomenslanden hebben hun eigen basisbehoeften, zorgen en sociale ongelijkheden waarmee rekening moet worden gehouden.

De VN werkt al minstens sinds 2021 aan universele normen voor ethische AI. Bovendien heeft de Europese Unie een AI-wet voorgesteld die bepaalde toepassingen zou blokkeren en ander gebruik met een hoog risico zou onderwerpen aan specifieke eisen en toezicht.

Tot nu toe woedt dit debat vooral in Noord-Amerika en West-Europa. Maar lage- en middeninkomenslanden hebben hun eigen basisbehoeften, zorgen en sociale ongelijkheden waarmee rekening moet worden gehouden. Onderzoek toont aan dat technologieën die zijn ontwikkeld door en voor markten in geavanceerde economieën vaak ongeschikt zijn voor minder ontwikkelde economieën.

Als de nieuwe AI-instrumenten op grote schaal worden gebruikt voordat de nodige bestuursstructuren zijn opgezet, kunnen zij makkelijk meer kwaad dan goed doen. Met al deze kwesties moet rekening worden gehouden als we werkelijk universele beginselen vwillen opstellen.

Het Igarapé-instituut en New America erkennen deze lacunes en hebben onlangs een nieuwe Global Task Force on Predictive Analytics for Security and Development opgericht. Wij zullen voorvechters van digitale rechten, partners uit de publieke sector, tech-ondernemers en sociale wetenschappers uit Noord- en Zuid-Amerika, Afrika, Azië en Europa bijeenbrengen. Zo kunnen we de beginselen vastleggen voor het gebruik van voorspellende technologieën voor openbare veiligheid en duurzame ontwikkeling, ook in het Globale Zuiden.

Het formuleren van deze beginselen en normen is slechts de eerste stap. De grotere uitdaging zal zijn om internationale, nationale en subnationale samenwerking tot stand te brengen om dit in wetgeving en praktijk om te zetten. In de wereldwijde race richting nieuwe voorspellende AI-toepassingen, is het voorkomen van schade essentieel om een veilige, welvarende, duurzame en mensgerichte toekomst te garanderen.

Robert Muggah, medeoprichter van het Igarapé Institute en de SecDev Group, is lid van de Global Future Council on Cities of Tomorrow van het World Economic Forum en adviseur van het Global Risks Report. Gabriella Seiler is consultant bij het Igarapé Instituut en partner en directeur bij Kunumi. Gordon LaForge is senior beleidsanalist bij New America en docent aan de Thunderbird School of Global Management van de Arizona State University. Dit opiniestuk werd geschreven voor Project Syndicate en vertaald naar het Nederlands door Menno Grootveld.