Aanmelden

Rapport

Een gids voor beleidsmakers: evaluatie van snel ontwikkelende technologieën, waaronder AI, grote taalmodellen en meer

In dit artikel onderzoekt het ISC de contouren van een raamwerk om beleidsmakers te informeren over de vele mondiale en nationale discussies die plaatsvinden met betrekking tot AI.

De gids van de ISC biedt een alomvattend raamwerk dat is ontworpen om de kloof te overbruggen tussen principes op hoog niveau en praktisch, uitvoerbaar beleid. Het speelt in op de dringende behoefte aan een gemeenschappelijk begrip van zowel de kansen als de risico's die opkomende technologieën met zich meebrengen. Dit is een essentieel document voor degenen die werkzaam zijn op het beleidsknooppunt in ons snel veranderende digitale tijdperk.

Het raamwerk onderzoekt het potentieel van AI en zijn derivaten via een alomvattende lens, die het menselijk en maatschappelijk welzijn omvat, samen met externe factoren zoals economie, politiek, het milieu en veiligheid. Sommige aspecten van de checklist kunnen relevanter zijn dan andere, afhankelijk van de context, maar betere beslissingen lijken waarschijnlijker als alle domeinen in overweging worden genomen, zelfs als sommige in bepaalde gevallen snel als irrelevant kunnen worden geïdentificeerd. Dit is de inherente waarde van een checklistbenadering.

“In een tijdperk dat wordt gekenmerkt door snelle technologische innovatie en complexe mondiale uitdagingen, stelt het raamwerk van de ISC voor alomvattende en multidimensionale analyse van de potentiële impact leiders in staat om weloverwogen, verantwoordelijke beslissingen te nemen. Het zorgt ervoor dat we, naarmate we technologisch vooruitgaan, dit doen met een zorgvuldige afweging van de ethische, sociale en economische implicaties.”

Peter Gluckman, ISC-voorzitter

Hoewel principes op hoog niveau zijn afgekondigd door onder meer UNESCO, de OESO, de Europese Commissie en de VN, en er diverse discussies voortduren over kwesties als mogelijk bestuur, regulering, ethiek en veiligheid, gaapt er een grote kloof tussen dergelijke principes en een bestuurs- of regelgevingskader. Het ISC komt tegemoet aan deze behoefte via zijn nieuwe gids voor beleidsmakers.

Deze gids voor beleidsmakers is niet bedoeld om een ​​regelgevingsregime voor te schrijven, maar eerder om een ​​adaptief en evoluerend analytisch raamwerk voor te stellen dat de basis zou kunnen vormen voor alle beoordelings- en regelgevingsprocessen die door belanghebbenden, waaronder overheden en het multilaterale systeem, zouden kunnen worden ontwikkeld.

“Het raamwerk is een cruciale stap in het mondiale gesprek over AI, omdat het een basis biedt van waaruit we consensus kunnen opbouwen over de implicaties van de technologie voor zowel nu als in de toekomst.” 

Hema Sridhar, voormalig hoofdwetenschappelijk adviseur, Ministerie van Defensie, Nieuw-Zeeland en nu Senior Research Fellow, Universiteit van Auckland, Nieuw-Zeeland.

Sinds oktober 2023 zijn er verschillende belangrijke nationale en multilaterale initiatieven geweest waarin verder aandacht is besteed aan de ethiek en veiligheid van AI. De implicaties van AI voor de integriteit van sommige van onze cruciale systemen, waaronder financiële, overheids-, juridische en onderwijssystemen, evenals verschillende kennissystemen (waaronder wetenschappelijke en inheemse kennis), zijn van toenemende zorg. Het raamwerk weerspiegelt deze aspecten verder.

De feedback die tot nu toe is ontvangen van ISC-leden en de internationale beleidsgemeenschap wordt weerspiegeld in de herziene versie van het analytische raamwerk, dat nu wordt vrijgegeven als leidraad voor beleidsmakers.

Een gids voor beleidsmakers: evaluatie van snel ontwikkelende technologieën, waaronder AI, grote taalmodellen en meer

Dit discussiestuk biedt de schets van een eerste raamwerk ter informatie van de vele mondiale en nationale discussies die plaatsvinden met betrekking tot AI.

Raamwerk voor gebruik in uw organisatie

Download het raamwerk voor gebruik in uw organisatie

Hier bieden wij de raamwerktool aan als bewerkbaar Excel-blad voor gebruik in uw organisatie. Als u de voorkeur geeft aan een open source-formaat, neem dan contact op met [e-mail beveiligd].

Inleiding

Snel opkomende technologieën brengen uitdagende problemen met zich mee als het gaat om het gebruik ervan, het bestuur en de potentiële regulering ervan. Het voortdurende beleid en de publieke debatten over kunstmatige intelligentie (AI) en het gebruik ervan hebben deze kwesties acuut onder de aandacht gebracht. Er zijn brede principes voor AI aangekondigd door UNESCO, de OESO, de VN en anderen, waaronder de Bletchley-verklaring van het Verenigd Koninkrijk, en er zijn pogingen in de jurisdictie gaande om aspecten van de technologie te reguleren via bijvoorbeeld de AI van de Europese Unie (EU). Act of de recente Amerikaanse AI Executive Order.

Hoewel het gebruik van AI uitvoerig wordt besproken in deze en andere fora, over geopolitieke scheidslijnen heen en in landen op alle inkomensniveaus, blijft er een ontologische kloof bestaan ​​tussen de ontwikkeling van beginselen op hoog niveau en de invoering ervan in de praktijk via regelgeving, beleid, bestuur of rentmeesterschapsbenaderingen. Het pad van principe naar praktijk is slecht gedefinieerd, maar gezien de aard en het ritme van de ontwikkeling en toepassing van AI, de verscheidenheid aan interesses en het scala aan mogelijke toepassingen, kan elke aanpak niet overdreven generiek of prescriptief zijn.

Om deze redenen blijft de niet-gouvernementele wetenschappelijke gemeenschap een bijzondere rol spelen. De International Science Council (ISC) – met zijn pluralistische lidmaatschap van de sociale en natuurwetenschappen – bracht in oktober 2023 een discussienota uit waarin een voorlopig analytisch raamwerk werd gepresenteerd waarin de risico’s, voordelen, bedreigingen en kansen werden overwogen die gepaard gaan met de snel veranderende digitale technologie. Hoewel het is ontwikkeld om rekening te houden met AI, is het inherent technologie-agnostisch en kan het worden toegepast op een reeks opkomende en ontwrichtende technologieën, zoals synthetische biologie en kwantum. Dat discussiestuk vroeg om feedback van academici en beleidsmakers. De overweldigende feedback maakte het uitvoeren van een dergelijke analyse noodzakelijk en vormde een waardevolle aanpak om opkomende technologieën zoals AI aan te pakken.

Het doel van het raamwerk is om een ​​instrument te bieden om alle belanghebbenden – inclusief regeringen, handelsonderhandelaars, regelgevers, het maatschappelijk middenveld en de industrie – te informeren over de evolutie van deze technologieën, om hen te helpen in kaart te brengen hoe zij de implicaties, positief of negatief, van deze technologieën zouden kunnen overwegen. de technologie zelf, en meer specifiek de specifieke toepassing ervan. Dit analytisch raamwerk is ontwikkeld onafhankelijk van de belangen van de overheid en het bedrijfsleven. Het is maximaal pluralistisch in zijn perspectieven en omvat alle aspecten van de technologie en de implicaties ervan, gebaseerd op uitgebreid overleg en feedback.

Dit discussiestuk voor beleidsmakers is niet bedoeld om een ​​regelgevingsregime te verbieden, maar eerder om een ​​adaptief en evoluerend analytisch raamwerk voor te stellen dat ten grondslag zou kunnen liggen aan alle beoordelings- en regelgevingsprocessen die door belanghebbenden, waaronder overheden en het multilaterale systeem, zouden kunnen worden ontwikkeld.

Terwijl besluitvormers wereldwijd en nationaal passende beleidssettings en hefbomen overwegen om de risico’s en voordelen van een nieuwe technologie zoals AI in evenwicht te brengen, is het analytische raamwerk bedoeld als een aanvullend instrument om ervoor te zorgen dat het volledige scala aan potentiële implicaties adequaat wordt weerspiegeld.

Achtergrond: waarom een ​​analytisch raamwerk?

De snelle opkomst van technologieën met de complexiteit en implicaties van AI zorgt voor veel claims met groot voordeel. Het roept echter ook angst op voor aanzienlijke risico's, van individueel tot geostrategisch niveau.1 Een groot deel van de discussie tot nu toe is in binaire zin opgevat, aangezien publiekelijk geuite standpunten zich doorgaans aan de uiterste uiteinden van het spectrum afspelen. De beweringen voor of tegen AI zijn vaak hyperbolisch en – gezien de aard van de technologie – moeilijk te beoordelen.

Er is een meer pragmatische aanpak nodig waarbij hyperbool wordt vervangen door gekalibreerde en meer gedetailleerde evaluaties. AI-technologie zal zich blijven ontwikkelen, en de geschiedenis leert dat vrijwel elke technologie zowel nuttige als schadelijke toepassingen heeft. De vraag is daarom: hoe kunnen we de gunstige resultaten van deze technologie bereiken, terwijl we tegelijkertijd het risico op schadelijke gevolgen verminderen, waarvan sommige existentieel van omvang zouden kunnen zijn?

De toekomst is altijd onzeker, maar er zijn voldoende geloofwaardige en deskundige stemmen op het gebied van AI en generatieve AI om een ​​relatief voorzorgsaanpak aan te moedigen. Bovendien is een systeembenadering noodzakelijk omdat AI een klasse technologieën is met een breed gebruik en toepassing door meerdere soorten gebruikers. Dit betekent dat de volledige context in overweging moet worden genomen bij het overwegen van de implicaties van welk AI-gebruik dan ook voor individuen, het sociale leven, het maatschappelijk leven, het maatschappelijke leven en in de mondiale context.

In tegenstelling tot de meeste andere technologieën is bij digitale en aanverwante technologieën de tijd tussen ontwikkeling, release en toepassing extreem kort, grotendeels ingegeven door de belangen van de productiebedrijven of -agentschappen. Door zijn aard – en omdat het gebaseerd is op de digitale ruggengraat – zal AI toepassingen hebben die snel alomtegenwoordig zijn, zoals al is gebleken bij de ontwikkeling van grote taalmodellen. Als gevolg hiervan kunnen sommige eigenschappen pas duidelijk worden na vrijgave, wat betekent dat er een risico bestaat op onvoorziene gevolgen, zowel kwaadaardig als welwillend.

Belangrijke dimensies van maatschappelijke waarden, vooral in verschillende regio's en culturen, zullen van invloed zijn op de manier waarop welk gebruik dan ook wordt waargenomen en geaccepteerd. Bovendien domineren geostrategische belangen nu al de discussie, waarbij soevereine en multilaterale belangen elkaar voortdurend kruisen en zo concurrentie en verdeeldheid aandrijven.

Tot nu toe is een groot deel van de regulering van virtuele technologie grotendeels bekeken door de lens van ‘principes’ en vrijwillige naleving, hoewel de EU AI Act2 en vergelijkbaar zien we een verschuiving naar meer afdwingbare, maar enigszins beperkte regelgeving. Het opzetten van een effectief mondiaal of nationaal systeem voor technologiebeheer en/of regelgeving blijft een uitdaging en er bestaat geen voor de hand liggende oplossing. Er zullen meerdere lagen van risico-geïnformeerde besluitvorming nodig zijn in de hele keten, van uitvinder tot producent, tot gebruiker, tot overheid en tot het multilaterale systeem.

Hoewel beginselen op hoog niveau zijn afgekondigd door onder meer UNESCO, de OESO, de Europese Commissie en de VN, en er nog steeds diverse discussies op hoog niveau plaatsvinden over kwesties als mogelijk bestuur, regulering, ethiek en veiligheid, bestaat er een grote kloof tussen dergelijke principes. beginselen en een bestuurs- of regelgevingskader. Dit moet worden aangepakt.

Als uitgangspunt overweegt het ISC een taxonomie van overwegingen te ontwikkelen waar elke ontwikkelaar, toezichthouder, beleidsadviseur, consument of beslisser naar zou kunnen verwijzen. Gezien de brede implicaties van deze technologieën moet een dergelijke taxonomie rekening houden met het geheel van implicaties in plaats van met een eng gefocust kader. De mondiale fragmentatie neemt toe als gevolg van de invloed van geostrategische belangen op de besluitvorming, en gezien de urgentie van deze technologie is het essentieel dat onafhankelijke en neutrale stemmen voortdurend voorstander zijn van een uniforme en inclusieve aanpak.


1) Hindoestaanse tijden. 2023. De G20 moet een internationaal panel voor technologische verandering oprichten.
https://www.hindustantimes.com/opinion/g20-must-set-up-an-international-panel-on-technological-change-101679237287848.html
2) De EU-wet op het gebied van kunstmatige intelligentie. 2023. https://artificialintelligenceact.eu

De ontwikkeling van een analytisch raamwerk

Het ISC is de belangrijkste mondiale niet-gouvernementele organisatie die natuur- en sociale wetenschappen integreert. Haar mondiale en disciplinaire reikwijdte betekent dat zij in een goede positie verkeert om onafhankelijk en mondiaal relevant advies te genereren ter onderbouwing van de complexe keuzes die voor ons liggen, vooral omdat de huidige stemmen in deze arena grotendeels afkomstig zijn uit de industrie of uit de beleids- en politieke gemeenschappen van de grote technologische machten.

Na een periode van uitgebreide discussie, waarbij ook een niet-gouvernementeel beoordelingsproces werd overwogen, kwam de ISC tot de conclusie dat de nuttigste bijdrage ervan zou zijn om een ​​adaptief analytisch raamwerk te ontwikkelen dat als basis kan worden gebruikt voor het discours en de besluitvorming door iedereen. belanghebbenden, ook tijdens eventuele formele beoordelingsprocessen die zich voordoen.

Het voorlopige analytische raamwerk, dat in oktober 2023 werd vrijgegeven voor discussie en feedback, nam de vorm aan van een overkoepelende checklist die was ontworpen voor gebruik door zowel overheids- als niet-gouvernementele instellingen. Het raamwerk identificeerde en verkende het potentieel van een technologie als AI en zijn derivaten via een brede lens die het menselijk en maatschappelijk welzijn omvat, evenals externe factoren zoals economie, politiek, het milieu en veiligheid. Sommige aspecten van de checklist kunnen relevanter zijn dan andere, afhankelijk van de context, maar betere beslissingen lijken waarschijnlijker als alle domeinen in overweging worden genomen, zelfs als sommige in bepaalde gevallen snel als irrelevant kunnen worden geïdentificeerd. Dit is de inherente waarde van een checklistbenadering.

Het voorlopige raamwerk is afgeleid van eerder werk en denkwerk, waaronder het rapport van het International Network for Governmental Science Advice (INGSA) over digitaal welzijn3 en het OESO-raamwerk voor de classificatie van AI-systemen4, om het geheel van de potentiële kansen, risico’s en gevolgen te presenteren. van AI. Deze eerdere producten waren gezien hun tijd en context beperkter in hun opzet; Er is behoefte aan een overkoepelend raamwerk dat het volledige spectrum van vraagstukken op zowel de korte als de langere termijn presenteert.

Sinds de publicatie ervan heeft het discussiedocument aanzienlijke steun gekregen van veel experts en beleidsmakers. Velen hebben specifiek de aanbeveling onderschreven om een ​​adaptief raamwerk te ontwikkelen dat doelbewuste en proactieve overweging van de risico's en implicaties van de technologie mogelijk maakt, en daarbij altijd rekening houdt met het geheel van dimensies, van het individu tot de samenleving en systemen.

Een belangrijke observatie uit de feedback was de erkenning dat verschillende van de implicaties die in het raamwerk worden overwogen inherent veelzijdig zijn en zich over meerdere categorieën uitstrekken. Desinformatie zou bijvoorbeeld vanuit zowel de individuele als de geostrategische lens kunnen worden bekeken; de gevolgen zouden dus verstrekkend zijn.

Ook werd de optie voorgesteld om casestudies of voorbeelden op te nemen om het raamwerk te testen. Dit zou kunnen worden gebruikt om richtlijnen te ontwikkelen om aan te tonen hoe het in de praktijk in verschillende contexten kan worden gebruikt. Dit zou echter een aanzienlijke onderneming zijn en zou de manier waarop verschillende groepen het gebruik van dit raamwerk ervaren, kunnen beperken. Dit kan het beste worden gedaan door beleidsmakers die samenwerken met deskundigen in specifieke rechtsgebieden of contexten.

Sinds oktober 2023 zijn er verschillende belangrijke nationale en multilaterale initiatieven geweest waarin verder aandacht is besteed aan de ethiek en veiligheid van AI. De implicaties van AI voor de integriteit van sommige van onze cruciale systemen, waaronder financiële, overheids-, juridische en onderwijssystemen, evenals verschillende kennissystemen (waaronder wetenschappelijke en inheemse kennis), zijn van toenemende zorg. Het herziene raamwerk weerspiegelt deze aspecten verder.

De tot nu toe ontvangen feedback wordt weerspiegeld in de herziene versie van het analytische raamwerk, dat nu wordt vrijgegeven als leidraad voor beleidsmakers.

Hoewel het raamwerk wordt gepresenteerd in de context van AI en aanverwante technologieën, is het onmiddellijk overdraagbaar naar de overwegingen van andere snel opkomende technologieën zoals kwantum- en synthetische biologie.


3) Gluckman, P. en Allen, K. 2018. Welzijn begrijpen in de context van snelle digitale en daarmee samenhangende transformaties. INGSA.
https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf
4) OESO. 2022. OESO-kader voor de classificatie van AI-systemen. OESO Digital Economy Papers, nr. 323,#. Parijs, OESO Publishing.
https://oecd.ai/en/classificatio

Het frame

De volgende tabel presenteert de dimensies van een vermeend analytisch raamwerk. Er worden voorbeelden gegeven om te illustreren waarom elk domein ertoe kan doen; in context zou het raamwerk contextueel relevante uitbreiding vereisen. Het is ook belangrijk om onderscheid te maken tussen de generieke problemen die zich voordoen tijdens platformontwikkelingen en de problemen die zich kunnen voordoen tijdens specifieke toepassingen. Geen enkele overweging die hier is opgenomen, mag als prioriteit worden behandeld en moet als zodanig allemaal worden onderzocht.

De problemen zijn grofweg gegroepeerd in de volgende categorieën, zoals hieronder beschreven:

  • Welzijn (inclusief dat van individuen of zichzelf, de samenleving, het sociale leven en het burgerleven)
  • Handel en economie
  • Mileu
  • Geostrategisch en geopolitiek
  • Technologisch (systeemeigenschappen, ontwerp en gebruik)

In de tabel worden de dimensies beschreven waarmee mogelijk rekening moet worden gehouden bij het evalueren van een nieuwe technologie.

🔴INGSA. 2018. Welzijn begrijpen in de context van snelle digitale en daarmee samenhangende transformaties.
https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf

🟢 Nieuwe descriptoren (verkregen via de uitgebreide raadpleging en feedback en literatuuronderzoek)

🟡 OESO-kader voor de classificatie van AI-systemen: een hulpmiddel voor effectief AI-beleid.
https://oecd.ai/en/classification

Afmetingen van impact: Individueel / zelf

criteriaVoorbeelden van hoe dit in de analyse kan worden weerspiegeld
🟡AI-competentie van gebruikersHoe bekwaam en bewust van de eigenschappen van het systeem zijn de waarschijnlijke gebruikers die met het systeem zullen communiceren? Hoe worden zij voorzien van de relevante gebruikersinformatie en waarschuwingen?
🟡 Geïmpacteerde stakeholderWie zijn de belangrijkste belanghebbenden die door het systeem zullen worden beïnvloed (individuen, gemeenschappen, kwetsbaren, sectorale werknemers, kinderen, beleidsmakers, professionals enz.)?
🟡 OptionaliteitKrijgen gebruikers de mogelijkheid om zich af te melden voor het systeem of krijgen ze de mogelijkheid om de uitvoer aan te vechten of te corrigeren?
🟡Risico's voor de mensenrechten en democratische waardenHeeft het systeem fundamentele gevolgen voor de mensenrechten, inclusief maar niet beperkt tot privacy, vrijheid van meningsuiting, eerlijkheid, niet-discriminerend etc.?
🟡Potentiële effecten op het welzijn van mensenHebben de impactgebieden van het systeem betrekking op het welzijn van de individuele gebruiker (kwaliteit van het werk, opleiding, sociale interacties, geestelijke gezondheid, identiteit, milieu enz.)?
🟡 Potentieel voor menselijke arbeidsverplaatsingBestaat er een potentieel voor het systeem om taken of functies te automatiseren die door mensen werden uitgevoerd? Zo ja, wat zijn de gevolgen stroomafwaarts?
🟡 Potentieel voor identiteits-, waarden- of kennismanipulatieIs het systeem ontworpen of mogelijk in staat om de identiteit van de gebruiker te manipuleren of?
waarden vast te stellen, of desinformatie te verspreiden?
🔴 Mogelijkheden voor zelfexpressie en zelfactualisatieBestaat er een potentieel voor kunstgrepen en twijfel aan zichzelf? Is er een mogelijkheid voor valse of
oncontroleerbare claims van expertise?
🔴 Maatstaven van eigenwaardeIs er druk om het geïdealiseerde zelf te portretteren? Kan automatisering een gevoel vervangen?
van persoonlijke vervulling? Is er druk om te concurreren met het systeem in de
werkplek? Is de individuele reputatie moeilijker te beschermen tegen desinformatie?
🔴PrivacyZijn er verspreide verantwoordelijkheden voor het waarborgen van de privacy en zijn die er?
worden er aannames gedaan over de manier waarop persoonsgegevens worden gebruikt?
🔴 AutonomieZou het AI-systeem de menselijke autonomie kunnen aantasten door een overmatige afhankelijkheid te creëren?
eindgebruikers?
🔴 Menselijke ontwikkelingIs er een impact op het verwerven van sleutelvaardigheden voor menselijke ontwikkeling, zoals
uitvoerende functies of interpersoonlijke vaardigheden, of veranderingen in de aandachtstijd die van invloed zijn
leren, persoonlijkheidsontwikkeling, geestelijke gezondheidsproblemen enz.?
🔴Persoonlijke gezondheidszorgZijn er claims van zelfdiagnose of gepersonaliseerde gezondheidszorgoplossingen? Als,
Zijn ze gevalideerd volgens de wettelijke normen?
🔴 Geestelijke gezondheidBestaat er een risico op verhoogde angst, eenzaamheid of andere geestelijke gezondheidsproblemen, of?
Kan de technologie dergelijke gevolgen verzachten?
🟢 Menselijke evolutieKunnen grote taalmodellen en kunstmatige algemene intelligentie de wereld veranderen?
loop van de menselijke evolutie?
🟢 Mens-machine-interactieKan het gebruik in de loop van de tijd leiden tot minder vaardigheden en afhankelijkheid van individuen? Zijn
zijn er gevolgen voor de menselijke interactie?
5) De technologische criteria die in het raamwerk worden overwogen, gelden specifiek voor AI en zullen waar nodig moeten worden herzien voor andere technologieën.

Dimensies van impact: Maatschappij/sociaal leven

criteria Voorbeelden van hoe dit in de analyse kan worden weerspiegeld
🔴Maatschappelijke waardenVerandert het systeem de aard van de samenleving fundamenteel, maakt het de normalisatie mogelijk van ideeën die voorheen als asociaal werden beschouwd, of schendt het de maatschappelijke waarden van de cultuur waarin het wordt toegepast?
🔴 Sociale interactiesIs er een effect op betekenisvol menselijk contact, inclusief emotionele relaties?
🔴 Gezondheid van de bevolkingBestaat er een potentieel voor het systeem om de gezondheidsintenties van de bevolking te bevorderen of te ondermijnen?
🔴 Culturele expressieIs een toename van culturele toe-eigening of discriminatie waarschijnlijk of moeilijker aan te pakken? Sluit het vertrouwen op het systeem voor besluitvorming cultureel relevante deelbanden van de samenleving uit of marginaliseert deze?
🔴Openbaar onderwijsIs er een effect op de rollen van leraren of onderwijsinstellingen? Benadrukt of verkleint het systeem de digitale kloof en ongelijkheid onder studenten? Wordt de intrinsieke waarde van kennis of kritisch inzicht bevorderd of ondermijnd?
🟢 Vervormde realiteitenZijn de methoden die worden gebruikt om te onderscheiden wat waar is, nog steeds van toepassing? Is de perceptie van de werkelijkheid aangetast?

Dimensies van impact: Economische context (handel)

criteriaVoorbeelden van hoe dit in de analyse kan worden weerspiegeld
🟡Industriële sectorIn welke industriële sector wordt het systeem ingezet (financiën, landbouw, gezondheidszorg, onderwijs, defensie etc.)?
🟡 BedrijfsmodelIn welke bedrijfsfunctie wordt het systeem ingezet en in welke hoedanigheid? Waar wordt het systeem gebruikt (privaat, publiek, non-profit)?
🟡 Impact op kritieke activiteiten Zou een verstoring van de functie of activiteit van het systeem van invloed zijn op essentiële diensten of kritieke infrastructuren?
🟡Breedte van inzetHoe wordt het systeem ingezet (nauwelijks gebruik binnen de eenheid vs. wijdverspreid nationaal/internationaal)?
🟡Technische volwassenheidHoe technisch volwassen is het systeem?
🟢 Interoperabiliteit Zijn er waarschijnlijk silo's, nationaal of mondiaal, die de vrije handel belemmeren en de samenwerking met partners beïnvloeden?
🟢 Technologische soevereiniteitIs het verlangen naar technologische soevereiniteit de drijvende kracht achter gedrag, inclusief controle over de gehele AI-toeleveringsketen?
🔴Inkomensherverdeling en nationale begrotingshefbomenKunnen de kernrollen van de soevereine staat (bijvoorbeeld reservebanken) in gevaar worden gebracht? Zal het vermogen van de staat om aan de verwachtingen en implicaties van de burgers (op sociaal, economisch, politiek gebied enz.) te voldoen worden bevorderd of verminderd?
🟢 Digitale kloof (AI-kloof) Worden bestaande digitale ongelijkheden groter of ontstaan ​​er nieuwe?

Afmetingen van impact: burgerleven

criteriaVoorbeelden van hoe dit in de analyse kan worden weerspiegeld
🔴 Bestuur en publieke dienstverleningKunnen de bestuursmechanismen en het mondiale bestuurssysteem positief of negatief worden beïnvloed?
🔴 NieuwsmediaIs het waarschijnlijk dat het publieke debat gepolariseerd raakt en zich verankert op bevolkingsniveau? Zal er een effect zijn op de mate van vertrouwen in de Vierde Stand? Zullen de conventionele journalistieke ethiek en integriteitsnormen verder worden aangetast?
🔴RechtsstaatZal er een effect zijn op het vermogen om individuen of organisaties te identificeren die verantwoordelijk kunnen worden gehouden (bijvoorbeeld: welk soort verantwoordelijkheid moet aan een algoritme worden toegewezen voor ongunstige resultaten)? Is er sprake van een verlies aan soevereiniteit (op milieu-, fiscaal, sociaal beleid, ethiek etc.)?
🔴Politiek en sociale cohesieBestaat er een mogelijkheid voor meer verankerde politieke opvattingen en minder mogelijkheden voor consensusvorming? Bestaat er een mogelijkheid om groepen verder te marginaliseren? Worden vijandige politieke stijlen meer of minder waarschijnlijk gemaakt?
🟢 Sociale licentieZijn er privacyproblemen, vertrouwenskwesties en morele zorgen waarmee rekening moet worden gehouden voordat belanghebbenden het gebruik kunnen accepteren?
🟢Inheemse kennisKunnen inheemse kennis en gegevens worden beschadigd of verduisterd? Zijn er adequate maatregelen om te beschermen tegen verkeerde voorstelling van zaken, verkeerde informatie en uitbuiting?
🟢 Wetenschappelijk systeemKomt de wetenschappelijke en onderzoeksintegriteit in gevaar? Is er sprake van een verlies aan vertrouwen in de wetenschap? Zijn er mogelijkheden voor misbruik, overmatig gebruik of misbruik? Wat is het gevolg van de wetenschapsbeoefening?

Impactdimensies: geostrategische/geopolitieke context

criteriaVoorbeelden van hoe dit in de analyse kan worden weerspiegeld
🟢 PrecisiebewakingZijn de systemen getraind op individuele gedrags- en biologische gegevens en kunnen ze worden gebruikt om individuen of groepen te exploiteren?
🟢 Digitale competitieKunnen statelijke of niet-statelijke actoren (zoals grote technologiebedrijven) systemen en gegevens benutten om de bevolkingen en ecosystemen van andere landen te begrijpen en te controleren, of de jurisdictiecontrole te ondermijnen?
🟢 Geopolitieke concurrentieZou het systeem de concurrentie tussen landen kunnen aanwakkeren over het benutten van individuele en groepsgegevens voor economische, medische en veiligheidsbelangen?
🟢Verschuiving in de wereldmachtenWordt de status van natiestaten als belangrijkste geopolitieke actoren in de wereld bedreigd? Hebben technologiebedrijven macht die ooit voorbehouden was aan natiestaten en zijn ze onafhankelijke, soevereine actoren geworden (de opkomende technopolaire wereldorde)?
🟢DesinformatieZou het systeem de productie en verspreiding van desinformatie door statelijke en niet-statelijke actoren vergemakkelijken, met gevolgen voor de sociale cohesie, het vertrouwen en de democratie?
🟢 Toepassingen voor tweeërlei gebruikIs er een mogelijkheid voor zowel militaire toepassing als civiel gebruik?
🟢 Fragmentatie van de mondiale ordeKunnen er silo's of clusters van regelgeving en naleving ontstaan ​​die de samenwerking belemmeren, leiden tot inconsistenties in de toepassing en ruimte creëren voor conflicten?

Afmetingen van impact: Milieu

criteriaVoorbeelden van hoe dit in de analyse kan worden weerspiegeld
🟢 Energie- en hulpbronnenverbruik (koolstofvoetafdruk)Verhogen het systeem en de vereisten het verbruik van energie en hulpbronnen, bovenop de efficiëntiewinst die door de toepassing wordt behaald?
🟢EnergiebronWaar komt de energie voor het systeem vandaan (hernieuwbare versus fossiele brandstoffen enz.)?

Dimensies van impact: gegevens en input

criteriaVoorbeelden van hoe dit in de analyse kan worden weerspiegeld
🟡 Regie en incassoWorden de gegevens en input verzameld door mensen, geautomatiseerde sensoren of beide?
🟡 Herkomst van de gegevensWorden de gegevens en input van deskundigen verstrekt, geobserveerd, synthetisch of afgeleid? Zijn er watermerkbeschermingen om de herkomst te bevestigen?
🟡 Dynamisch karakter van de dataZijn de gegevens dynamisch, statisch, dynamisch van tijd tot tijd of in realtime bijgewerkt?
🟡 RechtenZijn de gegevens bedrijfseigen, openbaar of persoonlijk (gerelateerd aan identificeerbare individuen)?
🟡 Identificeerbaarheid en persoonsgegevensIndien persoonlijk: worden de gegevens geanonimiseerd of gepseudonimiseerd?
🟡 Structuur van de gegevensZijn de gegevens gestructureerd, semi-gestructureerd, complex gestructureerd of ongestructureerd?
🟡 Formaat van de gegevensIs het formaat van de data en metadata gestandaardiseerd of niet-gestandaardiseerd?
🟡 Schaal van de gegevensWat is de schaal van de dataset?
🟡 Geschiktheid en kwaliteit van de data Is de dataset geschikt voor het doel? Is de steekproefomvang voldoende? Is het representatief en volledig genoeg? Hoe luidruchtig zijn de gegevens? Is het foutgevoelig?

Afmetingen impact: Model

criteriaVoorbeelden van hoe dit in de analyse kan worden weerspiegeld
🟡 Beschikbaarheid van informatieIs er informatie beschikbaar over het systeemmodel?
🟡 Type AI-modelIs het model symbolisch (door mensen gegenereerde regels), statistisch (gebruikt data) of hybride?
🟡 Rechten verbonden aan modelIs het model open-source of propriëtair, door eigen beheer of door derden beheerd?
🟡Single of meerdere modellenBestaat het systeem uit één model of uit meerdere onderling verbonden modellen?
🟡 Generatief of onderscheidendIs het model generatief, discriminerend of beide?
🟡ModelbouwLeert het systeem op basis van door mensen geschreven regels, van data, door leren onder toezicht of door versterkend leren?
🟡 Modelevolutie (AI-drift)Evolueert het model en/of verwerft het vaardigheden door interactie met gegevens in het veld?
🟡 Federaal of centraal lerenWordt het model centraal getraind of op meerdere lokale servers of 'edge'-apparaten?
🟡Ontwikkeling/onderhoudIs het model universeel, aanpasbaar of afgestemd op de data van de AI-actor?
🟡 Deterministisch of probabilistisch Wordt het model op deterministische of probabilistische wijze gebruikt?
🟡 Modeltransparantie Is er informatie beschikbaar voor gebruikers zodat ze de resultaten en beperkingen van het model kunnen begrijpen of beperkingen kunnen gebruiken?
🟢 Computationele beperkingZijn er rekenbeperkingen aan het systeem? Is het mogelijk om capaciteitssprongen of schaalwetten te voorspellen?

Dimensies van impact: taak en output

criteriaVoorbeelden van hoe dit in de analyse kan worden weerspiegeld
🟡 Taak(en) uitgevoerd door systeemWelke taken voert het systeem uit (herkenning, gebeurtenisdetectie, voorspelling etc.)?
🟡Het combineren van taken en actiesCombineert het systeem verschillende taken en acties (systemen voor het genereren van inhoud, autonome systemen, besturingssystemen enz.)?
🟡 Het autonomieniveau van het systeem Hoe autonoom zijn de acties van het systeem en welke rol speelt de mens?
🟡 Mate van menselijke betrokkenheidIs er enige menselijke betrokkenheid om toezicht te houden op de algehele activiteit van het AI-systeem en het vermogen om te beslissen wanneer en hoe het AI-systeem in welke situatie dan ook moet worden gebruikt?
🟡 KerntoepassingBehoort het systeem tot een kerntoepassingsgebied zoals menselijke taaltechnologieën, computer vision, automatisering en/of optimalisatie of robotica?
🟡 EvaluatieZijn er standaarden of methoden beschikbaar voor het evalueren van de systeemoutput?

Hoe zou dit raamwerk gebruikt kunnen worden?

Dit raamwerk kan op vele manieren worden gebruikt, waaronder:

  • Om de kloof te overbruggen tussen beginselen op hoog niveau en beoordeling voor regelgevings- of bestuursdoeleinden. Het raamwerk kan dit ondersteunen door een gevalideerde gemeenschappelijke taxonomie vast te stellen van de reeks kwesties die door relevante belanghebbenden moeten worden overwogen als basis voor het informeren en vormgeven van verder denken. Op nationaal niveau zou het raamwerk bijvoorbeeld door de overheid als instrument kunnen worden gebruikt bij het ontwikkelen van een nationale AI-strategie en -beleid om een ​​gemeenschappelijke basis te leggen voor de risico’s en kansen voor alle groepen belanghebbenden.
  • Om effectbeoordelingen te informeren. De EU AI Act vereist dat organisaties die AI-instrumenten leveren of AI in hun processen gebruiken, een effectbeoordeling uitvoeren om de risico’s van hun initiatieven in kaart te brengen en een passende risicobeheeraanpak toe te passen. Het hier gepresenteerde raamwerk kan hiervoor als basis worden gebruikt.
  • Ter informatie over horizonscannen op risico's en toekomstscenario's. De categorisering van risico's in het tussentijds rapport van het AI-adviesorgaan van de VN6 komt in grote lijnen overeen met het kader dat hier wordt gepresenteerd. Er bestaat een kans dat het raamwerk kan worden gebruikt om consensus te bereiken en de ernst van opkomende risico's te testen en hierop vooruit te lopen.
  • Het verbeteren van de ethische principes die nodig zijn om het gebruik van AI te begeleiden en te besturen. Het raamwerk kan dit doen door een flexibele basis te bieden waarop betrouwbare systemen kunnen worden ontwikkeld en door het wettige, ethische, robuuste en verantwoorde gebruik van de technologie te garanderen. Deze principes zouden kunnen worden getoetst aan het volledige scala aan effecten dat in dit raamwerk wordt gepresenteerd.
  • Het faciliteren van een inventarisatie van bestaande en evoluerende maatregelen (regelgeving, wetgeving, beleid, normen, bestuur enz.) en het identificeren van lacunes die verder moeten worden overwogen. Deze kunnen op nationaal of multinationaal niveau in kaart worden gebracht aan de hand van de raamwerkcategorieën om hiaten vast te stellen en geschikte maatregelen te identificeren om de risico's te beperken.
  • Om het gebruik van AI door de overheid te ondersteunen. Omdat veel regeringen hun respectievelijke strategieën voor het gebruik van AI binnen agentschappen en systemen bepalen, zou het raamwerk kunnen worden gebruikt om passende risicodrempels te definiëren en de belangrijkste belanghebbenden en verantwoordelijkheden te identificeren.
  • Het publieke debat ondersteunen en een sociale licentie tot stand brengen over de manier waarop AI wordt gebruikt en de onderliggende gegevens die zullen worden gebruikt in overheidsdiensten of breder in de samenleving.

Een weg vooruit
Samenvattend wordt het analytische raamwerk verschaft als basis voor een toolkit die door belanghebbenden kan worden gebruikt om op een consistente en systematische manier uitgebreid te kijken naar de eventuele significante ontwikkelingen op het gebied van platforms of gebruik ervan. De dimensies die in dit raamwerk worden gepresenteerd, zijn relevant: van technologiebeoordeling tot overheidsbeleid, van menselijke ontwikkeling tot sociologie, en van toekomst- en technologiestudies. Hoewel dit analytische raamwerk is ontwikkeld voor AI, heeft het een veel bredere toepassing op elke andere opkomende technologie.

6 AI-adviesraad van de VN. 2023. Tussentijds rapport: AI voor de mensheid besturen. https://www.un.org/sites/un2.un.org/files/ai_advisory_body_interim_report.pd

Danksagung

Er zijn veel mensen geraadpleegd en feedback gegeven bij de ontwikkeling van zowel het eerste discussiestuk als de feedback na de publicatie ervan. Beide artikelen zijn opgesteld door Sir Peter Gluckman, president van het ISC, en Hema Sridhar, voormalig hoofdwetenschappelijk adviseur van het Ministerie van Defensie, Nieuw-Zeeland en nu Senior Research Fellow van de Universiteit van Auckland, Nieuw-Zeeland.

In het bijzonder de ISC Lord Martin Rees, voormalig president van de Royal Society en medeoprichter van het Centre for the Study of Existential Risks, Universiteit van Cambridge; Professor Shivaji Sondhi, hoogleraar natuurkunde, Universiteit van Oxford; Professor K Vijay Raghavan, voormalig wetenschappelijk hoofdadviseur van de regering van India; Amandeep Singh Gill, gezant voor technologie van de secretaris-generaal van de VN; Seán Ó hÉigeartaigh, uitvoerend directeur, Centrum voor de Studie van Existentiële Risico's, Universiteit van Cambridge; Sir David Spiegelhalter, Winton hoogleraar Public Understanding of Risk, Universiteit
van Cambridge; Amanda-June Brawner, senior beleidsadviseur en Ian Wiggins, directeur internationale zaken, Royal Society, Verenigd Koninkrijk; Dr. Jerome Duberry, Managing Director en Dr. Marie-Laure Salles, Directeur, Geneva Graduate Institute; Chor Pharn Lee, Centrum voor Strategische Toekomsten, kabinet van de premier, Singapore; Barend Mons en dr. Simon Hodson, de Commissie Gegevens (CoDATA); Professor Yuko Harayama, voormalig uitvoerend directeur, RIKEN; Professor
Rémi Quirion, voorzitter van INSA; Dr. Claire Craig, Universiteit van Oxford en voormalig hoofd Foresight, Government Office of Science; Prof Yoshua Bengio, Wetenschappelijke Adviesraad van de secretaris-generaal van de VN en aan de Université de Montréal; en de vele anderen die feedback gaven aan het ISC op het eerste discussiestuk.


Verdere lezing

Nationale onderzoeksecosystemen voorbereiden op AI: strategieën en vooruitgang in 2024

Dit werkdocument van de denktank van het ISC, het Center for Science Futures, biedt fundamentele informatie en toegang tot bronnen uit landen uit alle delen van de wereld, die zich in verschillende stadia van de integratie van AI in hun onderzoeksecosystemen bevinden.

Meteen naar de inhoud