Een aantal academici en beleidsexperts hebben voorgesteld dat de International Science Council – met zijn pluralistische lidmaatschap van de sociale en natuurwetenschappen – een proces zou opzetten om een geannoteerd raamwerk/checklist van de risico’s, voordelen, bedreigingen en kansen te produceren en te onderhouden. geassocieerd met snel veranderende digitale technologieën, waaronder – maar niet beperkt tot – AI. Het doel van de checklist zou zijn om alle belanghebbenden – inclusief overheden, handelsonderhandelaars, toezichthouders, het maatschappelijk middenveld en de industrie – te informeren over mogelijke toekomstscenario’s, en om een kader te geven voor de manier waarop zij de kansen, voordelen, risico’s en andere kwesties zouden kunnen overwegen.
Het ISC is verheugd dit discussiedocument over de evaluatie van zich snel ontwikkelende digitale en aanverwante technologie te kunnen presenteren. Kunstmatige intelligentie, synthetische biologie en kwantumtechnologieën zijn uitstekende voorbeelden van innovatie, geïnspireerd door de wetenschap, die zich in een ongekend tempo ontwikkelt. Het kan een uitdaging zijn om niet alleen systematisch te anticiperen op hun toepassingen, maar ook op hun implicaties.
Het evalueren van de maatschappelijke aspecten van generatieve AI, zoals grote taalmodellen, die voorspelbaar het grootste deel van dit discussiestuk vertegenwoordigen, is een noodzakelijke brug binnen het huidige discours – soms paniekgedreven, soms niet diepgaand genoeg in gedachten – en de noodzakelijke cursussen van actie die we kunnen ondernemen. Het ISC is ervan overtuigd dat een analytisch raamwerk tussen de sociale acceptatie van dergelijke nieuwe technologieën en hun mogelijke regulering nodig is om de multistakeholderdiscussies te vergemakkelijken die nodig zijn om weloverwogen en verantwoorde beslissingen te nemen over hoe de sociale voordelen van deze snel opkomende technologie kunnen worden geoptimaliseerd.
Het ISC staat open voor reacties uit onze gemeenschap via dit discussiestuk om te beoordelen hoe we het beste deel kunnen blijven uitmaken van en kunnen bijdragen aan het debat rond technologie.
Salvatore Aricò, CEO
Een ISC-discussiepaper
Een raamwerk voor het evalueren van zich snel ontwikkelende digitale en aanverwante technologieën: AI, grote taalmodellen en meer
Dit discussiestuk biedt de schets van een eerste raamwerk ter informatie van de vele mondiale en nationale discussies die plaatsvinden met betrekking tot AI.
Download het rapportNieuw! Lees de 2024-versie voor beleidsmakers met een downloadbaar raamwerk voor uw organisatie.
Een gids voor beleidsmakers: evaluatie van snel ontwikkelende technologieën, waaronder AI, grote taalmodellen en meer
Dit discussiestuk biedt de schets van een eerste raamwerk ter informatie van de vele mondiale en nationale discussies die plaatsvinden met betrekking tot AI.
Inhoud
Introductie
Snel opkomende technologieën brengen uitdagende problemen met zich mee als het gaat om hun bestuur en potentiële regulering. Het beleid en de publieke debatten over kunstmatige intelligentie (AI) en het gebruik ervan hebben deze kwesties scherp onder de aandacht gebracht. Hoewel er brede principes voor AI zijn afgekondigd door de UNESCO, de OESO en anderen, en er opkomende discussies zijn over mondiale of jurisdictieregulering van de technologie, bestaat er een ontologische kloof tussen de ontwikkeling van principes op hoog niveau en de integratie ervan in regelgeving, beleid, governance- en rentmeesterschapsbenaderingen. Dit is waar de niet-gouvernementele wetenschappelijke gemeenschap een bijzondere rol zou kunnen spelen.
Een aantal academici en beleidsexperts hebben voorgesteld dat de International Science Council (ISC) – met zijn pluralistische lidmaatschap van de sociale en natuurwetenschappen – een proces zou opzetten om een geannoteerd raamwerk/checklist te produceren en te onderhouden van de risico’s, voordelen, bedreigingen en kansen die gepaard gaan met snel veranderende digitale technologieën, waaronder – maar niet beperkt tot – AI. Het doel van de checklist zou zijn om alle belanghebbenden – inclusief overheden, handelsonderhandelaars, toezichthouders, het maatschappelijk middenveld en de industrie – te informeren over mogelijke toekomstscenario’s, en om een kader te geven voor de manier waarop zij de kansen, voordelen, risico’s en andere kwesties zouden kunnen overwegen.
De uitkomsten zouden niet fungeren als een beoordelingsorgaan, maar als een adaptief en zich ontwikkelend analytisch raamwerk dat de basis zou kunnen vormen voor alle beoordelings- en regelgevingsprocessen die door belanghebbenden, waaronder overheden en het multilaterale systeem, zouden kunnen worden ontwikkeld. Elk analytisch raamwerk zou idealiter onafhankelijk van de beweringen van de overheid en de industrie moeten worden ontwikkeld, gezien hun begrijpelijke belangen. Het moet ook maximaal pluralistisch zijn in zijn perspectieven, en dus alle aspecten van de technologie en de implicaties ervan omvatten.
Dit discussiestuk biedt de schets van een eerste raamwerk ter informatie van de vele mondiale en nationale discussies die plaatsvinden met betrekking tot AI.
Achtergrond: Waarom een analytisch raamwerk?
De snelle opkomst van een technologie met de complexiteit en implicaties van AI zorgt voor veel claims over grote voordelen. Het roept echter ook angst op voor aanzienlijke risico's, van individueel tot geostrategisch niveau. Een groot deel van de discussie vindt plaats aan de uiterste uiteinden van het spectrum van opvattingen, en er is een meer pragmatische aanpak nodig. AI-technologie zal zich blijven ontwikkelen en de geschiedenis leert dat vrijwel elke technologie zowel nuttige als schadelijke toepassingen heeft. De vraag is daarom: hoe kunnen we gunstige resultaten bereiken met deze technologie, terwijl we tegelijkertijd het risico op schadelijke gevolgen verminderen, waarvan sommige existentieel van omvang zouden kunnen zijn?
De toekomst is altijd onzeker, maar er zijn voldoende geloofwaardige en deskundige stemmen op het gebied van AI en generatieve AI om een relatief voorzorgsaanpak aan te moedigen. Daarnaast is een systeembenadering nodig, omdat AI een klasse technologieën is met een breed gebruik en toepassing door meerdere soorten gebruikers. Dit betekent dat er rekening moet worden gehouden met de volledige context bij het overwegen van de implicaties van AI voor individuen, het sociale leven, het maatschappelijk leven, het maatschappelijke leven en in de mondiale context.
In tegenstelling tot de meeste technologieën uit het verleden hebben digitale en aanverwante technologieën een zeer korte periode van ontwikkeling tot release, grotendeels gedreven door de belangen van de productiebedrijven of agentschappen. AI is snel alomtegenwoordig; sommige eigenschappen worden mogelijk pas duidelijk na de release, en de technologie kan zowel kwaadaardige als welwillende toepassingen hebben. Belangrijke waardendimensies zullen van invloed zijn op de manier waarop elk gebruik wordt waargenomen. Bovendien kunnen er geostrategische belangen in het spel zijn.
Tot nu toe werd de regulering van een virtuele technologie grotendeels gezien door de lens van ‘principes’ en vrijwillige naleving. Meer recentelijk heeft de discussie zich echter gericht op kwesties van nationaal en multilateraal bestuur, inclusief het gebruik van regelgevings- en andere beleidsinstrumenten. De beweringen voor of tegen AI zijn vaak hyperbolisch en – gezien de aard van de technologie – moeilijk te beoordelen. Het opzetten van een effectief mondiaal of nationaal technologiereguleringssysteem zal een uitdaging zijn, en er zullen meerdere lagen van risico-geïnformeerde besluitvorming nodig zijn langs de keten, van uitvinder tot producent, tot gebruiker, tot overheid en tot het multilaterale systeem.
Hoewel principes op hoog niveau zijn afgekondigd door onder meer de UNESCO, de OESO en de Europese Commissie, en er verschillende discussies op hoog niveau gaande zijn over kwesties van mogelijke regulering, bestaat er een grote ontologische kloof tussen dergelijke principes en een bestuurs- of regelgevingskader. Wat is de taxonomie van overwegingen waarmee een toezichthouder rekening moet houden? Een enge focus zou onverstandig zijn, gezien de brede implicaties van deze technologieën. Dit potentieel is het onderwerp geweest van veel commentaar, zowel positief als negatief.
De ontwikkeling van een analytisch raamwerk
Het ISC is de belangrijkste mondiale NGO die natuur- en sociale wetenschappen integreert. Haar mondiale en disciplinaire reikwijdte betekent dat zij in een goede positie verkeert om onafhankelijk en mondiaal relevant advies te genereren ter onderbouwing van de complexe keuzes die voor ons liggen, vooral omdat de huidige stemmen in deze arena grotendeels uit de industrie of uit de grote technologische machten komen. Na uitgebreide discussies in de afgelopen maanden, waaronder de overweging van een niet-gouvernementeel beoordelingsproces, kwam de ISC tot de conclusie dat zijn nuttigste bijdrage zou zijn het produceren en onderhouden van een adaptief analytisch raamwerk dat kan worden gebruikt als basis voor discours en besluitvorming door alle belanghebbenden, ook tijdens elk formeel beoordelingsproces dat zich voordoet.
Dit raamwerk zou de vorm aannemen van een overkoepelende checklist die door zowel overheids- als niet-gouvernementele instellingen zou kunnen worden gebruikt. Het raamwerk identificeert en onderzoekt het potentieel van een technologie zoals AI en zijn derivaten door een brede lens die het menselijk en maatschappelijk welzijn omvat, evenals externe factoren, zoals economie, politiek, het milieu en veiligheid. Sommige aspecten van de checklist kunnen relevanter zijn dan andere, afhankelijk van de context, maar betere beslissingen zijn waarschijnlijker als alle domeinen in overweging worden genomen. Dit is de inherente waarde van een checklistbenadering.
Het voorgestelde raamwerk is afgeleid van eerder werk en denken, waaronder het digitale welzijnsrapport van het International Network for Governmental Science Advice (INGSA).1 en het AI-classificatieraamwerk van de OESO2 om het geheel van de potentiële kansen, risico’s en effecten van AI te presenteren. Omdat deze eerdere producten qua opzet beperkter waren gezien hun tijd en context, is er behoefte aan een overkoepelend raamwerk dat het volledige scala aan problemen presenteert, zowel op de korte als op de langere termijn.
Hoewel dit analytische raamwerk is ontwikkeld voor de overweging van AI, zou het kunnen worden toegepast op elke snel opkomende technologie. De problemen zijn grofweg gegroepeerd in de volgende categorieën voor verder onderzoek:
Voor elk van de bovenstaande categorieën is een lijst met overwegingen opgenomen, samen met hun respectievelijke kansen en gevolgen. Sommige zijn relevant voor specifieke gevallen of toepassingen van AI, terwijl andere generiek zijn en agnostisch zijn wat betreft platform of gebruik. Geen enkele overweging die hier is opgenomen, mag als prioriteit worden behandeld en moet als zodanig allemaal worden onderzocht.
Hoe zou dit raamwerk gebruikt kunnen worden?
Dit raamwerk kan op de volgende manieren worden gebruikt, maar is niet beperkt tot:
De volgende tabel is een vroege vormgeving van de dimensies van een analytisch raamwerk. Afhankelijk van de technologie en het gebruik ervan zullen sommige componenten relevanter zijn dan andere. De voorbeelden worden gegeven om te illustreren waarom elk domein ertoe kan doen; in context zou het raamwerk contextueel relevante uitbreiding vereisen. Ook is het van belang onderscheid te maken tussen platformontwikkelingen en de generieke vraagstukken die bij specifieke toepassingen naar voren kunnen komen.
Dimensies waarmee rekening moet worden gehouden bij het evalueren van een nieuwe technologie
| Eerste schets van de dimensies waarmee mogelijk rekening moet worden gehouden bij de evaluatie van een nieuwe technologie | ||
| Afmetingen van impact | criteria | Voorbeelden van hoe dit in de analyse kan worden weerspiegeld |
| Individueel/zelf | De AI-competentie van gebruikers | Hoe bekwaam en bewust van de eigenschappen van het systeem zijn de waarschijnlijke gebruikers die met het systeem zullen communiceren? Hoe worden zij voorzien van de relevante gebruikersinformatie en waarschuwingen? |
| Getroffen belanghebbenden | Wie zijn de belangrijkste belanghebbenden die door het systeem zullen worden beïnvloed (dwz individuen, gemeenschappen, kwetsbaren, sectorale werknemers, kinderen, beleidsmakers, professionals)? | |
| Optionaliteit | Krijgen gebruikers de mogelijkheid om zich af te melden voor het systeem; Moeten zij de kans krijgen om de output ter discussie te stellen of te corrigeren? | |
| Risico's voor de mensenrechten en democratische waarden | Zou het systeem gevolgen kunnen hebben (en in welke richting) voor de mensenrechten, inclusief, maar niet beperkt tot, privacy, vrijheid van meningsuiting, eerlijkheid, risico op discriminatie, enz.? | |
| Potentiële effecten op het welzijn van mensen | Kan het systeem invloed hebben (en in welke richting) op het welzijn van de individuele gebruiker (dat wil zeggen de kwaliteit van het werk, onderwijs, sociale interacties, geestelijke gezondheid, identiteit, omgeving)? | |
| Potentieel voor verplaatsing van menselijke arbeid | Bestaat er een potentieel voor het systeem om taken of functies te automatiseren die door mensen werden uitgevoerd? Zo ja, wat zijn de gevolgen stroomafwaarts? | |
| Potentieel voor identiteit, waarden of kennismanipulatie | Is het systeem ontworpen of mogelijk in staat om de identiteit of waarden van de gebruiker te manipuleren, of desinformatie te verspreiden? Is er kans op valse of niet-verifieerbare claims van expertise? | |
| Maatregelen voor eigenwaarde | Is er druk om een geïdealiseerd zelf te portretteren? Kan automatisering een gevoel van persoonlijke vervulling vervangen? Is er druk om op de werkvloer met het systeem te concurreren? Wordt de individuele reputatie moeilijker te beschermen tegen desinformatie? | |
| Privacy | Zijn er verspreide verantwoordelijkheden voor het waarborgen van de privacy en worden er aannames gedaan over de manier waarop persoonlijke gegevens worden gebruikt? | |
| Autonomie | Kan het systeem de menselijke autonomie aantasten doordat eindgebruikers te veel vertrouwen op de technologie? | |
| Menselijke ontwikkeling | Is er een impact op het verwerven van sleutelvaardigheden voor de menselijke ontwikkeling, zoals executieve functies, interpersoonlijke vaardigheden, veranderingen in de aandachtstijd die van invloed zijn op het leren, persoonlijkheidsontwikkeling, geestelijke gezondheidsproblemen, enz.? | |
| Persoonlijke gezondheidszorg | Zijn er claims over gepersonaliseerde gezondheidszorgoplossingen? Zo ja, zijn deze gevalideerd volgens de wettelijke normen? | |
| Mentale gezondheid | Bestaat er een risico op verhoogde angst, eenzaamheid of andere geestelijke gezondheidsproblemen, of kan de technologie dergelijke gevolgen verzachten? | |
| Menselijke evolutie | Kan de technologie leiden tot veranderingen in de menselijke evolutie? | |
| Afmetingen van impact | criteria | Beschrijving |
| Maatschappij/sociaal leven | Maatschappelijke waarden | Verandert het systeem de aard van de samenleving fundamenteel of maakt het de normalisatie mogelijk van ideeën die voorheen als asociaal werden beschouwd, of schendt het de maatschappelijke waarden van de cultuur waarin het wordt toegepast? |
| Sociale interacties | Is er een effect op betekenisvol menselijk contact, inclusief emotionele relaties? | |
| Billijkheid | Is het waarschijnlijk dat de toepassing/technologie ongelijkheden (dwz op economisch, sociaal, educatief, geografisch gebied) zal verkleinen of vergroten? | |
| Bevolking gezondheid | Bestaat er een potentieel voor het systeem om de gezondheidsintenties van de bevolking te bevorderen of te ondermijnen? | |
| Culturele expressie | Is een toename van culturele toe-eigening of discriminatie waarschijnlijk of moeilijker aan te pakken? Sluit het vertrouwen op het besluitvormingssysteem mogelijk delen van de samenleving uit of marginaliseert dit? | |
| Publieke educatie | Is er een effect op de rollen van leraren of onderwijsinstellingen? Benadrukt of vermindert het systeem de ongelijkheid onder studenten en de digitale kloof? Wordt de intrinsieke waarde van kennis of kritisch inzicht bevorderd of ondermijnd? | |
| Vervormde realiteiten | Zijn de methoden die we gebruiken om te onderscheiden wat waar is nog steeds toepasbaar? Is de perceptie van de werkelijkheid aangetast? | |
| Economische context (handel) | Industriële sector | In welke industriële sector wordt het systeem ingezet (dwz financiën, landbouw, gezondheidszorg, onderwijs, defensie)? |
| Bedrijfsmodel | In welke bedrijfsfunctie wordt het systeem ingezet, en in welke hoedanigheid? Waar wordt het systeem gebruikt (privaat, publiek, non-profit)? | |
| Impact op kritische activiteiten | Zou een verstoring van de functie of activiteit van het systeem van invloed zijn op essentiële diensten of kritieke infrastructuren? | |
| Adem van inzet | Hoe wordt het systeem ingezet (eng binnen een organisatie versus wijdverspreid nationaal/internationaal)? | |
| Technische volwassenheid (TRL) | Hoe technisch volwassen is het systeem? | |
| Technologische soevereiniteit | Zorgt de technologie voor een grotere concentratie van technologische soevereiniteit? | |
| Inkomensherverdeling en nationale begrotingshefbomen | Kunnen de kernrollen van de soevereine staat (dwz de reservebanken) in gevaar worden gebracht? Zal het vermogen van de staat om aan de verwachtingen en implicaties van burgers (dat wil zeggen sociaal, economisch, politiek) te voldoen worden bevorderd of verminderd? | |
| Afmetingen van impact | criteria | Beschrijving |
| Burgerlijk leven | Bestuur en publieke dienstverlening | Kunnen bestuursmechanismen en mondiale bestuurssystemen positief of negatief worden beïnvloed? |
| Nieuws media | Is het waarschijnlijk dat het publieke debat meer of minder gepolariseerd raakt en zich verankert op bevolkingsniveau? Zal er een effect zijn op het vertrouwen in de media? Zullen de conventionele journalistieke ethiek en integriteitsnormen verder worden aangetast? | |
| Rechtsstaat | Zal er een effect zijn op het vermogen om individuen of organisaties te identificeren die verantwoordelijk kunnen worden gehouden (dat wil zeggen, welk soort verantwoordelijkheid moet aan een algoritme worden toegewezen voor ongunstige resultaten)? Leidt dit tot een verlies aan soevereiniteit (dat wil zeggen op milieu-, fiscaal, sociaal beleid, ethiek)? | |
| Politiek en sociale cohesie | Bestaat er een mogelijkheid voor meer verankerde politieke opvattingen en minder mogelijkheden voor consensusvorming? Bestaat er een mogelijkheid om groepen verder te marginaliseren? Worden vijandige politieke stijlen meer of minder waarschijnlijk gemaakt? | |
| Geostrategische/geopolitieke context | Precisiebewaking | Zijn de systemen getraind op individuele gedrags- en biologische gegevens, en zo ja, kunnen ze worden gebruikt om individuen of groepen te exploiteren? |
| Digitale kolonisatie | Zijn statelijke of niet-statelijke actoren in staat systemen en gegevens te benutten om de bevolkingen en ecosystemen van andere landen te begrijpen en te controleren, of om de jurisdictiecontrole te ondermijnen? | |
| Geopolitieke concurrentie | Heeft het systeem invloed op de concurrentie tussen landen en technologieplatforms voor toegang tot individuele en collectieve gegevens voor economische of strategische doeleinden? | |
| Handel en handelsovereenkomsten | Heeft het systeem gevolgen voor internationale handelsovereenkomsten? | |
| Verschuiving in de wereldmachten | Wordt de status van natiestaten als belangrijkste geopolitieke actoren in de wereld bedreigd? Zullen technologiebedrijven de macht uitoefenen die ooit aan de natiestaten was voorbehouden en worden zij onafhankelijke soevereine actoren? | |
| Desinformatie | Is het gemakkelijker voor statelijke en niet-statelijke actoren om desinformatie te produceren en te verspreiden die gevolgen heeft voor de sociale cohesie, het vertrouwen en de democratie? | |
| Mileu | Energie- en hulpbronnenverbruik (koolstofvoetafdruk) | Verhogen het systeem en de vereisten het verbruik van energie en hulpbronnen, bovenop de efficiëntiewinst die door de toepassing wordt behaald? |
| Afmetingen van impact | criteria | Beschrijving |
| Gegevens en invoer | Detectie en verzameling | Worden de gegevens en input verzameld door mensen, geautomatiseerde sensoren of beide? |
| Herkomst van de gegevens | Wat betreft de gegevens: zijn deze verstrekt, waargenomen, synthetisch of afgeleid? Zijn er watermerkbeschermingen om de herkomst te bevestigen? | |
| Dynamisch karakter van de gegevens | Zijn de gegevens dynamisch, statisch, van tijd tot tijd bijgewerkt of in realtime bijgewerkt? | |
| Rechten | Zijn gegevens bedrijfseigen, openbaar of persoonlijk (dwz gerelateerd aan identificeerbare individuen)? | |
| Identificeerbaarheid van persoonsgegevens | Indien het om persoonsgegevens gaat, worden deze dan geanonimiseerd of gepseudonimiseerd? | |
| Structuur van de gegevens | Zijn de gegevens gestructureerd, semi-gestructureerd, complex gestructureerd of ongestructureerd? | |
| Formaat van de gegevens | Is het formaat van de data en metadata gestandaardiseerd of niet-gestandaardiseerd? | |
| Schaal van de gegevens | Wat is de schaal van de dataset? | |
| Geschiktheid en kwaliteit van de gegevens | Is de dataset geschikt voor het doel? Is de steekproefomvang voldoende? Is het representatief en volledig genoeg? Hoe luidruchtig zijn de gegevens? Is het foutgevoelig? | |
| Model | Beschikbaarheid van informatie | Is er informatie over het systeemmodel beschikbaar? |
| Type AI-model | Is het model symbolisch (door mensen gegenereerde regels), statistisch (gebruikt data) of hybride? | |
| Rechten verbonden aan het model | Is het model open source, of propriëtair, door eigen beheer of door derden beheerd? | |
| Enkele of meerdere modellen | Bestaat het systeem uit één model of uit meerdere onderling verbonden modellen? | |
| Generatief of discriminerend | Is het model generatief, discriminerend of beide? | |
| Model gebouw | Leert het systeem op basis van door mensen geschreven regels, van data, door leren onder toezicht of door versterkend leren? | |
| Modelevolutie (AI-drift) | Evolueert het model en/of verwerft het vaardigheden door interactie met gegevens in het veld? | |
| Federaal of centraal leren | Wordt het model centraal getraind of op meerdere lokale servers of ‘edge’-apparaten? | |
| Ontwikkeling en onderhoud | Is het model universeel, aanpasbaar of afgestemd op de data van de AI-actor? | |
| Deterministisch of probabilistisch | Wordt het model op deterministische of probabilistische wijze gebruikt? | |
| Transparantie van modellen | Is er informatie beschikbaar voor gebruikers zodat ze de resultaten en beperkingen van het model kunnen begrijpen of beperkingen kunnen gebruiken? | |
| Computationele beperking | Zijn er rekenbeperkingen aan het systeem? Kunnen we capaciteitssprongen of schaalwetten voorspellen? | |
| Afmetingen van impact | criteria | Beschrijving |
| Taak en uitvoer | Taak(en) uitgevoerd door systeem | Welke taken voert het systeem uit (dwz herkenning, gebeurtenisdetectie, voorspelling)? |
| Het combineren van taken en acties | Combineert het systeem verschillende taken en acties (dwz systemen voor het genereren van inhoud, autonome systemen, controlesystemen)? | |
| Het niveau van autonomie van het systeem | Hoe autonoom zijn de acties van het systeem en welke rol speelt de mens? | |
| Mate van menselijke betrokkenheid | Is er enige menselijke betrokkenheid om toezicht te houden op de algehele activiteit van het AI-systeem en het vermogen om te beslissen wanneer en hoe het systeem in welke situatie dan ook te gebruiken? | |
| Kerntoepassing | Behoort het systeem tot een kerntoepassingsgebied zoals menselijke taaltechnologieën, computervisie, automatisering en/of optimalisatie, of robotica? | |
| Evaluatie | Zijn er standaarden of methoden beschikbaar om de systeemoutput te evalueren of om te gaan met onvoorziene opkomende eigenschappen? | |
Sleutel tot bronnen van de descriptoren
Platte tekst:
Gluckman, P. en Allen, K. 2018. Welzijn begrijpen in de context van snelle digitale en daarmee samenhangende transformaties. INGSA. https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf
Vetgedrukte tekst:
OESO. 2022. OESO-kader voor de classificatie van AI-systemen. OECD Digital Economy Papers, nr. 323, OECD Publishing, Parijs. https://oecd.ai/en/classification
cursieve tekst:
Nieuwe descriptoren (uit meerdere bronnen)
Een weg vooruit
Afhankelijk van de reactie op dit discussiedocument zou door het ISC een werkgroep van deskundigen worden gevormd om het bovengenoemde analytische raamwerk verder te ontwikkelen of aan te passen, waarmee belanghebbenden uitgebreid kunnen kijken naar alle belangrijke ontwikkelingen op het gebied van platforms of gebruiksdimensies. De werkgroep zou disciplinair, geografisch en demografisch divers zijn, met expertise die zich uitstrekt van technologiebeoordeling tot openbaar beleid, van menselijke ontwikkeling tot sociologie en toekomst- en technologiestudies.
Ga naar om deel te nemen aan dit discussiestuk council.science/publications/framework-digital-technologieën
Danksagung
Bij de ontwikkeling van dit document, dat is opgesteld door Sir Peter Gluckman, President, ISC en Hema Sridhar, voormalig hoofdwetenschapper, Ministerie van Defensie, en nu senior onderzoeker, Universiteit van Auckland, Nieuw-Zeeland.
In het bijzonder danken wij Lord Martin Rees, voormalig president van de Royal Society en medeoprichter van het Centre for the Study of Existential Risks, Universiteit van Cambridge; Professor Shivaji Sondhi, hoogleraar natuurkunde, Universiteit van Oxford; Professor K Vijay Raghavan, voormalig wetenschappelijk hoofdadviseur van de regering van India; Amandeep Singh Gill, gezant voor technologie van de secretaris-generaal van de VN; Dr. Seán Óh Éigeartaigh, uitvoerend directeur, Centrum voor de Studie van Existentiële Risico's, Universiteit van Cambridge; Amanda-June Brawner, senior beleidsadviseur en Ian Wiggins, directeur internationale zaken, Royal Society UK; Dr. Jerome Duberry, Dr. Marie-Laure Salles, directeur, Geneva Graduate Institute; de heer Chor Pharn Lee, Centrum voor Strategische Toekomsten, kabinet van de premier, Singapore; Barend Mons en dr. Simon Hodson, de Commissie Gegevens (CoDATA); prof. Yuko Harayama, Japan; Professor Rémi Quirion, voorzitter, INSA; Dr. Claire Craig, Universiteit van Oxford en voormalig hoofd Foresight, Government Office of Science; en prof. Yoshua Bengio, de Wetenschappelijke Adviesraad van de secretaris-generaal van de VN en aan de Université de Montréal. De checklistbenadering werd algemeen onderschreven en de tijdigheid van elke actie van de ISC werd benadrukt.
Afbeelding: Adamichi op iStock