Wetenschappers en onderzoekers waarderen sciencefiction steeds meer vanwege de bijdragen ervan aan het anticiperen op toekomstige scenario's. Als onderdeel van haar missie om de richtingen te verkennen waarin veranderingen in de wetenschap en wetenschappelijke systemen ons leiden, heeft de Centrum voor Wetenschap Futures sprak met zes toonaangevende sciencefictionauteurs om hun perspectieven te verzamelen over hoe de wetenschap het hoofd kan bieden aan de vele maatschappelijke uitdagingen waarmee we de komende decennia te maken zullen krijgen. De podcast is in samenwerking met NATUUR.
In onze vijfde aflevering voegt Qiufan Chen zich bij ons om keuzevrijheid en sociale verantwoordelijkheid in de wetenschap als een menselijke onderneming te bespreken. Voor Chen is dit vooral van toepassing op kunstmatige intelligentie. Tijdens de podcast neemt hij ons mee door de impact van AI op de toekomst van wetenschappelijk onderzoek en hoe AI-ontwikkelingen beter gereguleerd en dus ethischer kunnen worden gemaakt.

Qiufan Chen
Qiufan Chen is een bekroonde Chinese speculatieve fictieschrijver, auteur van De afvalstroom en co-auteur van AI 2041: tien visies voor onze toekomst. Hij is ook onderzoeker aan de Yale Universiteit en een fellow van het Berggruen Institute, VS. Onze belangrijkste discussie draait om kunstmatige intelligentie, hoe we de kracht van deze technologie kunnen benutten en tegelijkertijd de gevaren die deze met zich meebrengt kunnen vermijden.
Paul Shrivastava (00:04):
Hallo, ik ben Paul Shrivastava van de Pennsylvania State University. En in deze podcastserie spreek ik met enkele van de toonaangevende sciencefictionschrijvers van dit moment. Ik wil hun mening horen over de toekomst van de wetenschap en hoe deze moet veranderen om de uitdagingen aan te gaan waarmee we de komende jaren worden geconfronteerd.
Qiufan Chen (00:24):
AI kan in de toekomst misschien worden gebruikt om ons te helpen onszelf als een spiegel te weerspiegelen, om ons een beter mens te maken.
Paul Shrivastava (00:33):
Vandaag spreek ik met Qiufan Stanley Chen, een bekroonde Chinese schrijver. Ik heb zijn roman gelezen, De afvalstroom vele jaren geleden, en was onder de indruk van zijn weergave van de hachelijke situatie van elektronisch afval. Zijn meest recente co-auteur van een boek AI 2041: 10 visies op onze toekomst, combineert op levendige wijze fantasierijke verhalen met wetenschappelijke voorspellingen. We hebben veel gesproken over kunstmatige intelligentie en hoe we de kracht van deze ongelooflijke technologie kunnen benutten, terwijl we enkele van de gevaren die deze met zich meebrengt kunnen vermijden.
Hartelijk dank dat je bij ons bent gekomen, Stan. Welkom. Het is verbazingwekkend dat de verscheidenheid aan wetenschappelijke onderwerpen die jij beheerst echt opmerkelijk is. Hoe bent u geïnteresseerd geraakt in deze wetenschappelijke onderwerpen?
Qiufan Chen (01:28):
Dus als sciencefictionfan moet ik toegeven dat ik met al deze dingen ben begonnen Star Wars, Star Trek, Jurassic Park, klassieke sciencefictionfilms en -boeken, animaties van vroeger. Elke keer leverde het mij veel nieuwe inspiratie en ideeën op. Ik was dus altijd totaal gefascineerd door al deze tekenen, verbeelding van de toekomst en de ruimte en zelfs soorten van miljoenen jaren geleden. Dus hoe we ze weer tot leven brachten.
Paul Shrivastava (02:02):
De wetenschap bestaat dus al heel lang. Wat is uw algemene kijk op wetenschap als een menselijke onderneming?
Qiufan Chen (02:13):
Voor mij is het absoluut een enorme prestatie. En natuurlijk zorgt het ervoor dat we als mens in een betere toestand leven. En als we terugkijken naar de geschiedenis, moet ik toegeven dat er veel uitdagingen zijn, omdat het voor mij voelt alsof het bureau niet absoluut in handen van mensen is. Soms heb ik het gevoel dat wetenschap en technologie, net als een soort soort, een soort biologische wezens, misschien wel een eigen doel hebben. Het heeft zijn eigen geboortelevenscyclus. Het wil samen met de mens zijn en evolueren. Dus wij zijn als de gastheer, zij als het virus. We kunnen het op die manier zien of andersom. Ik heb dus altijd het gevoel dat er een heel diepe verstrengeling bestaat tussen wetenschap en mensen. Dus soms heb ik het gevoel dat we veel veranderd zijn door al deze ontwikkelingen op het gebied van wetenschap en technologie, maar we weten nooit welke richting ons te wachten staat.
Paul Shrivastava (03:24):
Laten we het concreter maken en ons concentreren op wat nu top of mind is, namelijk kunstmatige intelligentie. Hoe kunnen we ervoor zorgen dat we bij de ontwikkeling van AI rekening houden met sociale rechtvaardigheid en ethische en morele overwegingen?
Qiufan Chen (03:40):
Het probleem is dat we niet volledig hebben geïnvesteerd in het opbouwen van dit soort regelgeving en een raamwerk om op ethische wijze te voorkomen dat er iets negatiefs gebeurt. Ik denk dat we meer diversiteit nodig hebben op het gebied van AI, en vooral op het gebied van grote taalmodellen, omdat we het hebben over specifieke afstemming. Dus zelfs onder mensen in verschillende landen, culturen en talen hadden we deze gedeelde afstemming niet als enige standaard. Dus hoe kunnen we de machine, de AI, leren om in één lijn te komen met het menselijke waardesysteem of de standaarden als één geheel? Ik denk dus dat dit iets heel voorlopigs is. Maar ik denk dat de belangrijkste inbreng niet alleen moet komen van de technologiebedrijven, van de ingenieurs, van al deze mensen die het ding in de industrie doen, maar ook van de interdisciplinaire wereld, zoals antropologieën en psychologieën, sociologie bijvoorbeeld. We hebben een meer divers perspectief vanuit de geesteswetenschappen nodig, omdat AI geacht wordt gebouwd te zijn voor de mensen, om de mensen te dienen. Maar ik heb het gevoel dat de menselijke factor op dit moment behoorlijk ontbreekt.
Paul Shrivastava (05:11):
Hoe zullen deze technologische ontwikkelingen volgens u de manier veranderen waarop wetenschap in de toekomst wordt beoefend?
Qiufan Chen (05:19):
Het lijkt mij dat dit een totaal nieuwe paradigmaverschuiving is waarbij wetenschappers AI kunnen gebruiken om nieuwe patronen te zoeken, de eiwitstructuur te voorspellen en de correlatie te vinden binnen een enorme hoeveelheid gegevens. Ik denk dat dit iets revolutionairs gaat worden. Maar er zijn ook veel zorgen binnen dit proces. We kunnen nu bijvoorbeeld miljoenen eiwitstructuren voorspellen, maar het probleem is: hoeveel procent van al deze voorspellingen over de eiwitstructuur is geldig en effectief voor de echte ziekte en het echte menselijke lichaam? En een ander ding is dat dit hele revolutionaire gebied zich sterk richt op het verzamelen van een enorme hoeveelheid datasets. Van welke soort groep worden deze gegevens verzameld? Wat voor soort bevolking? En delen ze deze gegevens met kennisgeving, waar alles voor is gebruikt? En delen we de gegevens tussen verschillende groepen wetenschappers of onderzoekers? Dus ik denk dat dit altijd iets is over hoe we dit soort tegenwichtssysteem kunnen opbouwen om de risico's en uitdagingen te minimaliseren, terwijl we ondertussen echt aan de eisen van de markt kunnen voldoen en de beste voordelen voor de mensen kunnen realiseren.
Paul Shrivastava (06:56):
Ja, ik denk dat het bouwen van het checks and balances-systeem een belangrijk onderdeel is van de ontwikkeling van AI. Maar de milieueffecten van kunstmatige intelligentie zelf worden zelden genoemd in de publieke wetenschappelijke verhalen.
Qiufan Chen (07:13):
Dit is iets heel paradoxaals, omdat AI zoveel kracht vereist. En er is realtime berekening voor nodig. Er is zoveel onttrekking aan de omgeving nodig. Maar ondertussen kunnen we het gebruiken om de bosbrand vanaf de satelliet te detecteren. We kunnen het gebruiken om de biodiversiteit te beschermen. We kunnen het gebruiken om een nieuwe oplossing te vinden, zoals de energieopslag van de batterij, en de slimme netwerken en misschien zelfs de kernfusietechnologie in de toekomst. Dus als je het op de juiste manier gebruikt, kan het ons zeker beschermen en vechten tegen de klimaatverandering.
Paul Shrivastava (08:03):
Denkt u dat AI op een bepaald moment in de toekomst meer zal begrijpen dan wat mensen kunnen begrijpen?
Qiufan Chen (08:13):
Dus waar ik aan heb gedacht is een model, zoals een groot model dat verder gaat dan de mens. De gegevens zijn bijvoorbeeld afkomstig van dieren, planten, schimmels, zelfs van micro-organismen en de hele omgeving. We hebben het dus over het hele aardemodel. We moeten dit soort sensorlagen over de hele wereld inzetten. Dus misschien kunnen we slim stof gebruiken, dat werd genoemd in Lems roman The Invincible. Dus je hebt het over al deze zwerm klein stof, in feite is het een collectieve intelligentie. En de mens kan zoveel leren van dit soort grote modellen, omdat het ons helpt iets waar te nemen dat verder gaat dan ons sensorische systeem en dat verder gaat dan de mens. Dan kunnen we minder mensgericht zijn en meer compassie hebben voor andere soorten. En misschien zou dat de oplossing zijn om tegen de klimaatverandering te vechten, omdat we kunnen voelen hoe de andere soorten zich voelen en al deze pijn, al dit lijden, al deze opoffering iets tastbaars en reëels zou kunnen zijn.
Paul Shrivastava (09:36):
Prachtig. Het voorstellen van kunstmatige intelligentie in het model van de mens is eigenlijk een inferieure manier van denken over kunstmatige intelligentie... De meer superieure manier, wat jij het hele-wereldmodel noemt, is de manier om te ontwikkelen.
Qiufan Chen (09:54):
Ja. Dit doet me denken aan het boeddhisme, omdat in het boeddhisme, net als alle bewuste soorten, zo gelijk mogelijk zijn, en er niet zoiets bestaat als menselijke wezens die premier zouden moeten zijn dan anderen. Ik denk er dus altijd over na dat we een manier moeten vinden om al deze filosofie en waarden van het boeddhisme en taoïsme in de machine te verankeren.
Paul Shrivastava (10:27):
Ik vraag me dus af of je de technische elementen van AI begrijpt. Kan AI worden getraind in het boeddhisme, in het taoïsme? Omdat alle boeken en waarden al gecodificeerd zijn. Is het mogelijk om AI te vinden die daarop traint en een synthetische wereldreligie creëert, als je wilt?
Qiufan Chen (10:50):
Dat zou het zeker kunnen, en het zou het beter kunnen doen dan welke priester, welke monnik dan ook, welke goeroe dan ook in de wereld, omdat het zo goed geïnformeerd is. Maar als beoefenaar van het taoïsme is er iets dat verder gaat dan het synthetische begrip van dit alles, noem het religieuze of spirituele ervaring, iets lichamelijks. Je moet dus al dit fysieke huiswerk doen. Dus ik denk dat dit iets is waar AI nog steeds een gebrek aan heeft. Het had bijvoorbeeld geen lichaam, het complexe sensorische systeem niet, het had geen zelfbewustzijn. En ik denk dat al deze aspecten een mens menselijk maken. AI kan in de toekomst misschien worden gebruikt om ons te helpen onszelf als een spiegel te weerspiegelen, om ons een beter mens te maken.
Paul Shrivastava (11:49):
Kan AI in jouw verbeelding een ziel hebben?
Qiufan Chen (11:54):
De opkomst van bewustzijn is op dit moment feitelijk een mysterie in de wetenschap. Ik heb dus het gevoel dat er zeker een verband bestaat tussen het vermogen tot het ontstaan van grote taalmodellen en al die verschijningsverschijnselen in klassieke of kwantumfysische complexiteitssystemen. Dus ik denk dat we wiskundig gezien op een dag misschien het bestaan van bewustzijn kunnen bewijzen. Maar het is niet nul of één status, maar het is een continu spectrum van status. Dus dat betekent dat misschien zelfs een rots, zelfs een boom, zelfs de rivier of de berg een bepaald bewustzijnsniveau hebben, maar we herkenden het gewoon niet omdat we zo mensgericht zijn. Maar het draait allemaal om rekenen. Het draait allemaal om tijdruimtecompressie. Het draait allemaal om het bewaren van informatie. Het draait dus allemaal om het verminderen van entropie. Het is dus geen epistemologische vraag, maar ik denk dat het een ontologische vraag is. Het gaat dus om het bestaan.
Paul Shrivastava (13:14):
Bedankt voor het luisteren naar deze podcast van het Center for Science Futures van de International Science Council, uitgevoerd in samenwerking met het Arthur C. Clarke Center for Human Imagination van UC San Diego. Bezoek futures.council.science om meer werk van het Center for Science Futures te ontdekken. Het richt zich op opkomende trends in wetenschap en onderzoekssystemen en biedt opties en hulpmiddelen om beter geïnformeerde beslissingen te nemen.
Paul Shrivastava, hoogleraar management en organisaties aan de Pennsylvania State University, presenteerde de podcastserie. Hij is gespecialiseerd in de implementatie van de Sustainable Development Goals. De podcast wordt ook gemaakt in samenwerking met het Arthur C. Clarke Center for Human Imagination van de Universiteit van Californië, San Diego.
Het project werd begeleid door Mathieu Dennis en gedragen door Dong Liu, van de Centrum voor Wetenschap Futures, de denktank van het ISC.
Disclaimer
De informatie, meningen en aanbevelingen die in onze gastblogs worden gepresenteerd, zijn die van de individuele auteurs en weerspiegelen niet noodzakelijkerwijs de waarden en overtuigingen van de International Science Council.