Over de auteur: Amy Brand is directeur en uitgever van MIT Press, een functie die ze sinds 2015 vervult. Ze is opgeleid als cognitiewetenschapper, promoveerde aan MIT en bekleedde leidinggevende functies bij CrossRef, Harvard en Digital Science. Ze is mede-bedenker van de CRediT-taxonomie, medeoprichter van de ORCID-raad en producent van de documentaire Picture a Scientist. Brand wordt alom erkend voor haar bijdragen aan onderzoeksinfrastructuur, wetenschappelijke communicatie en gelijkheid in de wetenschap. Ze ontving onder andere de Council of Science Editors Award en de AAAS Kavli Science Journalism Gold Award.
Wetenschap is essentieel voor de menselijke vooruitgang. Ook essentieel, zij het minder voor de hand liggend, is de manier waarop we wetenschap verspreiden. Als systeem waardoor kennis vindbaar en geloofwaardig wordt, is publiceren een kernonderdeel van de onderzoeksinfrastructuur.
Hoe moet de uitgeverij zich aanpassen om te voldoen aan de behoeften van een onderzoeksgemeenschap die te maken heeft met censuur, afnemende financiering en de snelle opkomst van generatieve AI-systemen die kennis opzuigen en de integriteit ervan ondermijnen? Als iemand die tientallen jaren heeft gewerkt in onderzoek, universiteitsbestuur en de uitgeverij, heb ik nog nooit zo'n hoge inzet gezien als nu voor de toekomst van zowel de wetenschap als de wetenschap. en wetenschapscommunicatie.
Nu sociaal-politieke systemen om ons heen instorten, is het verleidelijk om generatieve AI te zien als de alchemistische oplossing voor de problemen van de wereld. Grote taalmodellen (LLM's) zijn opgekomen als verleidelijke portalen naar ontdekking, die directe antwoorden, naadloze synthese en de schijnbare democratisering van kennis bieden. Hun aantrekkingskracht verhult echter hun potentie als systemen die ook misinformatie, fraude en propaganda in de hand werken. Ze produceren content die zeer aannemelijk lijkt, maar vaak misleidend of gewoonweg onjuist is. Het is gevaarlijk voor de wetenschap wanneer validatie moeilijk en duur is, terwijl "waarheid" goedkoop en winstgevend is, vooral gezien hoe gemakkelijk het is om de menselijke geest voor de gek te houden.
Ja, we willen ontdekking en probleemoplossing versnellen in het licht van de nijpende wereldwijde uitdagingen. We willen geloven in machines die problemen sneller kunnen oplossen dan de menselijke cognitieve architectuur of onze disfunctionele instellingen. Maar wanneer voorstanders van onbeperkte AI-training beweren dat het een morele plicht is om alle wetenschappelijke content en data beschikbaar te stellen om innovatie te versnellen, dan maant de geschiedenis tot voorzichtigheid.
We hebben dit al eerder gezien. Het vroege internet werd geprezen als een democratiserende kracht voor expressie en universele kennis. Uiteindelijk zorgde een gebrek aan regulering ervoor dat enorme commerciële platforms de ruimte domineerden, waardoor het vertrouwen werd ondermijnd en economische modellen voor zowel nieuws als onderzoekscontent instortten. We weten nu ook dat ondermaatse open access-beleidsmaatregelen de consolidatie in de uitgeverswereld versnelden en economische prikkels creëerden om meer te publiceren met minder kwaliteitscontrole.
Laten we even stilstaan bij wat het beste is voor menselijk begrip, leren en de voortgang van kennis. Wanneer zoeken alleen leidt tot AI-samenvattingen en gebruikers niet doorklikken naar originele bronnen, en wanneer het lezen voor de lol dramatisch afneemt, hoe vermijden we dan een toekomst waarin we content alleen voor machinaal gebruik creëren en publiceren?
Ik geloof dat de cruciale rol die uitgevers spelen bij het ondersteunen van de impact en integriteit van onderzoek de moeite waard is om te behouden en te beschermen, vooral nu. Ik begrijp de frustratie over hoge publicatiekosten en abonnementsmuren, vooral bij grotere uitgevers die een markt voor academische prestige hebben benut die historisch gezien niet prijsgevoelig was. Maar onze sector is geen monolithische, winstbejag. Non-profituitgevers, zoals MIT Press en veel wetenschappelijke verenigingen, opereren met andere waarden en kleinere marges.
We worden inderdaad meer bedreigd door de landroof door AI en soms zelfs door de open science-bewegingen die we al lang steunen. Daarom moeten we ons verzetten tegen morele houdingen die de machtsdynamiek negeren. Er hangt een aureool rond het idee van 'open' dat de complexiteit van de echte wereld, zoals economie en prikkels, kan verdoezelen. Uiteindelijk is niet alle openheid deugdzaam; niet alle weerstand tegen openheid is obstructief.
Een andere misvatting is dat de belangen van uitgevers niet overeenkomen met die van onderzoekers. We hebben onlangs een onderzoek uitgevoerd groot onderzoek onder auteurs binnen STEM-gebieden met betrekking tot ongeoorloofd gebruik van hun werk voor LLM-opleidingen. De overgrote meerderheid maakt bezwaar tegen deze praktijk, terwijl ze ervan overtuigd zijn dat AI transformatieve paden voor ontdekking en leren belooft. Ze verwachten dat ze toestemming kunnen geven voor dergelijk gebruik, of dat ze dat niet kunnen doen, en verwachten dat hun werk een bron van informatie is wanneer het de LLM-resultaten beïnvloedt. Ze stellen open-to-read niet gelijk aan open-to-train-on.
Velen staan ook sceptisch tegenover de integriteit van grote AI-bedrijven en maken zich zorgen over de impact die LLM's zullen hebben op publiceren, lezen, schrijven, kritisch denken en creativiteit; hoe ze diverse standpunten zullen vervlakken; en hoe ze vooroordelen en culturele hegemonieën zullen versterken. Ze maken zich grote zorgen over wat er verloren gaat als we door mensen geschreven werk opsplitsen in getokeniseerde trainingsdata en deze voeden met modellen die hun context of argumentatie niet kunnen behouden.
De vraag hoe en onder welke voorwaarden gepubliceerde wetenschap wordt gebruikt om LLM's op te leiden, gaat niet alleen over auteursrecht. Het gaat over wie de toekomst van kennis bepaalt. Geven we autoriteit aan ondoorzichtige, extractieve industrieën met weinig verantwoording aan de onderzoeksgemeenschap? Of bouwen we systemen die attributie, integriteit en duurzaamheid waarborgen? Als we menselijke bloei, evidence-based wetenschap en de bescherming van de omstandigheden waaronder kennis groeit serieus nemen, dan moeten de onderzoeksgemeenschap en haar instellingen kritisch te werk gaan.
Wiens belangen worden gediend door gepubliceerde wetenschap en wetenschap weg te geven aan een zeer extractieve, ondoorzichtige techsector? Volg de logica: alle waarde van de open publicatiekosten die auteurs, instellingen en financiers betalen, komt uiteindelijk terecht bij organisaties zoals OpenAI en Anthropic. Wat extractieve industrieën betreft, laten we ook eerlijk zijn bij het beoordelen hoe de waarden van de AI-sector zich verhouden tot die van academische uitgevers.
Ik blijf optimistisch dat we, met zorgvuldige planning en evidence-based beleid, AI zullen gebruiken om peer review te verbeteren, de reproduceerbaarheid te vergroten en publicatieprocessen en -kosten te stroomlijnen. Mogelijk kunnen we zelfs oplossingen ontwikkelen die de goede kanten van wetenschappelijk publiceren helpen behouden.
Maar het huidige paradigma, waarbij gepubliceerde gegevens zonder toestemming worden gemined en verhandeld door private techgiganten, is onethisch en destructief voor de wetenschap. Het weerspiegelt ook magisch denken over hoe onze complexe wereld werkt en hoe we daadwerkelijk vooruitgang zullen boeken bij het oplossen van de existentiële problemen waarmee we worden geconfronteerd.
Disclaimer
De informatie, meningen en aanbevelingen die in onze gastblogs worden gepresenteerd, zijn die van de individuele auteurs en weerspiegelen niet noodzakelijkerwijs de waarden en overtuigingen van de International Science Council.
Ontvang toekomstige open science-overzichten rechtstreeks in uw inbox – Abonneer nu.
Foto door Martin Adams on Unsplash