Steeds vaker drijven hopen synthetisch door A.I. gegenereerde output over onze feeds en onze zoekopdrachten heen. De inzet reikt verder dan wat er op onze schermen verschijnt. De gehele cultuur wordt beïnvloed door de afvoer van A.I., een sluipende inbreuk op onze belangrijkste instellingen.

Neem de wetenschap. Direct na de blockbuster-release van GPT-4, het nieuwste kunstmatige intelligentiemodel van OpenAI en een van de meest geavanceerde die er bestaan, begon de taal van wetenschappelijk onderzoek te muteren. Vooral binnen het veld van A.I. zelf.

Een nieuwe studie deze maand onderzocht wetenschappelijke peerreviews – officiële uitspraken van onderzoekers over het werk van anderen, die de basis vormen van wetenschappelijke vooruitgang – over een aantal prominente en prestigieuze wetenschappelijke conferenties die A.I. bestuderen. Op een dergelijke conferentie werd het woord “nauwgezet” bijna 3.400 procent vaker gebruikt dan in recensies van het voorgaande jaar. Het gebruik van “lovenswaardig” steeg met ongeveer 900 procent en “ingewikkeld” met meer dan 1.000 procent. Andere grote conferenties vertoonden vergelijkbare patronen.

Dergelijke formuleringen zijn natuurlijk enkele van de favoriete buzzwoorden van moderne grote taalmodellen zoals ChatGPT. Met andere woorden, een significant aantal onderzoekers op A.I.-conferenties liet hun peerreview van het werk van anderen over aan A.I. – of schreef ze op zijn minst met veel A.I.-hulp. En hoe dichter bij de deadline de ingediende recensies werden ontvangen, hoe meer A.I.-gebruik erin werd gevonden.

Als dit u ongemakkelijk maakt – vooral gezien de huidige onbetrouwbaarheid van A.I. – of als u denkt dat misschien niet A.I.’s maar wetenschappers zelf de wetenschap zouden moeten beoordelen, benadrukken die gevoelens de paradox in het hart van deze technologie: Het is onduidelijk waar de ethische grens ligt tussen oplichterij en regulier gebruik. Sommige door A.I. gegenereerde oplichtingen zijn gemakkelijk te identificeren, zoals het medisch tijdschriftartikel met een cartoonrat met enorme genitaliën. Vele andere zijn meer verraderlijk, zoals het verkeerd gelabelde en gehallucineerde regulerende pad beschreven in datzelfde artikel – een artikel dat ook werd beoordeeld door vakgenoten (wellicht, zou men kunnen speculeren, door een andere A.I.?).

Wat als A.I. wordt gebruikt op een van de bedoelde manieren – om te helpen met schrijven? Onlangs was er ophef toen het duidelijk werd dat eenvoudige zoekopdrachten in wetenschappelijke databases zinnen opleverden als “Als een A.I. taalmodel” op plaatsen waar auteurs die op A.I. vertrouwden, vergeten waren hun sporen uit te wissen. Als dezelfde auteurs die toevallige watermerken eenvoudigweg hadden verwijderd, zou hun gebruik van A.I. om hun papers te schrijven dan in orde zijn geweest?