Er moet zo min mogelijk gebruik worden gemaakt van generatieve AI voor peer reviews en evaluaties. Dat is staat in de richtsnoeren die de Commissie uitzet voor het verantwoordelijk gebruik van generatieve kunstmatige intelligentie (generatieve AI).  De richtsnoeren dragen bij aan het verantwoorde gebruik ervan in het Europese onderzoeksveld. De Commissie noemt het een ‘living document’, wat betekent dat de richtsnoerenblijvend worden geüpdatet aan de hand van de ontwikkelingen in het veld en door feedback van de onderzoeksgemeenschap.


Richtsnoeren AI in onderzoek: 'Gebruik geen AI bij evaluaties!’

Verantwoordelijk gebruik van AI in onderzoek

Onderzoekers moeten geen gebruik van generatieve AI bij gevoelige activiteiten, zoals peer reviews en evaluaties. Dat staat in de richtsnoeren voor verantwoordelijk gebruik van generatieve AI, gepubliceerd door de Commissie. Aan de hand van vier principes (reliability, honesty, respect, accountability), geven de richtsnoeren waarschuwingen en handvatten voor het gebruik van AI in onderzoek.

Waarschuwingen en handvatten

Indien onderzoekers gebruik willen maken van generatieve AI tools, moeten zij privacy, vertrouwelijkheid en intellectual property respecteren. Ga daarom na of de data die je upload niet gebruikt wordt voor het trainen van de AI toepassing. Onderzoekers zijn de eindverantwoordelijken voor hun wetenschappelijke output en dienen daarom te waken voor het gebruiken van foutieve informatie. Wanneer onderzoekers besluiten gebruik te maken van AI, raden de richtsnoeren aan om bijvoorbeeld via training op de hoogte te blijven van de laatste ontwikkelingen. Onderzoeksinstellingen worden opgeroepen het verantwoordelijk gebruik van generatieve AI te integreren in de algemene onderzoeksrichtlijnen van de instellingen zelf. Daarnaast kunnen instellingen de privacy en vertrouwelijkheid van hun onderzoek beter beschermen door lokaal gehoste of cloud-based generatieve AI tools te gebruiken, waardoor de gevoede informatie intern blijft. Financieringsinstellingen spelen hierin ook een rol: ook zij moeten het verantwoordelijk gebruik van generatieve AI promoten en ondersteunen. Bijvoorbeeld door transparantie over AI gebruik te eisen bij aanvragen, zelf transparant te zijn over generatieve AI in interne processen en op de hoogte te blijven van ontwikkelingen in het snel veranderende AI-veld.

 

Context

Deze richtsnoeren zijn gebaseerd op bestaande kaders, zoals de European Code of Conduct for Research Integrity en de richtsnoeren voor betrouwbare AI. De European Research Council (ERC) gaf in december al aan graag meer ethische richtsnoeren te zien voor het gebruik van generatieve AI. Tevens gaf het merendeel van de onderzoekers met een ERC-beurs aan dat het wenselijk is dat er ethische richtsnoeren komen voor het gebruik van AI in onderzoek. Momenteel gebeurt er veel rondom AI in de EU. Zo bereikten in december 2023 de Raad en het Parlement een akkoord over ’s werelds eerste AI-wetgeving. Deze AI Act moet de betrouwbaarheid en veiligheid van AI bevorderen, zowel binnen als buiten Europa.