Künstliche Intelligenz (KI) gewinnt für Editorial Boards zunehmend an Relevanz, da Forschende KI-Tools immer mehr nutzen. 

Ihr solltet die Positionen von Komitees wie COPE oder andere Gremien verfolgen, um Gutachtenden, aber auch Autor*innen Richtlinien an die Hand zu geben zu können, was erlaubt ist und was nicht. Mittlerweile haben immer mehr Einrichtungen selbst KI-Policies, die für die Tätigkeiten der Autor*innen und der Gutachtenden gelten. Ihr könnt als Herausgebende auf allgemeine Positionen der guten wissenschaftlichen Praxis hinweisen.

Als Beispiel ist hier die Position von COPE zu Autorschaft und KI-Tools zu erwähnen, die lautet, dass KI-Tools die Anforderungen an die Urheberschaft nicht erfüllen können. Sie können keine Verantwortung für die eingereichte Arbeit übernehmen. Da sie keine juristischen Personen sind, können sie weder das Vorhandensein oder Nichtvorhandensein von Interessenkonflikten feststellen, noch Urheberrechte und Lizenzvereinbarungen verwalten. Autor*innen, die KI-Tools beim Verfassen eines Manuskripts, bei der Erstellung von Bildern, grafischen Elementen der Arbeit oder bei der Sammlung und Analyse von Daten verwenden, müssen transparent darlegen, wie KI verwendet wurde und welches Tool zum Einsatz kam. Die Autor*innen sind in vollem Umfang für den Inhalt ihres Manuskripts verantwortlich, auch für die Teile, die mit einem KI-Tool erstellt wurden, und haften daher für jeden Verstoß gegen die Veröffentlichungsethik (vgl. COPE Council. COPE position - Authorship and AI - English. https://doi.org/10.24318/cCVRZBms).

Weitere relevante, englischsprachige Inhalte zum Thema KI findet ihr hier:

Zuletzt geändert: Montag, 31. März 2025, 14:04