
Künstliche Intelligenz (KI) gewinnt für Editorial Boards zunehmend an Relevanz, da Forschende KI-Tools immer mehr nutzen.
Ihr solltet die Positionen von Komitees wie COPE oder andere Gremien verfolgen, um Gutachtenden, aber auch Autor*innen Richtlinien an die Hand zu geben zu können, was erlaubt ist und was nicht. Mittlerweile haben immer mehr Einrichtungen selbst KI-Policies, die für die Tätigkeiten der Autor*innen und der Gutachtenden gelten. Ihr könnt als Herausgebende auf allgemeine Positionen der guten wissenschaftlichen Praxis hinweisen.
Als Beispiel ist hier die Position von COPE zu Autorschaft und KI-Tools zu erwähnen, die lautet, dass KI-Tools die Anforderungen an die Urheberschaft nicht erfüllen können. Sie können keine Verantwortung für die eingereichte Arbeit übernehmen. Da sie keine juristischen Personen sind, können sie weder das Vorhandensein oder Nichtvorhandensein von Interessenkonflikten feststellen, noch Urheberrechte und Lizenzvereinbarungen verwalten. Autor*innen, die KI-Tools beim Verfassen eines Manuskripts, bei der Erstellung von Bildern, grafischen Elementen der Arbeit oder bei der Sammlung und Analyse von Daten verwenden, müssen transparent darlegen, wie KI verwendet wurde und welches Tool zum Einsatz kam. Die Autor*innen sind in vollem Umfang für den Inhalt ihres Manuskripts verantwortlich, auch für die Teile, die mit einem KI-Tool erstellt wurden, und haften daher für jeden Verstoß gegen die Veröffentlichungsethik (vgl. COPE Council. COPE position - Authorship and AI - English. https://doi.org/10.24318/cCVRZBms).
Weitere relevante, englischsprachige Inhalte zum Thema KI findet ihr hier:
- Artificial Intelligence COPE lightning talk
- AI and fake papers, COPE Forum discussion
- Artificial intelligence and authorship COPE editorial
- Artificial intelligence and authorship COPE editorial
- The challenge of AI chatbots for journal editors guest editorial
- Blogpost by Mahammad Hosseini and Serge P.J.M Horbach (2023): Can generative AI add anything to academic peer review?