In der Nutzung von generativer KI können Probleme auftreten, so z.B.:
Genrative KI ...
... kann nicht gewährleisten, dass die generierten Texte faktisch richtig sind.
.... erstellt immer voneinander abweichende Texte, auch bei exakt gleicher Prompteingabe. Die Reproduzierbarkeit einzelner Ergebnisse ist dadurch ausgeschlossen.
... greift nicht auf eine kuratierte Datengrundlage (Index) zu. Sie kann daher keine zuverlässigen Aussagen oder Angaben zu echten Quellen machen. Verweise auf echte Quellen sind nur dann möglich, wenn die KI-Anwendungen eine Internetsuche durchführen kann oder Retrieval Augmented Generation (RAG) nutzt.
... verhält sich nicht neutral. Sie reproduziert Klischees oder stereotype Ansichten oder bestimmte politische Ansichten.
... ist ein "People-Pleaser", d.h. das System richtet sich an der Eingabe der Nutzenden aus und versucht diese mit dem generierten Output zufriedenzustellen. Der Chatbot hat keine eigene Meinung/Haltung.
... kann nicht durch direktes Feedback der User lernen. Korrekturen/Hinweise auf Fehler werden nur in dem Chat berücksichtigt, in dem sie geäußert werden.
... eignet sich nicht für jede Aufgabe. Außerdem unterscheiden sich unterschiedliche Modelle/Versionen in ihrer Leistungsfähigkeit.
Aufgrund dieser Probleme bzw. Herausforderungen in der Nutzung ist ein kritischer Umgang mit generativen KI-Anwendungen sehr wichtig. Generierten Inhalte müssen immer überprüft und eingeordnet werden. Ein unkritischer und unreflektierter Umgang kann nicht nur zu inhaltlichen Fehlern und Fehlannahmen führen, sondern auch das menschliche Miteinander negativ beeinflussen, wenn bspw. das Vertrauen zwischen Personen geschädigt wird.