Halluzination

Bei generativen Modellen wie Sprach-KIs (z. B. ChatGPT), bezeichnet eine Halluzination das Phänomen, dass die KI falsche oder erfundene Inhalte erzeugt, obwohl sie formal korrekt, plausibel oder überzeugend erscheinen. KI-Modelle wie GPT „verstehen“ Inhalte nicht im menschlichen Sinn – sie berechnen Wahrscheinlichkeiten für das nächste Wort basierend auf Trainingsdaten. Wenn Informationen fehlen, mehrdeutig oder unklar sind, füllt das Modell die Lücke mit wahrscheinlich erscheinendem Text – auch wenn dieser faktisch falsch ist. Bei der Textgenerierung können - je nach Programmmugebung und Modell - Anpassungen vorgenommen werden, um bezüglich der Ergebnisse, den "kreativen" Output einzuschränken. Z.B. durch den Parameter "Temperatur" oder "temp":  <0,5 für  Faktenbasierte Ergebnisse, Zusammenfassungen und Aufgaben bei denen Konsistenz entscheidend ist. Letztlich werden Halluzinationen minimiert. 

» 📖 Glossar