Blogbeitrag ChatGPT halluziniert manchmal

ChatGPT halluziniert manchmal

Problem

In der schnelllebigen Zeit fehlt es dir oftmals an Ruhe, um eine Information auf Richtigkeit zu prüfen. Auch ChatGPT halluziniert oder „lügt“ manchmal.

Lösung

Gib ChatGPT klare Anweisungen, dass du keine Lügen akzeptierst. Ich habe für dich einen kleinen Test gemacht. Obwohl ich in meinen Ansagen schon klar gemacht habe, dass ich keine Fake-News akzeptiere, kommt dennoch eine falsche Aussage. Ich spreche daraufhin mit der KI, um zu erfahren, wie ich meine Anweisungen optimieren kann, um das zukünftig zu verhindern.

Fazit

KI nimmt dir viel Arbeit ab, aber nicht alles. Stell sicher, dass noch „ein Mensch“ die Outputs überprüft. Du kannst die Halluzinationen stark eingrenzen durch die Custom Instructions in ChatGPT und detaillierten Prompts.