Stand November 2025
Hatten Sie schon einmal ein Problem mit einer App und dann beim Chatten mit KI das Gefühl, die Antworten passen nicht zu Ihren Fragen oder Ihrem Problem? (Ich schließe dabei die Variante aus, dass Ihnen ein Fehler unterläuft.) Haben Sie schon einmal mit einem KI-gesteuerten Telefon-Gesprächspartner erlebt, dass Sie keine überzeugende Antwort zu Ihren Fragen erhalten? Warum sollte es bei rechtlichen Problemen besser sein? Damit diese Einleitung keinen falschen Eindruck provoziert: Die Zusammenarbeit zwischen künstlicher und menschlicher Intelligenz gepaart mit Berufs- und Lebenserfahrung kann zum besten und oft schnellsten Ergebnis führen.
Das Vertrauen in ChatGPT ist aber momentan noch riskant. Auf folgende Erfahrung möchte ich kurz hinweisen:
Ich bekam in fünf Mandaten innerhalb der letzten sechs Wochen von meinen Mandanten die rechtlichen Informationen von ChatGPT vorgelegt. Sie waren fünfmal falsch. In 2 Fällen war die Antwort in Bezug auf die Frage im Prinzip richtig, aber die Frage so falsch formuliert, dass der Kern des Problems nicht erfasst wurde bzw. der Mandant nicht erkannt hatte, wo seine Chance für einen positiven Ausgang war. In 3 Fällen wurden Gerichtsentscheidungen genannt. Leider waren die Fundstellen aber falsch. In den behaupteten Entscheidungen war nicht zu lesen, was die Auskunft behauptete.
Spaßeshalber habe ich danach Fragen zu Literatur an ChatGPT formuliert. In zwei Buchempfehlungen wurden jeweils falsche Autoren genannt.
Die Informationen über ChatGPT sind als Überblick meines Erachtens oft gut. Im Detail sollten Sie allerdings kritisch bleiben. Vertrauen Sie lieber Ihrem gesunden Menschenverstand. Oft liegen Sie dann näher an der Rechtslage.