Hatten Sie schon einmal ein Problem mit einer App und dann beim Chatten mit KI das Gefühl, die Antworten passen nicht zu Ihren Fragen oder Ihrem Problem? (Ich schließe dabei die Variante aus, dass Ihnen ein Fehler unterläuft.) Haben Sie schon einmal in einem KI-gesteuerten Telefon-Telefonat oder Chat erlebt, dass Sie keine überzeugende Antwort zu Ihren Fragen erhalten? Warum sollte es bei rechtlichen Problemen besser sein?
Damit diese Einleitung keinen falschen Eindruck provoziert: Die Zusammenarbeit zwischen künstlicher und menschlicher Intelligenz gepaart mit Berufs- und Lebenserfahrung kann zu guten und oft schnellsten Ergebnissen führen.
Das Vertrauen in KI ist aber momentan noch riskant. Auf folgende Erfahrung möchte ich deshalb kurz hinweisen:
I. Oktober und November 2025:
Ich bekam in fünf Mandaten innerhalb der letzten sechs Wochen von meinen Mandanten die rechtlichen Informationen von ChatGPT vorgelegt. Sie waren fünf x falsch. In 2 Fällen war die Antwort in Bezug auf die Frage im Prinzip richtig, aber die Frage so falsch formuliert, dass der Kern des Problems nicht erfasst wurde bzw. der Mandant nicht erkannt hatte, wo seine Chance für einen positiven Ausgang war. In 3 Fällen wurden Gerichtsentscheidungen genannt. Leider waren die Fundstellen aber falsch. In den behaupteten Entscheidungen war nicht zu lesen, was die Auskunft behauptete.
Spaßeshalber habe ich danach Fragen zu Literatur an ChatGPT formuliert. In zwei Buchempfehlungen wurden jeweils falsche Autoren genannt.
Die Informationen über ChatGPT & Co. sind als Überblick meines Erachtens oft gut. Im Detail sollten Sie allerdings kritisch bleiben. Vertrauen Sie lieber Ihrem gesunden Menschenverstand. Oft liegen Sie dann näher an der Rechtslage.
II. Fortsetzung Februar 2026: Sich ändernde Kommunikation zwischen Mandant und Anwalt:
KI kann helfen, sich gegenüber dem eigenen Anwalt in der direkten Kommunikation besser auszudrücken. Aber jede Medaille hat zwei Seiten: Mittels KI geschilderte Sachverhalte klingen gut. Insbesondere sprachlich unsichere Menschen profitieren von dieser Unterstützung. In dem Verhältnis zwischen Mandant und Anwalt kann das aber sehr gefährlich sein, weil die von KI gewählte Formulierung Schwächen in der Argumentation oder im Sachverhalt kaschiert. Schnell gehen wichtige Informationen verloren und Probleme werden kaschiert, die der Anwalt kennen muss, um entsprechend informieren zu können. Abgesehen von dem regelmäßigen Ärgernis, dass KI die Beantwortung der Fragen, die der Anwalt vorher gestellt hat, nicht erledigt, wenn der Mandant KI von den Fragen nicht berichtet.
III. März 2026: Die schöne Seite der Medaille:
Letztes Jahr hatte ich vor allem auf die momentanen Schwächen von ChatGPT, Gemini & Co. hingewiesen. Rechtliche Ergebnisse werden behauptet, die sehr häufig falsche Entscheidungen als Grundlage nennen und einer Überprüfung nicht standhalten.
Die andere Seite derselben Medaille sollte jedoch ebenfalls erwähnt werden:
KI wird uns zunehmend stupide Arbeiten abnehmen und das Leben attraktiver gestalten. Vor 20 Jahren kannten die wenigsten von uns überhaupt Apps. In der aktuellen Diskussion über die Schwächen von KI liest man, zwischen Berichten über Angst und Mängel, vergleichsweise wenig (und für meinen Geschmack zu wenig) über die zahlreichen Verbesserungen unseres Lebens durch die technologische Entwicklung der letzten 20 Jahre.
Ich glaube, die Entwicklungen der vergangenen Jahrzehnte beinhalten viele Verbesserungen und eröffnen Chancen für die Zukunft, auch in unserer Branche.
KI wird den Arbeitsplatz des Rechtsanwaltes nicht verdrängen, solange KI über keine taktischen Erfahrungen vor Gericht und in Verhandlungen verfügt oder die Fehlerhaftigkeit einer Ausgangsfrage aufgrund des Lebenssachverhaltes jenseits des Computers nicht beurteilen kann, sondern bereichern. Ich freue mich darauf, mit unserer Kanzlei weiter in diese Zukunft zu wachsen.
IV. April 2026: Gerichte ärgern sich zunehmend /Anwälte arbeiten anscheinend nicht seriös und schaden ihren Mandanten:
Im Herbst 2025 hatte ich an dieser Stelle einen kurzen Artikel zu meinen Erfahrungen mit KI veröffentlicht (s.o.).
Mir ging es damals um den Hinweis, dass KI Entscheidungen behauptet, die es tatsächlich gar nicht gibt, weshalb der Rechtssuchende Gefahr läuft im blinden Glauben an Künstliche Intelligenz eine Rechtslage zu vermuten, die tatsächlich nicht existiert.
Mittlerweile bestätigt sich diese Einschätzung auch durch Hinweise von Gerichten. Im Beschluss des Verwaltungsgericht Mannheim, AZ: VGH 3 S 1012/25 rügt das Gericht, »dass die Antragsteller eine Vielzahl nicht offenbarer Entscheidungen zitieren und insoweit obergerichtlicher Rechtsprechung behaupten, die es – soweit ersichtlich – nicht gibt.«
Solche juristischen Halluzinationen der KI können Bürger und anscheinend auch Rechtsanwälte in die Irre führen.