Künstliche Intelligenz im Rechtswesen: Gerichte fordern Vorsicht und Verantwortung | Technologie, Auto, Krypto & Wissenschaft – Testright.de
Künstliche Intelligenz im Rechtswesen: Gerichte fordern Vorsicht und Verantwortung

Künstliche Intelligenz im Rechtswesen: Gerichte fordern Vorsicht und Verantwortung

2025-06-08
0 Kommentare

3 Minuten

Künstliche Intelligenz im Rechtswesen: Gerichte fordern Vorsicht und Verantwortung

Der Einsatz von Künstlicher Intelligenz, insbesondere moderner Sprachmodelle wie ChatGPT, verändert zunehmend zahlreiche Branchen – darunter auch den juristischen Sektor. Das High Court des Vereinigten Königreichs hat nun jedoch eine deutliche Warnung an Rechtsanwälte ausgesprochen, die sich in ihrer juristischen Recherche und Dokumentenerstellung zu unkritisch oder leichtfertig auf KI-Technologien verlassen.

Grundsatzurteil hebt Risiken nicht überprüfter KI-Daten hervor

In einer aktuellen Entscheidung machte Richterin Victoria Sharp vom High Court of England and Wales deutlich, dass KI-Plattformen zwar enorme Chancen zur Optimierung juristischer Arbeitsprozesse bieten, jedoch noch nicht als uneingeschränkt zuverlässige Quellen für juristische Recherche gelten können. Sie wies darauf hin, dass KI-Systeme häufig plausible, aber inhaltlich falsche oder sogar vollständig erfundene Informationen erzeugen können – ein Phänomen, das als „KI-Halluzination“ bezeichnet wird.

Verantwortung der menschlichen Prüfung bleibt essenziell

Das Gericht verhängt kein generelles Verbot für den Einsatz von KI durch Juristen. Vielmehr betont es, dass Anwälte weiterhin verpflichtet sind, jegliche durch Künstliche Intelligenz bereitgestellte Informationen sorgfältig mit anerkannten juristischen Quellen abzugleichen. Diese Sorgfaltspflicht bildet weiterhin einen zentralen Bestandteil ihrer beruflichen Verantwortung gegenüber Gerichten und Mandanten. Wer diese Standards missachtet, muss mit schwerwiegenden Folgen bis hin zu Bußgeldern, Disziplinarmaßnahmen oder in gravierenden Fällen sogar strafrechtlichen Ermittlungen rechnen.

Reale Fälle unterstreichen die Gefahren

In ihrer Entscheidung verwies das Gericht auf zwei aktuelle Fälle, in denen Anwälte unwissentlich nicht existierende Referenzen in offiziellen Schriftsätzen verwendeten – ausgelöst durch unüberprüfte KI-Ergebnisse. In einem Fall waren 18 von 45 angegebenen Quellen fiktiv, in einem anderen tauchten fünf erfundene Präzedenzfälle in einer Verteidigungsschrift auf. Zwar verzichtete das Gericht in diesen Fällen auf Anklagen wegen Missachtung, doch machte Richterin Sharp klar, dass ähnliche Versäumnisse künftig strengere Konsequenzen nach sich ziehen werden.

Auswirkungen auf den Legal-Tech-Markt

Die Legal-Tech-Branche entwickelt sich rasant weiter, wobei KI-gestützte Recherche-Tools erhebliche Zeit- und Kostenvorteile gegenüber herkömmlichen Methoden bieten. Systeme wie ChatGPT überzeugen durch fortschrittliches Sprachverständnis und die Fähigkeit, juristische Entwürfe oder Zusammenfassungen schnell zu erstellen. Das Gericht betont jedoch, dass KI-Lösungen den menschlichen Sachverstand aktuell nur ergänzen, nicht ersetzen können. Der Mehrwert von KI im Rechtswesen liegt derzeit vor allem in Effizienz und Produktivität – jedoch nur, wenn eine gründliche menschliche Überprüfung gewährleistet ist.

Empfehlungen für Kanzleien und Aufsichtsbehörden

Im Nachgang zum richtungsweisenden Urteil sind britische Berufsvertretungen wie der Bar Council und die Law Society dazu aufgerufen, Fortbildung und fachliche Kontrolle weiter auszubauen. Alle Juristinnen und Juristen sollten umfassend über die Möglichkeiten und Grenzen von KI im Rechtsbereich informiert sein. Das Aufrechterhalten hoher Berufsstandards bleibt – wie Richterin Sharp betont – unverzichtbar, um die Integrität der Rechtsprechung auch im Zeitalter des digitalen Wandels zu gewährleisten.

Kommentare

Kommentar hinterlassen