Home Künstliche Intelligenz in rechtswissenschaftlichem Studium und juristischer Praxis
Article Publicly Available

Künstliche Intelligenz in rechtswissenschaftlichem Studium und juristischer Praxis

  • Florian Möslein EMAIL logo and Bernd J. Hartmann EMAIL logo
Published/Copyright: November 6, 2025
Become an author with De Gruyter Brill

Der Einsatz künstlicher Intelligenz (KI) verändert sowohl die juristische Praxis als auch die rechtswissenschaftliche Ausbildung grundlegend. Aktuelle Entscheidungen – etwa des AG Köln zum berufsrechtlichen Umgang mit KI-generierten Schriftsätzen – verdeutlichen die Spannweite rechtlicher Fragen von anwaltlicher Sorgfaltspflicht über richterliche Entscheidungsfindung bis hin zum Verwaltungshandeln. Zugleich stellt sich für das rechtswissenschaftliche Studium die Frage, ob und inwieweit der Einsatz von KI-Tools bei Haus- und Seminararbeiten zulässig ist, ohne den Eigenleistungsgrundsatz zu verletzen. Der Beitrag verknüpft diese Perspektiven, analysiert berufs- und prüfungsrechtliche Rahmenbedingungen, entwickelt Leitlinien und zeigt, wie die Ausbildung künftige Juristinnen und Juristen auf einen verantwortungsvollen KI-Einsatz in ihrer späteren Praxis vorbereiten kann.

Stichwörter: Digitalisierung, LegalTech, Künstliche Intelligenz, Prüfungsrecht, Reform der Juristenausbildung

I. Kölner Karneval?

Das Amtsgericht hatte genug. Es nimmt sich eine ganze Seite, um einen Rechtsanwalt dafür zurechtzuweisen, dass er rechtliche Voraussetzungen für eine Umgangsregelung »offenbar mittels künstlicher Intelligenz generiert und frei erfunden«[1] habe.

Worum ging es eigentlich? Die Eltern, aus deren Beziehung zwei Kinder hervorgegangen sind, leben getrennt voneinander in unmittelbarer Nachbarschaft. Die Mutter betreut und versorgt die Kinder. Das Sorgerecht teilen sich die Eltern. Der Vater wünscht sich, mehr Zeit mit seinen Kindern verbringen zu dürfen, und wendet sich an das zuständige Familiengericht, das Amtsgericht Köln. Das Gericht lehnt das »Wechselmodell 7/7« ab, das der Vater offenbar beantragt hatte – der Beschluss ist in weiten Teilen geschwärzt –, aber regelt den Umgang für Ferien und Feiertage neu. Das Gerichtsverfahren gewinnen bzw. verlieren Mutter und Vater, legen wir die Kostenentscheidung zu Grunde, je zur Hälfte.

In den Gründen stellt das Amtsgericht zunächst den Sachverhalt samt der Prozessgeschichte dar, dann folgen die Rechtsausführungen. Nachdem das Gericht die Rechtsprechung des Bundesgerichtshofs zu den Voraussetzungen des Wechselmodells wiedergegeben hat,[2] die offenbar auch der Rechtsanwalt der Mutter (dort »Antragsgegnervertreter«) zitiert hatte, setzt der Beschluss wie folgt fort (dort mit Hervorhebungen):

»Die weiteren von dem Antragsgegnervertreter im Schriftsatz vom 30. 06. 2025 genannten Voraussetzungen stammen nicht aus der zitieren [sic!] Entscheidung und sind offenbar mittels künstlicher Intelligenz generiert und frei erfunden. Auch die genannten Fundstellen sind frei erfunden. Viefhues kommentiert nicht im Münchner Kommentar, sondern den juris PraxisKommentar BGB Band 4, dessen Herausgeber er ist. Die 9. Auflage stammt aus dem Jahr 2024, nicht 2021. § 1678 BGB wird von Hennemann kommentiert. § 1687 des jurisPK-BGB Band 4 wird nicht von Brömmelmeyer, sondern von Thormeyer kommentiert. Eine Randziffer 65 ff. gibt es in dem Kommentar nicht. Die Erläuterungen enden bei Rn. 36. Die Fundstelle Brons, Kindeswohl und Elternverantwortung, 2013, S. 175 ff. konnte seitens des Gerichts nicht gefunden werden. Eine Fundstelle Völkl, FamRB 2015, Bl. 74 ist ebenfalls frei erfunden. In der FamRB 2015 findet sich auf Bl. 70–77 der Aufsatz: Ist § 17 VersAusglG verfassungsgemäß? – Verfassungsrechtliche Überlegungen zur Kritik an dieser Vorschrift. Auch ein Werk ›Meyer-Götz, in: Hauß/Gernhuber, Familienrecht, 6. Aufl. 2022, § 1671 Rn. 33‹ gibt es nicht. Hier werden offenbar 3 verschiedene Werke vermengt. Den entsprechenden Rechtssatz, wonach ein Wechselmodel[l] mit einem [psychisch instabilen, insoweit in BeckRS nicht abgedruckt] Elternteil grundsätzlich unvereinbar ist, gibt es nicht. Auch eine Fundstelle OLG Frankfurt, FamRZ 2021, 70 ist frei erfunden. Auf Bl. 67–70 der FamRZ aus dem Jahre 2021 findet sich die Entscheidung des OLG Düsseldorf zur Thematik Zustimmungserfordernis der Ersatznacherben zur Löschung eines Nacherbenvermerks. Auf Bl. 70–70 findet sich die Entscheidung 1 W 1276/20 des Kammergerichts, die sich mit der Grundbuchberichtigung aufgrund von Teilerbscheinen auseinandersetzt.«[3]

Die Rüge fällt schon in ihren Formulierungen deutlich aus. Hinzu kommt, dass es der Ausführungen zur Begründung der Entscheidung nicht bedurft hätte. Das Gericht formuliert keine »tragenden Gründe« (rationes decidendi) der tenorierten Umgangsregelung. Aber um den klassischen Fall eines obiter dictums, von nebenbei Gesagtem, geht es auch nicht. Denn das Amtsgericht nutzt die Gelegenheit der gerichtlichen Entscheidung nicht etwa, um für künftige Verfahren seine Rechtsauffassung in nur naheliegenden, nicht aber entscheidungserheblichen familienrechtlichen Fragen mitzuteilen. Sondern es ermahnt den Verfahrensbevollmächtigten als Rechtsanwalt:

»Der Verfahrensbevollmächtige [sic!] hat derartige Ausführungen für die Zukunft zu unterlassen, da sie die Rechtsfindung erschweren, den unkundigen Leser in die Irre führen und das Ansehen des Rechtsstaates und insbesondere der Anwaltschaft empfindlich schädigen. Er wird darauf hingewiesen, dass es sich um einen Verstoß gegen § 43a Abs. 3 BRAO handelt, wenn ein Rechtsanwalt bewusst Unwahrheiten verbreitet. Hierzu gehört der wissentlich falsche Vortrag über Inhalt und Aussagen von Gesetzen und Urteilen (Weyland/Bauckmann, 11. Aufl. 2024, BRAO § 43a Rn. 39; Henssler/Prütting/Henssler, 5. Aufl. 2019, BRAO § 43a Rn. 140). Der Verfahrensbevollmächtige [sic!] ist Fachanwalt für Familienrecht und sollte die Rechtslage kennen.«[4]

Erst anschließend findet das Amtsgericht zur Sache zurück.[5] Die erhobenen Rügen sind zutreffend; es handelt sich durchweg um Fehlzitate. Mit ihnen hat der Anwalt seinen Schriftsatz gewissermaßen »verkleidet«. Doch selbstredend ist das Phänomen nicht nur in Köln zu beobachten. Die Fälle häufen sich, und es sind nicht nur Anwälte[6], sondern auch Gerichte[7], die sich Vorwürfe gefallen lassen müssen. Da vergleichbare Tendenzen auch in der Rechtswissenschaft zu befürchten sind, versuchen juristische Verlage, den Einsatz von KI bei der Erstellung von Manuskripten zu regeln, indem sie ihre Verlagsverträge um neuartige, teils sehr weitreichende KI-Klauseln ergänzen wollen.[8]

II. Der Einsatz künstlicher Intelligenz in der juristischen Praxis

1. Einsatzpotenziale

Das Kölner Verfahren zeigt, dass der Einsatz künstlicher Intelligenz in der juristischen Praxis rasant an Bedeutung gewinnt – nicht nur vor deutschen Gerichten, sondern erst recht international. Eine Datenbank, die »AI Hallucination Cases« verzeichnet, umfasst weltweit bereits über 300 Einträge.[9] Auch wenn die überwiegende Mehrzahl dieser Fälle vor Gerichten in englischsprachigen common-law-Jurisdiktionen verhandelt wurde, sind auch kontinentaleuropäische Fälle in der Datenbank verzeichnet.[10] Diese immer zahlreicheren Urteile zu den Grenzen der Zulässigkeit des Einsatzes künstlicher Intelligenz insbesondere bei der anwaltlichen Tätigkeit, belegen, wie stark sich diese Technologie in der juristischen Praxis verbreitet.

a) Begriff

Was genau unter »künstlicher Intelligenz« (KI) zu verstehen ist, lässt sich allerdings nicht leicht sagen, weil die Literatur den Begriff nicht einheitlich definiert: Während einige Definitionen auf die Fähigkeit technischer Systeme abstellen, menschliche Intelligenzleistungen – wie Lernen, Problemlösen oder Sprachverstehen – nachzuahmen, betonen andere den Aspekt der autonomen Entscheidungsfindung auf Grundlage großer Datenmengen.[11] Eine Legaldefinition des Begriffs »KI-System« findet sich neuerdings in der europäischen Verordnung zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz (KI-Verordnung bzw. KI-VO).[12] Laut Art. 3 Nr. 1 bezeichnet dieser Begriff »ein maschinengestütztes System, das für einen in unterschiedlichem Grade autonomen Betrieb ausgelegt ist und das nach seiner Betriebsaufnahme anpassungsfähig sein kann und das aus den erhaltenen Eingaben für explizite oder implizite Ziele ableitet, wie Ausgaben wie etwa Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen erstellt werden, die physische oder virtuelle Umgebungen beeinflussen können«. Diese Definition steht im Wesentlichen im Einklang mit den bisherigen Begriffsverständnissen, wenngleich unter Betonung der autonomen Anpassungsfähigkeit der KI-Systeme. Zugleich formuliert der Verordnungsgeber technologieoffen.[13] Letztlich bleibt auch diese Umschreibung vage und ist rechtlich entsprechend schwer zu handhaben.[14]

Als besonders dynamischer Teilbereich gilt die sogenannte generative KI, zu der auch große Sprachmodelle (»Large Language Models«) wie ChatGPT, Perplexity, Claude, Copilot und Mistral zählen. Solche Systeme sind in der Lage, Texte zu analysieren, zu verstehen und eigenständig zu formulieren, indem sie Muster in riesigen Sprachdatensätzen erkennen und reproduzieren.[15] Nun erfordert der Umgang mit Recht in großem Umfang Textarbeit – die Lektüre von Gesetzesvorschriften, Kommentaren und Gerichtsurteilen sowie das Erstellen von Schriftsätzen, Vertragsentwürfen und Gutachten. Ein großes Sprachmodell verspricht in diesem Zusammenhang besonderen Nutzen.[16] Es kann die Recherche in umfangreichen Datenbeständen beschleunigen, juristische Texte vorformulieren und komplexe Sachverhalte in prägnante Sprache übersetzen. Angesichts wachsender Datenmengen, steigender Effizienzanforderungen und der zunehmenden Verfügbarkeit leistungsfähiger generativer Systeme stellt sich heute nicht mehr die Frage, ob KI in den Arbeitsalltag von Juristinnen und Juristen integriert werden kann, sondern nur noch, wie deren Einsatz sinnvoll, verantwortungsbewusst und rechtssicher möglich ist.

b) KI-Anwendungen

In der juristischen Praxis eröffnet der Einsatz von KI – insbesondere in Form großer Sprachmodelle – ein breites Spektrum an Anwendungsmöglichkeiten, das sich je nach Berufssparte graduell unterscheidet.

In der Anwaltschaft unterstützen Systeme wie Beck Noxtua, Prime Legal AI oder Harvey bei der automatisierten Rechtsrecherche, der Analyse umfangreicher Dokumente und der Erstellung von Schriftsätzen oder Vertragsentwürfen.[17] Anwendungen wie Lawgeex übernehmen die KI-gestützte Vertragsprüfung, indem sie Klauseln mit vordefinierten Standards vergleichen und potenzielle Risiken markieren.[18] Für Rechtsanwaltskanzleien bedeuten diese KI-Anwendungen eine erhebliche Zeitersparnis: Übernimmt die KI Routineaufgaben, bleibt mehr Zeit für die problemorientierte Mandatsarbeit.

Auch in Gerichten und Behörden zeichnet sich ein wachsendes Einsatzpotenzial für KI-Anwendungen ab: Sprachmodelle können im Bereich der Massenverfahren (Fluggastdaten, Motordaten) genauso helfen wie bei der Aufbereitung von Beweismitteln oder der Anonymisierung von Entscheidungen.[19] Bayern und Nordrhein-Westfalen planen den Aufbau eines generativen Sprachmodells der Justiz (GJS) bis Ende 2026. Es soll Textbausteine formulieren, unstreitige Sachverhalte aus den Schriftsätzen »herausfiltern« und Schriftsätze aus verschiedenen Akten vergleichen können.[20] In Unternehmen und auch in der Verwaltung lassen sich Low-Code-Plattformen und Expertensysteme wie Bryter nutzen, um digitale Rechtsanwendungen zu erstellen, die Kunden- oder Bürgeranfragen automatisiert beantworten oder Verfahrensschritte anstoßen.[21]

Für die Gesetzgebung wiederum eröffnet KI neue Möglichkeiten der Gesetzesanalyse: So hat das Bundesministerium der Finanzen (BMF) eine Machbarkeitsstudie zu einer KI-gestützten Anwendung zur Identifikation des Vereinfachungspotentials von Regelungen in Auftrag gegeben, um komplexe Gesetzestexte systematisch auf unnötige Komplexität und redundante Regelungen zu überprüfen.[22] Damit zeichnet sich ab, dass KI in allen Bereichen der Rechtspraxis, von der Rechtssetzung über die Rechtsgestaltung bis hin zur Rechtsanwendung, nicht nur die Effizienz steigern, sondern auch Qualität und Zugänglichkeit juristischer Arbeit verbessern kann.

c) Auswirkungen

Vor diesem Hintergrund wird vermehrt die Frage aufgeworfen, ob Juristinnen und Juristen durch KI langfristig überflüssig werden könnten.[23] Zwar zeigen aktuelle Entwicklungen – etwa der zunehmende Einsatz von KI-gestützten Recherche- und Formulierungstools in Kanzleien und Unternehmen –, dass bestimmte, bislang von Berufseinsteigerinnen und -einsteigern übernommene Routinetätigkeiten künftig weitgehend automatisiert werden können.[24] Neuere Marktanalysen deuten darauf hin, dass sich die Anforderungen an Berufseinsteiger im Rechtsbereich schon jetzt erheblich verschieben.[25] Neben klassischer Rechtskenntnis gewinnen technologische Kompetenz, Datenanalysefähigkeiten und die Fähigkeit zur kritischen Bewertung maschinell erzeugter Ergebnisse stark an Gewicht.[26]

Gleichwohl sprechen starke Argumente dagegen, dass KI menschliche Rechtsarbeit vollständig ersetzt.[27] Die Beurteilung komplexer, rechtlich und ethisch vielschichtiger Sachverhalte, die strategische Beratung von Mandanten sowie die Verantwortung für die rechtlichen Konsequenzen von Entscheidungen erfordern weiterhin menschliches Urteilsvermögen, Empathie und Verhandlungsgeschick – Fähigkeiten, die auch auf absehbare Zeit nicht vollständig automatisierbar sind. KI wird daher eher als Verstärker und Werkzeug juristischer Expertise zu verstehen sein, das Arbeitsprozesse effizienter gestaltet, ohne den inhaltlichen Kern juristischer Tätigkeit zu betreffen.

2. Einsatzgrenzen in der anwaltlichen Praxis

Der Einzug von KI, insbesondere in die anwaltliche Praxis, eröffnet Chancen, wirft aber auch erhebliche rechtliche Fragen auf. Gerade Sprachmodelle wie ChatGPT oder Gemini können bei anwaltlicher Recherche, dem Entwurf von Schriftsätzen und der rechtlichen Analyse unterstützen. Wer sie nutzen will, muss jedoch die rechtlichen, insbesondere die berufsrechtlichen Rahmenbedingungen kennen.

a) Anwaltliche Vertragspflichten

Eine erste Begrenzung ergibt sich bereits aus dem allgemeinen Vertragsrecht. Zwischen Anwalt und Mandant besteht ein Geschäftsbesorgungsvertrag gem. §§ 611, 675 BGB, aus dem sich die Pflicht zu sorgfältiger und fachgerechter Beratung ergibt: Ein bestimmter Erfolg wird zwar nicht geschuldet, wohl aber »eine fachgerechte Bearbeitung nach den Regeln der Kunst«.[28] Maßstab ist dabei der sorgfältige, gewissenhafte Rechtsanwalt.[29] Der Einsatz von KI ist in diesem Rahmen zwar sowohl bei Sachverhaltsermittlung als auch bei Rechtsprüfung denkbar, ändert aber nichts an der vertragsrechtlichen Verantwortung von Anwälten.[30] KI vermag die eigenverantwortliche Rechtsprüfung deshalb keineswegs zu ersetzen, zumal das Risiko von KI-Halluzinationen droht.[31] Wer ungeprüft KI-generierte Ergebnisse übernimmt, verletzt daher seine anwaltlichen Pflichten. Wenn die KI andererseits bessere (Recherche‑)Ergebnisse liefert als der Mensch, erscheint angesichts der strengen Anforderungen der Rechtsprechung zur anwaltlichen Kenntnis von Urteilen und Aufsatzliteratur[32] umgekehrt nicht ausgeschlossen, dass sich – ähnlich wie auch in anderen Rechtsgebieten diskutiert –[33] perspektivisch eine Rechtspflicht zur Nutzung von KI entwickelt: Immerhin bietet sie die Aussicht, die entsprechenden Informationen schneller und effizienter zu verarbeiten. Jedoch gilt bei Dienstverträgen gem. § 613 S. 1 BGB der Grundsatz der höchstpersönlichen Erbringung, gegen den der Einsatz von KI verstoßen könnte. Während das BVerfG die Bedeutung der persönlichen Leistungserbringung bei freiberuflichen Tätigkeiten betont hat,[34] ist die zivilrechtliche Rechtsprechung angesichts der Erfordernisse arbeitsteiliger Kanzleiorganisation tendenziell großzügig: Bei der Beauftragung eines Anwalts einer Sozietät wird regelmäßig die rechtsfähige Sozietät selbst Vertragspartner.[35] Das hat zur Folge, dass sich die Wahrnehmung des Mandats nicht auf die Person desjenigen Anwalts beschränkt, der das Mandat akquiriert hat oder zunächst gegenüber dem Mandanten für die Sozietät aufgetreten ist.[36] Letztlich ist die Nutzung der LLMs mit der herkömmlichen Delegation an Mitarbeiter vergleichbar: Auch bei Mitarbeitern bedarf es einer angemessenen Auswahl, Anleitung und Kontrolle.[37] Entsprechend gilt eine Pflicht zur angemessenen Auswahl, Konfiguration und Kontrolle von KI-Systemen.[38] Ansonsten handelt der Anwalt pflichtwidrig, so dass die Fehler der KI haftungsrechtlich regelmäßig dem Anwalt selbst zur Last fallen. Weder der Hinweis »das stammt von ChatGPT« noch ein Verweis auf technische Fehlfunktionen können ihn entlasten. Vielmehr wird erwartet, dass Anwälte KI-Ergebnisse kritisch prüfen, dokumentieren und gegebenenfalls korrigieren. Ein unbedachtes Vertrauen von Anwälten in KI-generierte Ergebnisse kann daher vertragliche Schadensersatzansprüche auslösen.

b) Berufsrecht

Zusätzlich unterliegen Anwälte den Pflichten des Berufsrechts.[39] Neben dem Verstoß gegen § 43a Abs. 3 BRAO, den das Kölner Amtsgericht gerügt hat,[40] droht bei unsorgfältigem Einsatz von KI die Verletzung weiterer berufsrechtlicher Pflichten. Insbesondere verpflichtet § 43a Abs. 2 BRAO Rechtsanwälte zur Verschwiegenheit (vgl. auch § 2 BORA). Eine Eingabe von Mandatsinformationen in externe Systeme kann unter bestimmten Umständen als unbefugte Offenbarung an Dritte gewertet werden.[41] § 43e BRAO gestattet Outsourcing nur bei hinreichendem Geheimnisschutz. Ein Verstoß gegen diese Vorgabe liegt typischerweise vor, wenn Mandantendaten unverschlüsselt auf US-Server übertragen werden.[42] Zudem dürfen nach § 11 BORA nur Hilfsarbeiten delegiert werden. Die Kernaufgaben, insbesondere die rechtliche Würdigung und die Erarbeitung von Handlungsempfehlungen, sind daher auch berufsrechtlich vom Anwalt selbst vorzunehmen.[43] Deshalb darf sich der Anwalt zwar von ChatGPT einen Vertragsentwurf schreiben lassen, aber er muss diesen auf Richtigkeit, Vollständigkeit und die Wahrung der Mandatsinteressen überprüfen, bevor er ihn verwendet.[44] KI kann deshalb zwar assistieren, aber den Anwalt nicht ersetzen. Diskutiert wird schließlich auch eine Pflicht zur Offenlegung des KI-Einsatzes gegenüber Mandanten und Gerichten: Zwar besteht keine ausdrückliche berufsrechtliche Offenlegungspflicht, aber die allgemeinen Grundsätze der Transparenz und Gewissenhaftigkeit in § 43 BRAO können im Einzelfall eine Informationspflicht begründen, wenn KI-Einsatz die Mandatsbearbeitung wesentlich prägt (z. B. in Massenverfahren).[45]

Zur Konkretisierung dieser generalklauselhaft vagen normativen Vorgaben hat die Bundesrechtsanwaltskammer (BRAK) kürzlich einen Leitfaden mit dem Titel »Hinweise zum Einsatz von künstlicher Intelligenz (KI)« veröffentlicht.[46] Er soll Orientierungshilfe für den berufsrechtskonformen Einsatz von KI‑Tools in Anwaltskanzleien geben und thematisiert zentrale Aspekte wie Prüfungs‑, Kontroll- und Verschwiegenheitspflichten sowie Transparenz gegenüber Mandanten. Beispielsweise empfehlen die Hinweise ausdrücklich, keine sensiblen Daten in offene Systeme einzugeben, Mitarbeiter im Umgang mit KI zu schulen, nur datenschutz- und geheimnisschutzkonforme Anbieter auszuwählen und jede Nutzung kritisch zu prüfen. Der Leitfaden hat Empfehlungscharakter, verzichtet auf Vollständigkeit und ersetzt nicht die eigenverantwortliche Prüfung im Einzelfall. Im Rahmen der anwaltlichen Aufsichtspraxis kann er jedoch künftig als Maßstab dienen.

c) Datenschutzrechtliche Vorgaben

Der Einsatz von KI hat zudem häufig datenschutzrechtliche Implikationen. Sobald personenbezogene Daten in ein System eingegeben werden, beanspruchen die grundlegenden Prinzipien des Datenschutzrechts Geltung, insbesondere Rechtmäßigkeit, Zweckbindung, Datenminimierung, Datenrichtigkeit, Transparenz, und entstehen Betroffenenrechte (vgl. Art. 5 DSGVO).[47] Besonders problematisch sind Eingaben sensibler Daten im Sinn des Art. 9 DSGVO, weil die Vorschrift besonders strenge Voraussetzungen formuliert und es in der Regel einer ausdrücklichen Einwilligung bedarf.[48] Dass sich viele Anbieter die Nutzung der Eingabedaten zu Trainingszwecken vorbehalten, ist nicht nur berufs‑, sondern auch datenschutzrechtlich problematisch.[49] Im Fall internationaler Datentransfers stellen sich weitere Rechtsfragen. So kann bereits die Nutzung US-basierter Anbieter eine Übermittlung in ein unsicheres Drittland darstellen; selbst das EU-US Data Privacy Framework beseitigt die Bedenken nicht endgültig.[50] Anfang 2024 veröffentlichte das Bayerische Landesamt für Datenschutzaufsicht eine Checkliste für den datenschutzgerechten KI-Einsatz in Unternehmen, die gewisse Orientierung bietet.[51] Um Risiken zu minimieren, empfiehlt sich der Einsatz anonymisierter oder pseudonymisierter Daten sowie von Diensten, die EU-Standorte und strenge Löschkonzepte garantieren.

d) Urheberrechtliche Grenzen

Auch das Urheberrecht setzt Grenzen. Bereits das Einspeisen urheberrechtlich geschützter Inhalte, etwa aus Kommentaren, Handbüchern, Gutachten oder Schriftsätzen, in ein KI-System kann eine unzulässige Vervielfältigung darstellen.[52] Beim Training greifen die Schranken für Text- und Data-Mining (§§ 44b, 60 d UrhG), die jedoch an Voraussetzungen geknüpft sind und bei kommerzieller Nutzung eingeschränkt werden können.[53] Beim Output ist zweierlei wichtig: Einerseits fehlt reinen KI-Texten regelmäßig die Schutzfähigkeit, da sie nicht Ergebnis menschlicher Schöpfung sind. Andererseits droht die Gefahr, dass geschützte Passagen nahezu wortgleich reproduziert werden.[54] Wer solche Texte ungeprüft übernimmt, riskiert neben dem Vorwurf mangelnder Sorgfalt auch Urheberrechtsverletzungen. Jeder KI-Output sollte deshalb kritisch geprüft, ggf. umformuliert und mit Plagiatssoftware kontrolliert werden.

e) Vorgaben der KI-Verordnung

Mit der KI-Verordnung hat die EU erstmals ein umfassendes Regelwerk für den Einsatz künstlicher Intelligenz geschaffen, das am 1. August 2024 in Kraft getreten ist, aber erst schrittweise anwendbar wird: Die Verbote für bestimmte KI-Praktiken sowie die Schulungspflichten für Mitarbeiter gelten seit Februar 2025, die Transparenzpflichten für generative KI ab August 2026.[55] Die KI-VO verfolgt einen risikobasierten Ansatz, der KI-Systeme in vier Kategorien einordnet: unannehmbares Risiko (verbotene Praktiken), hohes Risiko (Hochrisiko-KI), begrenztes Risiko und minimales bzw. kein Risiko.[56] KI-Systeme, die in der Anwaltschaft zur Anwendung kommen, dürften regelmäßig als Systeme mit begrenztem Risiko zu qualifizieren sein.[57] Daher greifen Kennzeichnungspflichten und Dokumentationsanforderungen. Anbieter generativer KI müssen offenlegen, dass Nutzer mit einem KI-System interagieren. Diese Vorgaben betreffen jedoch die Systemanbieter – im Fall von ChatGPT OpenAI –, aber nicht die Anwender; ein Rechtsanwalt, der ChatGPT einsetzt, unterliegt diesen Pflichten daher nicht.[58] Entsprechend müssen Rechtsanwälte Schriftsätze nicht generell mit einem Hinweis »von der KI erstellt« versehen.[59] Sie bleiben aber dafür verantwortlich, dass die Technik rechtssicher zum Einsatz kommt.

3. Einsatzgrenzen in Rechtsprechung, Verwaltung und Gesetzgebung

Die Grenzen staatlicher Gewalt für den Einsatz Künstlicher Intelligenz folgen aus der Gesetzesbindung gem. Art. 20 Abs. 3 GG. Jeweils gelten die Vorgaben höherrangigen Rechts. Gesetzgebung, Verwaltung und Rechtsprechung sind allesamt an die verfassungsmäßige Ordnung gebunden. Art. 1 Abs. 1 S. 1 GG verbietet in diesem Zusammenhang dem Staat, den Menschen »zum bloßen Objekt« seines Handelns zu machen.[60] Staatsorganisationsrechtlich sind das Rechtsstaats- und Demokratiegebot zu nennen. Der Umstand, dass lernfähige Softwareanwendungen jedenfalls teilweise »selbsttätig«[61] entscheiden können, fordert auch das Demokratieprinzip heraus: Art. 20 Abs. 2 Satz 1 GG verlangt nach herkömmlichem Verständnis, dass staatliche Entscheidungen auf das vom Volk gewählte Parlament zurückgeführt werden können: formell, nämlich personell-organisatorisch, auf den Amtsträger, den ein dem Parlament verantwortliches Regierungsmitglied (mittelbar oder unmittelbar) ernannt hat, und materiell, nämlich sachlich-inhaltlich, auf das Gesetz, das das Parlament verabschiedet hat.[62] Unterbrechen eigenständige Entscheidungen diese Legitimationsketten[63], entsteht Rechtfertigungsbedarf.[64] Auch die staatshaftungsrechtlichen Grundsätze darf der Einsatz von KI schon von Verfassungs wegen nicht »aushebeln«[65].

Für Rechtsprechung und Verwaltung kommt das Fachrecht hinzu. Geht es um personenbezogene Daten, hat die betroffene Person das Recht, nur unter den Voraussetzungen des Art. 22 DSGVO einer »ausschließlich auf einer automatisierten Verarbeitung [...] beruhenden Entscheidung unterworfen zu werden, die ihr gegenüber rechtliche Wirkung entfaltet oder sie in ähnlicher Weise erheblich beeinträchtigt«. Die Verwaltung des Bundes darf gem. § 35a VwVfG[66] und die Verwaltungen der meisten Länder dürfen gem. der landesrechtlichen Parallelvorschrift[67] Verwaltungsakte »vollständig durch automatische Einrichtungen« nur »erlassen [...], sofern dies durch Rechtsvorschrift zugelassen ist und weder ein Ermessen noch ein Beurteilungsspielraum besteht«.[68] Art. 5 Abs. 2 S. 2 BayDIG verlangt ausdrücklich, den »Einsatz von Künstlicher Intelligenz in der Verwaltung« durch »geeignete Kontroll- und Rechtsschutzmaßnahmen abzusichern«. Gem. § 24 Abs. 1 Satz 3 VwVfG muss die Behörde, setzt sie automatische Einrichtungen zum Erlass von Verwaltungsakten ein, außerdem für den Einzelfall bedeutsame tatsächliche Angaben des Beteiligten berücksichtigen, die »im automatischen Verfahren nicht ermittelt würden«.[69] Die einfach-gesetzlichen Ausprägungen des Rechtsstaatsprinzips (z. B. das Begründungserfordernis gem. § 39 Abs. 1 S. 1 VwVfG) begrenzen die Möglichkeiten der Verwaltung, KI einzusetzen, weiter. So müssen die Verwaltungsverfahren etwa so organisiert sein, dass sie der Automation Bias begegnen. Automation Bias meint die Gefahr, dass Menschen dem Entscheidungsvorschlag einer KI ein besonderes Vertrauen entgegenbringen und daher geneigt sind, den Vorschlag unkritisch zu übernehmen.[70]

Nur für den gerichtlichen Rechtsschutz und die Gerichte treten die Garantien des effektiven Rechtsschutzes (gem. Art. 19 Abs. 4 GG für Rechtsschutz gegen die öffentliche Gewalt und aufgrund des allgemeinen Justizgewährungsanspruchs in bürgerlich-rechtlichen Streitigkeiten als Ausdruck des Rechtsstaatsprinzips[71]) sowie der richterlichen Unabhängigkeit (§ 25 DRiG, Art. 97 Abs. 1 GG) hinzu.[72]

III. Der Einsatz künstlicher Intelligenz im juristischen Studium

1. Einsatzpotenziale

a) Künstliche Intelligenz als Lerninhalt

Das Ideal juristischer Ausbildung sind Juristinnen und Juristen, die auf jede Rechtsfrage eine Antwort finden und überzeugend begründen können. Die Studierenden müssen eigene Urteilskraft erlangen, auf Rechtsfragen auch dann eine begründete Antwort geben können, wenn die Antwort dem Wortlaut des Gesetzes, der Rechtsprechung und der Literatur noch nicht zu entnehmen ist. Die Examinierten müssen dazu die Kräfte kennen, die das Recht erzeugen, um dessen Produktionsbedingungen wissen, auf dass sie dogmatisches Denken und eigenständiges Argumentieren lernen. Wer neue Rechtsbindungen durchschauen möchte, muss sie auf die Strukturprinzipien der Rechtsordnung rückbeziehen, die systematischen Grundgedanken des Gesetzes nachvollziehen können. Dafür kommt es auf die inhaltliche, theoretische Auseinandersetzung mit Recht an: Recht, wie es das Gesetz hervorbringt und wie Gerichte und Literatur es auslegen und anwenden, in seinen geschichtlichen, gesellschaftlichen, wirtschaftlichen, methodischen, rechtstheoretischen und rechtsphilosophischen Bezügen. Das muss der wissenschaftliche Teil der Ausbildung vermitteln.[73] Die »produktive Anwendungskomponente«, die das Jurastudium auch ausmacht, wird an Bedeutung verlieren, die Fähigkeit zum »analytische[n], kritische[n] und vorausplanende[n] Denken« an Bedeutung gewinnen.[74]

Am Ende sind nicht berufsfertige, sondern berufsfähige Juristinnen und Juristen das Ziel der juristischen Ausbildung an Universität und im Referendariat. Der beschriebene Einsatz künstlicher Intelligenz in der juristischen Praxis erfordert daher die Verankerung künstlicher Intelligenz als Studien- und Lerninhalt in einer zeitgemäßen rechtswissenschaftlichen Ausbildung, und zwar auf mehreren Ebenen.[75] Entsprechend lautet jüngst ein Beschluss des Deutschen Juristen-Fakultätentags: »Es ist unerlässlich, dass im juristischen Studium von Anfang an KI-Kompetenz vermittelt wird. Dafür sind geeignete Lehr- und Prüfungsformate zu entwickeln [...]. Sie sollen einerseits den Studierenden die normativen und technischen Grenzen KI-basierter Unterstützung verdeutlichen. Andererseits sollen sie aber auch die relevanten Fähigkeiten zur praxisangemessenen Nutzung entsprechender Werkzeuge vermitteln«.[76]

Für einen verständigen und verantwortungsbewussten Umgang mit der Technologie sind erstens technikbezogene Grundkenntnisse zu vermitteln, insbesondere die Funktionsprinzipien generativer KI und moderner Sprachmodelle mit Training auf umfangreichen Textkorpora. Das setzt ein Grundverständnis des Programmierens (Coding) und Grundkenntnisse der Statistik voraus, »ohne dass Juristen gleich zu Informatikern ausgebildet werden müssen«[77]. Neben Grundzügen statistischer Sprachmodellierung und stochastischer Arbeitsweisen trainierter KI-Modelle, auch mit Blick auf die Unterscheidung von Kausalitäten und Korrelationen, sollte insbesondere die sog. Prompt-Sensitivität verdeutlicht werden. Diese bringt mit sich, dass die Qualität der KI-Ausgabe stark von Formulierung, Reihenfolge und Detailliertheit der Eingabe (»Prompt«) abhängt[78], ohne dass Juristen gleich zu »Prompt-Engineers« ausgebildet werden müssen. Besonders betont werden sollten außerdem die epistemischen Grenzen des KI-Einsatzes, insbesondere Halluzinationen, systemische Verzerrungen, mangelnde Quellengebundenheit, eingeschränkte Erklärbarkeit und belastbare Evaluationsmethoden.[79]

Zweitens muss der oben skizzierte normative Rahmen der KI-Nutzung den Studierenden vermittelt werden, beginnend mit den datenschutzrechtlichen Grundsätzen der Zweckbindung, Datenminimierung, Datenrichtigkeit, Rechtmäßigkeit und Sicherheit einschließlich der Datenschutz-Folgenabschätzung, ergänzt um berufsrechtlichen Geheimnisschutz, urheber- und lizenzrechtliche Fragen des Text- und Data-Minings, haftungsrechtliche Sorgfalts- und Prüfpflichten im Anwaltsvertrag sowie die risikobasierte Systematik des europäischen AI-Acts mit der klaren Trennung zwischen Anbieter- und Nutzerverantwortung.[80] Das Ziel dieser Wissensvermittlung sollte sich weder auf reine Rechtskenntnis noch auf bloße Bedienkompetenz beschränken. Vielmehr sollte es in einer rechtlich fundierten Entscheidungs- und Urteilskompetenz bestehen, die kognitiver Auslagerung auf KI vorbeugt und stattdessen den professionellen, reflektierten Einsatz von KI ermöglicht. Insofern gilt auch hier: Unreflektiertes Wissen, also Wissen jener Art, das sich in Gewohnheit festsetzt, »macht blind und bringt Unheil«[81].[82]

Aufbauend auf diesem technik- und rechtsbezogenem Wissen bedarf es schließlich drittens methodischer Fertigkeiten für einen verantwortlichen Umgang mit KI, namentlich der sachgerechten Aufgabenabgrenzung zwischen vorbereitenden Hilfstätigkeiten wie Recherche, Strukturierung, Übersetzung und Stilunterstützung einerseits und eigenverantwortlicher juristischer Formulierung andererseits, ferner strenger Quellenkritik auf der Grundlage von Primärrechtsquellen, verlässlicher Prüfroutinen durch Einbindung des Menschen nach dem Human-in-the-Loop-Prinzip, Reproduzierbarkeit und dokumentierter Transparenz des KI-Einsatzes sowie datensparsamer, vertraulichkeitswahrender Arbeitsweisen mit Anonymisierung, Pseudonymisierung und wirksamen Zugriffs- und Rechtekonzepten.[83] Dabei muss vor allem deutlich werden, dass die sorgfältige Auswertung von Rechtsprechung und Literatur (Lehrbücher, Kommentare, Aufsätze) weiterhin eine Kernaufgabe der rechtswissenschaftlichen Haus‑, Seminar- und Studienarbeit darstellt.[84] Diese Aufgabe darf, diese Aufgabe kann auch im juristischen Studium nicht auf KI delegiert werden.

b) Künstliche Intelligenz als Hilfsmittel

Zugleich entwickelt sich KI zu einem zunehmend wichtigen Hilfsmittel auch im rechtswissenschaftlichen Studium selbst: KI kann Studierende nicht nur beim Erlernen des juristischen Stoffs und der juristischen Methoden unterstützen, sondern auch bei der Erbringung bestimmter Prüfungsleistungen zum Einsatz kommen.[85]

Für das »Lernen mit KI«[86] stehen bereits eine Reihe spezialisierter Tools bereit: Die kommerzielle Lernplattform Jurafuchs, die den Stoff fallbasiert in kleinen, interaktiven Einheiten aufbereitet, bringt KI gezielt als Tutor zum Einsatz: Mit dem auf GPT‑4 basierenden KI-Definitionstrainer (»Foxxy«) können Studierende Definitionen eingeben und erhalten daraufhin eine inhaltliche Bewertung ihrer Antwort sowie individualisiertes, erklärendes Feedback und Hinweise für erneute Anläufe.[87] Ähnlich dient auch OneTutor als KI-gestützter Tutor. Er wurde zwar nicht spezifisch für das Jurastudium entwickelt, kann aber auch Jurastudierende mit zwei Kernfunktionen unterstützen: Zum einen erstellt das System kursbezogene, teils automatisch generierte und von Lehrenden kuratierte Quizfragen zur aktiven Wiederholung; zum anderen bietet es einen Chatbot, der auf Grundlage eines Retrieval-Augmented-Generation-Ansatzes direkt auf die jeweiligen Lehrmaterialien zugreift und so inhaltlich näher an der Veranstaltung antwortet.[88] Die an der Universität Kassel entwickelten und u. a. an der Philipps-Universität Marburg getesteten Tools LegalWriter und Case Coach fungieren als KI-basiertes Trainingssystem speziell für den juristischen Gutachtenstil: Studierende arbeiten fallbasiert in zwei Schritten (Lösungsskizze und ausformulierter Text), erhalten adaptives Feedback zu Struktur, Sprache und zur Verknüpfung der Prüfungsschritte. Hierbei haben Feldstudien mit zahlreichen Teilnehmenden signifikante Verbesserungen im Formulieren juristischer Falllösungen und in Klausurergebnissen erwiesen.[89] Ähnlich sind Übungen mit virtuellen Mandanten oder KI-gestützten Zeugen-Avataren denkbar, um individuelles Coaching für praxisorientierte juristische Aufgabenstellungen zu ermöglichen.[90]

KI kann auch bei der Erbringung bestimmter juristischer Prüfungsleistungen zum Einsatz kommen.[91] Während bei klassischen Klausuren, die in den juristischen Examina und auch während des Studiums eine traditionell große Rolle spielen, die Verwendung von KI untersagt ist und auch aus praktischen Gründen meist nicht in Betracht kommt, liegt ein solcher Einsatz bei Haus- und Seminararbeiten umso näher. Damit geht die Befürchtung einher, dass diese Prüfungsformate dramatisch an Bedeutung und Aussagekraft verlören, weil KI-generierte Texte nur schwer von eigenständigen Schreibleistungen der Studierenden zu trennen seien.[92] Zugleich haben gerade diese Prüfungsformate den Vorteil, dass sie dem rechtswissenschaftlichen Anspruch des juristischen Studiums sowie den Arbeitsweisen und Anforderungen der Berufspraxis besonders nahe kommen, unter anderem weil sie Recherchetätigkeiten und die sorgfältige Auswertung von Rechtsprechung und Literatur beinhalten. Soweit die Nutzung von KI dokumentiert und reflektiert wird, können diese Prüfungsformate deshalb auch künftig möglich und sinnvoll sein.[93] Denkbar sind auch Prüfungen, in denen der KI-Einsatz ausdrücklich erlaubt ist, um praktische Fertigkeiten im Umgang mit Tools bewerten zu können, wobei faire Zugangsbedingungen und anspruchsvollere Aufgaben erforderlich sind.[94] Ergänzend könnten KI-generierte Texte zur Fehlerprüfung dienen, mündliche Prüfungen ausgebaut und durch KI-gestützte Simulationen unterstützt sowie, in Grenzen, Multiple-Choice-Tests eingesetzt werden, die sich leicht digital bewerten lassen.[95]

Wenn KI bei der Erstellung von Seminar- und Hausarbeiten zum Einsatz kommt, lässt sich sinnvoll zwischen vorbereitenden Hilfstätigkeiten der KI und Formulierung durch die KI unterscheiden. Zur Vorbereitung zählen Recherche- und Strukturierungshilfen, Sprach- und Stilverbesserungen oder Übersetzungen – etwa mit Tools wie DeepL, Grammarly, Hemingway Editor, Notion AI oder Quillbot. Demgegenüber erzeugen KI-Systeme wie ChatGPT, Claude oder Perplexity komplette Textvorschläge. Ähnlich wie in der juristischen Praxis erscheint der KI-Einsatz im zweitgenannten Fall ungleich problematischer, weil und soweit die Technologie den Menschen nicht mehr nur unterstützt, sondern bei den eigentlichen juristischen Kernaufgaben zunehmend ersetzt, und weil deshalb eine unreflektierte Übernahme von KI-generierten Texten droht. Umso mehr gilt, dass Ergebnisse kritisch zu prüfen, Quellen zu verifizieren und Nutzungen transparent zu dokumentieren sind. Nur so kann KI als Lern- und Reflexionshilfe dienen, statt eigenständiges Denken vermeintlich zu ersetzen. Eine bewusste »KI-Hygiene« mit klaren Einsatzgrenzen, Prüf- und Dokumentationsroutinen und ggf. Korrekturen muss dafür sorgen, dass KI das Verständnis vertieft, Perspektiven erweitert und die zentralen juristischen Fähigkeiten – Analyse, Methodik, Problembewusstsein – stärkt, statt sie zu verdrängen.[96] Es gibt bereits umfangreiche Handreichungen für einen entsprechend sinnvollen Einsatz von KI bei wissenschaftlichen Arbeiten.[97] Um ein Auslagern von Denkprozessen an KI-Systeme, das teils als »cognitive offloading« bezeichnet wird, zu vermeiden,[98] bleiben daneben jedoch KI-freie Prüfungsformate (klassische Klausuren und mündliche Prüfungen) unverzichtbar.

2. Einsatzgrenzen

Diese Erwägungen finden zunehmend auch prüfungsrechtlich Niederschlag. Immer mehr Universitäten, immer mehr juristische Fakultäten entwickeln Leitlinien für den KI-Einsatz, passen ihre Prüfungsordnungen an oder konkretisieren bestehende Prüfungsanforderungen. Solche spezielleren Vorgaben verdrängen die allgemeinen prüfungsrechtlichen Regelungen, insbesondere zu Täuschung und Benutzung nicht zugelassener Hilfsmittel (vgl. etwa § 11 bayJAPO, § 17 hessJAG), nicht, sondern ergänzen diese lediglich. Dass die Prüfungsordnungen der Universitäten die parlamentsgesetzlichen Vorgaben nur konkretisieren, ist auch deshalb wichtig, weil es um Grundrechtseingriffe geht. Mit dem Recht, »Beruf [...] und Ausbildungsstätte frei zu wählen« (Art. 12 Abs. 1 S. 1 GG), geht einher, dass Prüfungen, die für die Aufnahme eines Berufs zu bestehen sind, in Grundrechte eingreifen. Zur verfassungsrechtlichen Rechtfertigung bedarf es deshalb eines Gesetzes im formellen Sinn (Gesetzesvorbehalt), und auch die Ausgestaltung der Prüfung unterliegt verfassungsrechtlichen Vorgaben (Grundrechtsschutz durch Verfahren).[99]

a) Überblick

Disziplinübergreifende Handreichungen sind frühzeitig in einem gemeinsamen Whitepaper verschiedener Hochschulen sowie des Fraunhofer-Instituts für Angewandte Informationstechnik (FIT) veröffentlicht worden,[100] finden sich inzwischen jedoch auch auf den Webseiten verschiedener Universitäten, etwa der Goethe-Universität Frankfurt[101] oder der Humboldt-Universität zu Berlin.[102] Erste spezifisch auf die rechtswissenschaftliche Ausbildung zugeschnittene Leitlinien hat das Studiendekanat/Prüfungsamt des Fachbereichs Rechtswissenschaften der Universität Osnabrück bereits im Mai 2023 unter der Überschrift »Verwendung textgenerierender KI-Software in schriftlichen (Prüfungs‑)Arbeiten« veröffentlicht.[103] Seither sind an zahlreichen weiteren juristischen Fakultäten vergleichbare KI-Leitlinien entstanden, beispielsweise an der Ludwig-Maximilians-Universität München, den Universitäten Regensburg,[104] Trier[105] und Konstanz sowie an der Philipps-Universität Marburg. Das Bayerische Forschungsinstitut für Digitale Transformation (bidt), ein Institut der Bayerischen Akademie der Wissenschaften, entwickelt »bis 2027« Musterprüfungsordnungen.[106]

Der Umfang dieser verschiedenen Leitlinien ist jedoch unterschiedlich und variiert zwischen wenigen Sätzen und gut zwei Seiten. Auch die Bindungsintensität fällt verschieden aus: Während die Regelungen an der Universität Regensburg als »Richtlinien zum Einsatz von Künstlicher Intelligenz bei der Anfertigung von schriftlichen Prüfungsleistungen« verabschiedet worden sind,[107] sind die Osnabrücker Vorgaben als »Merkblatt« verfasst.[108] Die Maßgaben in Konstanz und Marburg haben (vorerst) lediglich Empfehlungscharakter und überlassen es den jeweiligen Prüferinnen und Prüfern, die Grundsätze als Ergänzung ihrer Bearbeitungshinweise zu übernehmen, Regensburg folgt dem »Opt-out«-Modell, auch in Konstanz sind inhaltlich abweichende Vorgaben zulässig. Solche Öffnungs- bzw. Experimentierklauseln sind Ausdruck einerseits der Lehrfreiheit der Professorinnen und Professoren (Art. 5 Abs. 3 GG), andererseits einer sehr dynamischen normativen Entwicklung, in der sich allgemein anerkannte Grundsätze erst nach und nach herausbilden.[109] Insgesamt oszillieren die Leitlinien zwischen bloßen Empfehlungen an Studierende bzw. Prüfende und rechtlich stärker bindenden Richtlinien, die justiziablen Vorgaben in Prüfungsordnungen ähneln. Während viele der Regelungen von den Webseiten der jeweiligen Fakultät abgerufen werden können, sind aufgrund dieses unterschiedlichen Charakters nicht alle der genannten Maßgaben öffentlich zugänglich.[110]

Inhaltlich sind gleichwohl zahlreiche Ähnlichkeiten zu verzeichnen. Ungeachtet der Unterschiede in Formulierung und Detailtiefe finden sich die nachfolgend genannten Regelungsschwerpunkte in allen angeführten Texten. Zugleich beschränken sich diese Texte weitgehend auf diese Schwerpunkte; lediglich die Osnabrücker Leitlinien weisen noch ergänzend darauf hin, dass »die Nutzung von KI [...] u. a. urheberrechtliche Fragen aufwerfen« kann, dass die daraus resultierenden möglichen Risiken jedoch bei den Prüflingen liegen.[111] Ein vergleichbarer Verweis z. B. auf datenschutzrechtliche Restriktionen findet sich in keiner der Regelungen.

b) Erlaubte Nutzungen

Alle genannten Regelungen erlauben zumindest bestimmte Nutzungsformen von KI. Teils beschränken sich diese erlaubten Nutzungen auf die oben angesprochenen vorbereitenden Hilfstätigkeiten der KI. So heißt es beispielsweise in Trier, »der Einsatz von generativer KI (ChatGPT u. Ä.)« sei »als Hilfsmittel der Recherche (zur Ermittlung von relevanten Tatsachen, Normen, Rechtsprechung, Literatur)« zulässig, auch wenn »eine derartige Recherche nicht die für Ihre juristische Ausarbeitung relevante Aufgabe« erfülle, »sich eigenständig und unmittelbar mit den rechtswissenschaftlichen Quellen (Normen, Rechtsprechung, Literatur) auseinanderzusetzen und ggf. relevante Tatsachen auf der Grundlage seriöser Quellen einzubeziehen«.[112] Etwas breiter, aber inhaltlich vergleichbar heißt es in Marburg, KI dürfe »zur Ideenfindung, Strukturierung, sprachlichen Unterstützung oder für erste Rechercheschritte« verwendet werden, ergänzt wiederum um den Hinweis, dass alle Inhalte der Arbeit eigenständig verfasst und überprüft werden müssen, und dass KI-Ausgaben keine eigene rechtliche Argumentation oder fundierte Quellenrecherche ersetzen. Die Konstanzer Leitlinien grenzen nicht nach Arbeitsschritten, sondern nach KI-Tools ab und erachten die Verwendung von Rechtschreibprogrammen, Spracherkennungsprogrammen, juristischen Datenbanken und Suchmaschinen für unbedenklich. Wesentliche inhaltliche Unterschiede dürften daraus jedoch nicht folgen.

Einzelne Leitlinien sind hinsichtlich der erlaubten Nutzungen sehr viel großzügiger, indem sie pauschaler den Einsatz künstlicher Intelligenz für grundsätzlich zulässig erklären. Beispielsweise empfiehlt die Münchener KI-Kommission die »ausdrückliche Zulassung der Benutzung von KI-Tools für die Konzeption und Abfassung von Haus- und Seminararbeiten«. Ähnlich lautet der Eingangssatz der Regensburger Richtlinien, der »Einsatz von Künstlicher Intelligenz (KI)« sei »bei der Anfertigung von schriftlichen Prüfungsleistungen wie insbesondere Haus‑, Seminar‑, Studien‑, Bachelor- und Masterarbeiten [...] im Grundsatz zulässig«.[113] In beiden Regelwerken gelten jedoch Vorbehalte, insbesondere hinsichtlich der Kennzeichnung und Eigenverantwortung. Am entgegengesetzten Ende der Skala sind insoweit die Osnabrücker Grundsätze einzuordnen: Sie erklären keinerlei KI-Nutzung ausdrücklich für zulässig. Aber auch die Osnabrücker Grundsätze gehen implizit ebenfalls davon aus, dass zumindest bestimmte Nutzungsformen zulässig sind. Einleitend heißt es nämlich, der Einsatz von KI sei »für die erfolgreiche Bearbeitung der Aufgabenstellungen [...] NICHT erforderlich«.[114]

c) Pflicht zur Kennzeichnung

Die genannten Regelwerke haben weiterhin gemeinsam, dass sie sich zur Kennzeichnung der KI-Nutzung verhalten. Reichweite und Ausgestaltung der Kennzeichnungspflichten unterscheiden sich aber wiederum signifikant.

Die Konstanzer Regeln verlangen keine explizite Kennzeichnung, sondern einen Passus in der Eigenständigkeitserklärung, der bestätigt, dass die Arbeit »keine wörtlichen oder sinngemäßen Übernahmen von Textpassagen oder sonstige Inhalte, die von einem KI-Tool generiert wurden«, enthält. Auch die Trierer Vorschriften sehen keine Kennzeichnungspflicht vor, sondern negieren diese sogar ausdrücklich. Sie betonen zudem, auch eine »gekennzeichnete wörtliche Übernahme von Textteilen« verletze das Gebot der eigenständigen Bearbeitung.[115]

Umgekehrt sehen die Marburger ebenso wie die Münchener Regeln vor, dass pauschal offenzulegen ist, wenn KI-Tools für die Erstellung der Arbeit verwendet worden sind. Ähnlich verlangen die Osnabrücker Leitlinien, dass »Recherchen zum Zusammenstellen von Literatur und/oder Urteilen, die über KI erfolgt sind« zu Beginn der Arbeit kenntlich zu machen sind.[116] Ergänzend ist dort sogar eine Dokumentationspflicht vorgesehen, die sich in keiner der anderen Regelungen findet.[117]

Eine bemerkenswert differenzierte Kennzeichnungsregelung ist schließlich in den Regensburger Richtlinien zu finden. Diese Regelung sieht zunächst vor, welcher Einsatz technischer Hilfsmittel nicht kennzeichnungspflichtig ist, selbst wenn diese Hilfsmittel KI-Technologie beinhalten. Der entsprechende Katalog umfasst im Wesentlichen die oben angesprochenen vorbereitenden Hilfstätigkeiten der KI, nämlich Werkzeuge zur Rechtschreib‑, Zeichensetzungs- und Grammatikprüfung, Suchmaschinen, Plagiatssoftware, Zitier- und Spracherkennungsprogramme.[118] Im Übrigen verlangen die Richtlinien hingegen eine besonders umfassende Nennung der konkret verwendeten Hilfsmittel und der konkreten Einsatzgebiete (Paraphrasen, Visualisierungen, Optimierung von Fußnoten, struktureller Input) im Anhang der jeweiligen Arbeit.[119]

d) Fortgeltung der Grundregeln guter wissenschaftlicher Praxis

Auch wenn keines der genannten Regelwerke spezifische Nutzungsformen von KI explizit verbietet, betonen alle die Fortgeltung der tradierten wissenschaftlichen Standards.[120]

So heißt es in den Münchener Leitlinien, die Empfehlung zur Zulassung der Benutzung von KI-Tools entbinde »nicht von den allgemeinen Grundsätzen des wissenschaftlichen Arbeitens und von der Verantwortung für Inhalt und Form der jeweiligen Arbeit«. Ähnlich statuieren die Regensburger Richtlinien, dass »[d]ie allgemeinen Regeln zu guter wissenschaftlicher Praxis [...] unberührt« bleiben.[121] Einige Regelwerke formulieren konkreter, dass die »nicht gekennzeichnete wörtliche Übernahme von Ergebnissen des Einsatzes generativer KI« ähnlich dem Einsatz eines Ghostwriters einen verbotenen Täuschungsversuch darstelle.[122] Ähnlich heißt es in Marburg, die »wörtliche Übernahme von KI-generierten Texten« widerspreche dem Gebot der Eigenleistung und könne zur Bewertung mit »nicht bestanden« führen; nicht gekennzeichnete Übernahmen gälten zudem als Täuschung. Ganz ähnlich bekommen die Studierenden in Konstanz folgende praktische Handreichung: »Als allgemeine Leitlinie für den Einsatz von KI können Sie sich von der Frage leiten lassen, ob eine entsprechende Nachfrage in der ›analogen‹ Welt zulässig wäre (z. B. Gespräch mit Kommilitonen zur Ideensammlung, Korrekturlesen, nicht aber: vollständige Übernahme fremden Textes)«.

Neben dem tradierten Verbot der nicht gekennzeichneten wörtlichen Übernahme fremder Texte besteht bei KI-generierten Texten die Besonderheit, dass ChatGPT und andere Tools fehleranfällig sind und insbesondere Nachweise oft erfinden (sog. KI-Halluzinationen).[123] Entsprechend gewinnt die Pflicht, diese Texte und die dort zitierten Quellen selbst auf inhaltliche Richtigkeit zu überprüfen, gegenüber den herkömmlichen wissenschaftlichen Standards erheblich an Bedeutung. Diese Pflicht findet beispielsweise in den Trierer Grundsätzen Niederschlag, wo es heißt, »auch die gekennzeichnete wörtliche Übernahme von Textteilen« verletze das Gebot der eigenständigen Bearbeitung.[124] Ähnlich betonen die Osnabrücker Vorschriften, dass »die Studierenden [...], wie bislang auch, eine eigenständige Leistung erbringen« müssen.[125] Besonders ausführlich begründen die Regensburger Richtlinien: »Inhaltliche Äußerungen einer KI dürfen grundsätzlich nicht unmittelbar übernommen, sondern nur als Einstieg in die weitere Recherche verwendet werden. Insbesondere sind Ausgaben einer KI inhaltlich selbstständig anhand seriöser rechtswissenschaftlicher Quellen auf ihre Richtigkeit zu kontrollieren, weil es sich nicht um eine eigenständige wissenschaftliche Quelle bzw. Rechtsmeinung handelt und sie daher nicht in vergleichbar verlässlicher Weise wie Stimmen aus der Fachliteratur als Erkenntnisquelle verwendet werden können«.[126]

e) Grundsatz der Eigenverantwortung

Ergänzend zu dieser spezifischen Pflicht zur eigenständigen Leistung findet der allgemeine Grundsatz der Eigenverantwortung in den verschiedenen Leitlinien besonders deutlich Betonung, auch um der Gefahr des sog. »cognitive offloading« entgegenzuwirken.[127] Beispielsweise heben die Marburger Regelungen hervor, dass für Inhalt, Richtigkeit und wissenschaftliche Qualität auch bei Nutzung von KI alleine der Prüfling verantwortlich ist, und dass deshalb alle Inhalte anhand seriöser Quellen zu überprüfen und zu belegen sind. Gleichermaßen statuieren die Regensburger Richtlinien, dass »Studierende [...] für die schriftliche Prüfungsleistung auch dann in vollem Umfang verantwortlich [sind], wenn sie bei der Erstellung KI eingesetzt haben«; dies gelte insbesondere für inhaltliche Fehler sowie für ungekennzeichnete Übernahmen fremder Gedanken.[128] Die Osnabrücker Leitlinien betonen ebenfalls, das Risiko mangelnder Eigenständigkeit verbliebe bei den Prüflingen.[129] Gleichsinnig besagen die Münchener Regeln, KI-Nutzung entbinde nicht »von der Verantwortung für Inhalt und Form der jeweiligen Arbeit«. So schließt sich gegen Ende dieses Beitrags ein Kreis: Auch in Gerichtsentscheidungen gibt es Transparenzhinweise. In einer aktuellen U. S.-amerikanischen Entscheidung hat der Richter Christopher McNall zur Verwendung von KI (Artificial Intelligence, AI) festgehalten:

»I have used AI in the production of this decision. [...] Principally, I have used AI to summarise the documents, but I have satisfied myself that the summaries – treated only as a first-draft – are accurate. I have not used the AI for legal research. [...] This decision has my name at the end. I am the decision-maker, and I am responsible for this material. The judgment applied – in the sense of the evaluative faculty, wighing-up the arguments, and framing the terms of the order – has been entirely mine.«[130]

IV. Fazit

Bereits heute ist KI aus der rechtswissenschaftlichen Praxis und Ausbildung kaum mehr wegzudenken. Sie eröffnet erhebliche Effizienzgewinne, schafft neue Lern- und Arbeitsformen und verlangt zugleich klare Grenzen und Verantwortlichkeiten. Entscheidend ist daher nicht die Frage, ob, sondern wie KI rechtssicher, verantwortungsvoll und wissenschaftlich redlich eingesetzt wird. Der souveräne Umgang mit KI-Tools wird für Juristinnen und Juristen künftig ähnlich wichtig sein wie das Beherrschen von Gesetzestexten und Kommentaren. Wer bereits im Studium lernt, KI sicher, effizient und kritisch zu nutzen, kann komplexe Sachverhalte schneller analysieren, präzisere Recherchen durchführen und Routinearbeiten automatisieren – darf aber den Blick für ethische und rechtliche Schranken nicht verlieren. Frühzeitige Schulung kann angehende Juristinnen und Juristen darauf vorbereiten, die Chancen der Technologie verantwortungsvoll zu ergreifen und ihre Risiken kompetent zu minimieren. Totalverbote wären demgegenüber weder praktikabel noch sinnvoll.

Zunehmend schlagen sich diese Überlegungen in Leitlinien und Regelungen nieder, die immer mehr juristische Fachbereiche zum KI-Einsatz entwickeln. Die Kernaussage dieser Regelwerke und auch der Maßstäbe für die juristische Praxis ist denkbar einfach: Für KI-generierte Inhalte gelten dieselben Maßstäbe wie für alle anderen Quellen, die in wissenschaftlichen Arbeiten übernommen werden. »Ausnahmslos unzulässig sind sog. Blindzitate: Sie müssen alle Quellen, die Sie zitieren, selbst eingesehen haben. Nur so können Sie sicher sein, dass dort auch steht, wofür die Quelle andernorts in Anspruch genommen wurde.«[131] Nur so lassen sich wissenschaftliche Redlichkeit und auch anwaltliche Sorgfalt wahren. Transparenz ist zudem das Gebot der Stunde: Im Zweifelsfall weisen Sie lieber einmal zu viel als einmal zu wenig auf den Einsatz von KI hin. Dies schützt nicht nur vor rechtlichen und prüfungsrechtlichen Risiken, sondern stärkt auch das Vertrauen in die Integrität Ihrer juristischer Arbeit.

Online erschienen: 2025-11-06
Erschienen im Druck: 2025-11-04

© 2025 by Walter de Gruyter GmbH, Berlin/Boston

Articles in the same Issue

  1. Frontmatter
  2. Frontmatter
  3. JURA INFO
  4. JURA Jahrestage
  5. Verfassungsgeschichte 1945–1990: Deutschland zwischen Untergang und Fortbestand, Teilung und Wiedervereinigung
  6. Aufsatz ZR
  7. Der Vertragsschluss in Selbstbedienungsläden und Smart Stores
  8. Lehren und Lernen
  9. Künstliche Intelligenz in rechtswissenschaftlichem Studium und juristischer Praxis
  10. Grundstudium StR
  11. Die Problematik der »Kettenanstiftung«
  12. Repetitorium ZR
  13. Vom Schein zum Sein – Zum systematischen Umgang mit Rechtsscheintatbeständen insbesondere in der Examensklausur (Teil 2)
  14. Schwerpunktbereich
  15. Kapitalmarktrecht: Examensklausur zum Insiderrecht
  16. Methodik ZR
  17. ZR-Anfängerhausarbeit zum Gewährleistungs- und Deliktsrecht
  18. ZR-Fortgeschrittenenklausur zum Mietrecht
  19. ZR-Examensklausur zum Sachenrecht
  20. Methodik ÖR
  21. ÖR-Fortgeschrittenenklausur zum Polizeirecht
  22. KARTEIKARTEN
  23. Sitzverlegung einer ausländischen Stiftung ins Inland
  24. Rückzahlungsanspruch wegen Nichtigkeit eines Vertrags über Online-Mentoring-Programm
  25. Zustandsnote als Beschaffenheitsvereinbarung bei Kauf eines Oldtimers
  26. Recht des Angeklagten auf eigene Ermittlungen und Aushändigung amtlich verwahrter Beweisstücke
  27. Die Annahme von Tateinheit zwischen Nötigung und Erpressung
  28. Strafbarkeit nach § 126a StGB bei der Namensnennung von Amtspersonen in sozialen Netzwerken
  29. Staatsbürgerschaftserfordernis für die Parteimitgliedschaft von Unionsbürgern
  30. Verfassungsmäßigkeit des Rundfunkstaatsvertrags Berlin-Brandenburg
  31. »Widerruf« einer fiktiven Erlaubnis
Downloaded on 14.11.2025 from https://www.degruyterbrill.com/document/doi/10.1515/jura-2025-2186/html
Scroll to top button