• Suche
  • Deine Referendarswelt
    • Juristenkoffer.de - Kommentare mieten
    • RefNews - Das Blog zum Referendariat
    • Infoseiten zum Referendariat
    • Referendarbuchladen - Bücher für Rechtsreferendare
    • Stationsradar.de - Stationsangebote u. Nebenjobs
    • Protokolle-Assessorexamen.de - Protokolle für das 2. Examen
    • Referendarswelt - Die Stadt für Rechtsreferendare
    • Infoseiten: Richter / Staatsanwalt werden
Einloggen oder Registrieren » Hallo, Gast! Auch als Gast kannst Du Beiträge posten. Besser nutzbar ist das Forum aber, wenn Du Dich registrierst und einloggst.
Login
Benutzername/E-Mail:
Passwort: Passwort vergessen?
 
  1. Startseite
  2. Zur letzten Instanz - Das Forum für Rechtsreferendare
  3. Instanzen für Rechtsreferendare
  4. Obiter dictum - Sonstiges
  5. AI im Kanzleialltag
« 1 ... 17 18 19 20 21 ... 23 »
 
Antworten

 
AI im Kanzleialltag
Paul Klee
Member
***
Beiträge: 157
Themen: 2
Registriert seit: Apr 2023
#181
14.02.2025, 20:34
(14.02.2025, 15:16)admin schrieb:  Stand jetzt lösen offenbar KI auch recht einfache Fälle wie den oben geschilderten Fall mal richtig und mal falsch. Daher also nicht verlässlich und somit faktisch unbrauchbar. Wir wollen aber natürlich nicht ausschließen, dass sich das noch in der Zukunft ändert.

Gelegentliche, schwer erkennbare, falsche Ausgaben (Halluzinationen) sind nicht nur der gegenwärtige Stand, sondern strukturell in der Funktionsweise von KI verankert. Die können eben nicht analytisch denken, sondern nur wahrscheinliche Ergebnisse liefern. Die Beispiele zeigen dass definitiv Potential da ist dass KIs für Juristen wertvolle Werkzeuge sind, aber mehr auch nicht.
Suchen
Zitieren
Rechtsverwender
Member
***
Beiträge: 51
Themen: 0
Registriert seit: Feb 2025
#182
17.02.2025, 09:56
(14.02.2025, 20:34)Paul Klee schrieb:  
(14.02.2025, 15:16)admin schrieb:  Stand jetzt lösen offenbar KI auch recht einfache Fälle wie den oben geschilderten Fall mal richtig und mal falsch. Daher also nicht verlässlich und somit faktisch unbrauchbar. Wir wollen aber natürlich nicht ausschließen, dass sich das noch in der Zukunft ändert.

Gelegentliche, schwer erkennbare, falsche Ausgaben (Halluzinationen) sind nicht nur der gegenwärtige Stand, sondern strukturell in der Funktionsweise von KI verankert. Die können eben nicht analytisch denken, sondern nur wahrscheinliche Ergebnisse liefern. Die Beispiele zeigen dass definitiv Potential da ist dass KIs für Juristen wertvolle Werkzeuge sind, aber mehr auch nicht.
Es klingt so, als würdest Du dabei vor allem (oder nur) an LLMs als probalistische Texterstellung denken.

GNNs und LRMs haben andere Anwendungsfelder. Die eine KI gibt es nicht.

Was aber nichts daran ändert, dass es m.E. bislang fast keine brauchbaren KI-Anwendungen für den Rechtsmark gibt. Ohne kuratierten Korpus (Zeitaufwand) und idiotensichere globale Vorgaben ans Prompting (noch mehr Zeitaufwand) führt das nur zu falscher Sicherheit bei Leuten, die nicht verstehen, mit was sie da arbeiten. 

Grüße an der Stelle an Hochschulprofessoren in MINT-Fächern, die mit ChatGPT "prüfen", ob Arbeiten KI-generiert sind.
(Dieser Beitrag wurde zuletzt bearbeitet: 17.02.2025, 09:57 von Rechtsverwender.)
Suchen
Zitieren
Paul Klee
Member
***
Beiträge: 157
Themen: 2
Registriert seit: Apr 2023
#183
18.02.2025, 00:26
(17.02.2025, 09:56)Rechtsverwender schrieb:  
(14.02.2025, 20:34)Paul Klee schrieb:  
(14.02.2025, 15:16)admin schrieb:  Stand jetzt lösen offenbar KI auch recht einfache Fälle wie den oben geschilderten Fall mal richtig und mal falsch. Daher also nicht verlässlich und somit faktisch unbrauchbar. Wir wollen aber natürlich nicht ausschließen, dass sich das noch in der Zukunft ändert.

Gelegentliche, schwer erkennbare, falsche Ausgaben (Halluzinationen) sind nicht nur der gegenwärtige Stand, sondern strukturell in der Funktionsweise von KI verankert. Die können eben nicht analytisch denken, sondern nur wahrscheinliche Ergebnisse liefern. Die Beispiele zeigen dass definitiv Potential da ist dass KIs für Juristen wertvolle Werkzeuge sind, aber mehr auch nicht.
Es klingt so, als würdest Du dabei vor allem (oder nur) an LLMs als probalistische Texterstellung denken.

GNNs und LRMs haben andere Anwendungsfelder. Die eine KI gibt es nicht.

Was aber nichts daran ändert, dass es m.E. bislang fast keine brauchbaren KI-Anwendungen für den Rechtsmark gibt. Ohne kuratierten Korpus (Zeitaufwand) und idiotensichere globale Vorgaben ans Prompting (noch mehr Zeitaufwand) führt das nur zu falscher Sicherheit bei Leuten, die nicht verstehen, mit was sie da arbeiten. 

Grüße an der Stelle an Hochschulprofessoren in MINT-Fächern, die mit ChatGPT "prüfen", ob Arbeiten KI-generiert sind.

Ja, ich habe vor allem LLMs im Blick, weil ich die für Juristen mit Abstand am relevantesten einschätze.

Auch andere Formen von KI funktionieren aber (nach meinem mittelmäßigen Wissen darüber) über Rechenoperationen, die mit analytischem Denken nichts zu tun haben, sondern über verschiedene Wege Ergebnisse erzeugen, die den Trainingsdaten (bzw dem (vermeintlichen) Substrat) möglichst entsprechen. Weil das so ist, gehören Halluzinationen dazu und sind mindestens mal eine große Hürde für alle Bereiche in denen es auf Rechtssicherheit ankommt.

(PS: ich wollte mir heute erst etwas von einer KI erklären lassen, die hat aber leider dann einfach Paragraphen und deren Inhalt erfunden.)
Suchen
Zitieren
nachdenklich
Senior Member
****
Beiträge: 261
Themen: 1
Registriert seit: Sep 2023
#184
05.04.2025, 22:25
https://www.stern.de/digital/online/ki-a...15852.html

Lustig. Interessant ist die Begründung der Richterin bzgl des Verbots: mangelnde Transparenz im Vorfeld.

Ich denke in den USA werden wir in den nächsten 2 Jahren auch auf dem Gebiet der Prozessvertretung einigen Wandel erleben.
Suchen
Zitieren
guga
Posting Freak
*****
Beiträge: 1.159
Themen: 2
Registriert seit: Jul 2020
#185
06.04.2025, 09:58
Auch Anfang 2025 sind die LLMs für Juristen weitgehend nutzlos. Zu viele Fehler und dann behaupten sie, dass sie recht haben Cheese . Man merkt, LLMs wurden mit menschlichen Daten trainiert.
Suchen
Zitieren
nachdenklich
Senior Member
****
Beiträge: 261
Themen: 1
Registriert seit: Sep 2023
#186
06.04.2025, 10:23
Du arbeitest ja in einem int. Unternehmen:

was man auf USA/UK Law Szeneseiten/Foren mitbekommt, sollen die neusten KI-Tools von Westlaw/Lexisnexis und auch HarveyAI eigentlich sehr gut bzgl Drafting, Recherche, Reasoning usw sein. Bei HarveyAI schwärmt - angeblich - auch die Telekom Rechtsabteilung/Big4-Legal 

Beck bringt auch immer mehr KI Angebote auf den Markt, aber bis die die gesamte Bandbreite der deutschen Rechtsgebiete bearbeitet haben (und das auch mit den neusten KI-Reasoning-Tools auf Grundlage gemini pro, LLama 4 usw) dürften bestimmt noch 1,2 Jahre ins Land gehen.
(Dieser Beitrag wurde zuletzt bearbeitet: 06.04.2025, 10:24 von nachdenklich.)
Suchen
Zitieren
guga
Posting Freak
*****
Beiträge: 1.159
Themen: 2
Registriert seit: Jul 2020
#187
06.04.2025, 10:34
State of the Art sind OpenAi, Google, Claude und Deepseek. Wenn ChatGPT mit 200 Mrd Funding pro Jahr kein Impressum fehlerfrei draften kann, dann wird Beck das auch nicht können. Klar sind LLM gute Blender, weil sie gut klingende Texte schreiben können. Das reicht aber nicht. Der Teufel steckt im Detail.
(Dieser Beitrag wurde zuletzt bearbeitet: 06.04.2025, 10:35 von guga.)
Suchen
Zitieren
nachdenklich
Senior Member
****
Beiträge: 261
Themen: 1
Registriert seit: Sep 2023
#188
06.04.2025, 10:44
(14.02.2025, 16:13)admin schrieb:  
(14.02.2025, 15:29)CryptoKraut schrieb:  Spannendes Experiment!
Habe selber immer nur Fälle aus dem ersten Examen genommen, da hat man natürlich nen feststehenden Sachverhalt, den muss man sich im zweiten Examen selbst zusammenbauen. Ich denke, dass das auch noch ne nennenswerte Fehlerquelle sein kann

Das ist ein guter Aspekt, dass KIs bei feststehenden Sachverhalten wahrscheinlich besser funktionieren. Man müsste mal zum Testen die Rechtsansichten der Beklagten entfernen und schauen, zu welchem Ergebnis dann die KIs kommen (und ob sie die entscheidenden Rechtsfragen, auf die man ja gerade durch die Rechtsansichten gestoßen wird, erkennt). In dem von uns geschilderten Fall geht das, weil der tatsächliche Sachverhalt unstreitig ist. Bei sehr vielen anderen Fällen aus dem 2. Examen wird das nicht funktionieren, da gerade der tatsächliche Sachverhalt zwischen den Parteien umstritten ist.

Ich hatte diese Diskussion übersehen. Ich finde das ehrlicherweise schon beeindruckend. Klar kann man noch keine allumfassende, alle tatsächlichen und juristischen Details und Feinheiten richtig erfassende Lösung erwarten.
Aber ein nicht zu vernachlässigender Teil an Rechtsstreitigkeiten hat im Alltag oftmals keine besondere Komplexität, sondern entspringen nicht selten Missverständnissen oder der Borniertheit einer Partei. Gut für Juristen.

Im Endeffekt wird es in absehbarer Zeit a) auf das Vertrauen und b) auf den Streitwert ankommen. Ich kann mir zwar schon vorstellen, dass in 1,2 Jahren das Vertrauen der Verbraucher/kleine Betriebe/Selbstständige in KI-Antworten bei tatsächlich und/oder rechtlich nicht besonders komplexen Sachverhalten stark steigen wird. Eventuell wird KI auch verstärkt Rückfragen stellen können, um die Antworten entsprechend zu optimieren.
Andererseits wird beim Überschreiten einer gewissen finanziellen Schwelle (der Wert ist natürlich subjektiv) mit Sicherheit auch noch in mittlerer Zukunft der Weg zum RA immer noch die erste Wahl sein.
(Dieser Beitrag wurde zuletzt bearbeitet: 06.04.2025, 10:50 von nachdenklich.)
Suchen
Zitieren
nachdenklich
Senior Member
****
Beiträge: 261
Themen: 1
Registriert seit: Sep 2023
#189
06.04.2025, 10:47
(06.04.2025, 10:34)guga schrieb:  State of the Art sind OpenAi, Google, Claude und Deepseek. Wenn ChatGPT mit 200 Mrd Funding pro Jahr kein Impressum fehlerfrei draften kann, dann wird Beck das auch nicht können. Klar sind LLM gute Blender, weil sie gut klingende Texte schreiben können. Das reicht aber nicht. Der Teufel steckt im Detail.

Richtig. Es geht ja primär um Produktivitätssteigerung und nicht um die vollständig autonome Lösung durch KI. Und Produktivitätssteigerung in Compliance, Contract-Mangement, Recherche, Entwurf usw liegen hingegen vor.
Suchen
Zitieren
guga
Posting Freak
*****
Beiträge: 1.159
Themen: 2
Registriert seit: Jul 2020
#190
06.04.2025, 10:56
(06.04.2025, 10:47)nachdenklich schrieb:  
(06.04.2025, 10:34)guga schrieb:  State of the Art sind OpenAi, Google, Claude und Deepseek. Wenn ChatGPT mit 200 Mrd Funding pro Jahr kein Impressum fehlerfrei draften kann, dann wird Beck das auch nicht können. Klar sind LLM gute Blender, weil sie gut klingende Texte schreiben können. Das reicht aber nicht. Der Teufel steckt im Detail.

Richtig. Es geht ja primär um Produktivitätssteigerung und nicht um die vollständig autonome Lösung durch KI. Und Produktivitätssteigerung in Compliance, Contract-Mangement, Recherche, Entwurf usw liegen hingegen vor.

Nichts, was ein Word Template nicht auch schon seit Jahren kann. Im Gegenteil, ein gutes Template ist LLM Lösungen weit voraus, weil man weiß, dass es fehlerfrei ist...
Suchen
Zitieren
« Ein Thema zurück | Ein Thema vor »
« 1 ... 17 18 19 20 21 ... 23 »
 
Antworten



 

Zur letzten Instanz

Das Forum "Zur letzten Instanz" ist das einzige Forum speziell für Rechtsreferendare. Diskutiere mit bei Fragen Rund um den juristischen Vorbereitungsdienst und zum Zweiten Staatsexamen!

Quick Links



Kontaktiere uns

E-Mail an uns  Datenschutzhinweise

Impressum 

Linearer Modus
Baumstrukturmodus