14.02.2025, 20:34
(14.02.2025, 15:16)admin schrieb: Stand jetzt lösen offenbar KI auch recht einfache Fälle wie den oben geschilderten Fall mal richtig und mal falsch. Daher also nicht verlässlich und somit faktisch unbrauchbar. Wir wollen aber natürlich nicht ausschließen, dass sich das noch in der Zukunft ändert.
Gelegentliche, schwer erkennbare, falsche Ausgaben (Halluzinationen) sind nicht nur der gegenwärtige Stand, sondern strukturell in der Funktionsweise von KI verankert. Die können eben nicht analytisch denken, sondern nur wahrscheinliche Ergebnisse liefern. Die Beispiele zeigen dass definitiv Potential da ist dass KIs für Juristen wertvolle Werkzeuge sind, aber mehr auch nicht.
17.02.2025, 09:56
(14.02.2025, 20:34)Paul Klee schrieb:Es klingt so, als würdest Du dabei vor allem (oder nur) an LLMs als probalistische Texterstellung denken.(14.02.2025, 15:16)admin schrieb: Stand jetzt lösen offenbar KI auch recht einfache Fälle wie den oben geschilderten Fall mal richtig und mal falsch. Daher also nicht verlässlich und somit faktisch unbrauchbar. Wir wollen aber natürlich nicht ausschließen, dass sich das noch in der Zukunft ändert.
Gelegentliche, schwer erkennbare, falsche Ausgaben (Halluzinationen) sind nicht nur der gegenwärtige Stand, sondern strukturell in der Funktionsweise von KI verankert. Die können eben nicht analytisch denken, sondern nur wahrscheinliche Ergebnisse liefern. Die Beispiele zeigen dass definitiv Potential da ist dass KIs für Juristen wertvolle Werkzeuge sind, aber mehr auch nicht.
GNNs und LRMs haben andere Anwendungsfelder. Die eine KI gibt es nicht.
Was aber nichts daran ändert, dass es m.E. bislang fast keine brauchbaren KI-Anwendungen für den Rechtsmark gibt. Ohne kuratierten Korpus (Zeitaufwand) und idiotensichere globale Vorgaben ans Prompting (noch mehr Zeitaufwand) führt das nur zu falscher Sicherheit bei Leuten, die nicht verstehen, mit was sie da arbeiten.
Grüße an der Stelle an Hochschulprofessoren in MINT-Fächern, die mit ChatGPT "prüfen", ob Arbeiten KI-generiert sind.
18.02.2025, 00:26
(17.02.2025, 09:56)Rechtsverwender schrieb:(14.02.2025, 20:34)Paul Klee schrieb:Es klingt so, als würdest Du dabei vor allem (oder nur) an LLMs als probalistische Texterstellung denken.(14.02.2025, 15:16)admin schrieb: Stand jetzt lösen offenbar KI auch recht einfache Fälle wie den oben geschilderten Fall mal richtig und mal falsch. Daher also nicht verlässlich und somit faktisch unbrauchbar. Wir wollen aber natürlich nicht ausschließen, dass sich das noch in der Zukunft ändert.
Gelegentliche, schwer erkennbare, falsche Ausgaben (Halluzinationen) sind nicht nur der gegenwärtige Stand, sondern strukturell in der Funktionsweise von KI verankert. Die können eben nicht analytisch denken, sondern nur wahrscheinliche Ergebnisse liefern. Die Beispiele zeigen dass definitiv Potential da ist dass KIs für Juristen wertvolle Werkzeuge sind, aber mehr auch nicht.
GNNs und LRMs haben andere Anwendungsfelder. Die eine KI gibt es nicht.
Was aber nichts daran ändert, dass es m.E. bislang fast keine brauchbaren KI-Anwendungen für den Rechtsmark gibt. Ohne kuratierten Korpus (Zeitaufwand) und idiotensichere globale Vorgaben ans Prompting (noch mehr Zeitaufwand) führt das nur zu falscher Sicherheit bei Leuten, die nicht verstehen, mit was sie da arbeiten.
Grüße an der Stelle an Hochschulprofessoren in MINT-Fächern, die mit ChatGPT "prüfen", ob Arbeiten KI-generiert sind.
Ja, ich habe vor allem LLMs im Blick, weil ich die für Juristen mit Abstand am relevantesten einschätze.
Auch andere Formen von KI funktionieren aber (nach meinem mittelmäßigen Wissen darüber) über Rechenoperationen, die mit analytischem Denken nichts zu tun haben, sondern über verschiedene Wege Ergebnisse erzeugen, die den Trainingsdaten (bzw dem (vermeintlichen) Substrat) möglichst entsprechen. Weil das so ist, gehören Halluzinationen dazu und sind mindestens mal eine große Hürde für alle Bereiche in denen es auf Rechtssicherheit ankommt.
(PS: ich wollte mir heute erst etwas von einer KI erklären lassen, die hat aber leider dann einfach Paragraphen und deren Inhalt erfunden.)
05.04.2025, 22:25
https://www.stern.de/digital/online/ki-a...15852.html
Lustig. Interessant ist die Begründung der Richterin bzgl des Verbots: mangelnde Transparenz im Vorfeld.
Ich denke in den USA werden wir in den nächsten 2 Jahren auch auf dem Gebiet der Prozessvertretung einigen Wandel erleben.
Lustig. Interessant ist die Begründung der Richterin bzgl des Verbots: mangelnde Transparenz im Vorfeld.
Ich denke in den USA werden wir in den nächsten 2 Jahren auch auf dem Gebiet der Prozessvertretung einigen Wandel erleben.
06.04.2025, 09:58
Auch Anfang 2025 sind die LLMs für Juristen weitgehend nutzlos. Zu viele Fehler und dann behaupten sie, dass sie recht haben
. Man merkt, LLMs wurden mit menschlichen Daten trainiert.
. Man merkt, LLMs wurden mit menschlichen Daten trainiert.
06.04.2025, 10:23
Du arbeitest ja in einem int. Unternehmen:
was man auf USA/UK Law Szeneseiten/Foren mitbekommt, sollen die neusten KI-Tools von Westlaw/Lexisnexis und auch HarveyAI eigentlich sehr gut bzgl Drafting, Recherche, Reasoning usw sein. Bei HarveyAI schwärmt - angeblich - auch die Telekom Rechtsabteilung/Big4-Legal
Beck bringt auch immer mehr KI Angebote auf den Markt, aber bis die die gesamte Bandbreite der deutschen Rechtsgebiete bearbeitet haben (und das auch mit den neusten KI-Reasoning-Tools auf Grundlage gemini pro, LLama 4 usw) dürften bestimmt noch 1,2 Jahre ins Land gehen.
was man auf USA/UK Law Szeneseiten/Foren mitbekommt, sollen die neusten KI-Tools von Westlaw/Lexisnexis und auch HarveyAI eigentlich sehr gut bzgl Drafting, Recherche, Reasoning usw sein. Bei HarveyAI schwärmt - angeblich - auch die Telekom Rechtsabteilung/Big4-Legal
Beck bringt auch immer mehr KI Angebote auf den Markt, aber bis die die gesamte Bandbreite der deutschen Rechtsgebiete bearbeitet haben (und das auch mit den neusten KI-Reasoning-Tools auf Grundlage gemini pro, LLama 4 usw) dürften bestimmt noch 1,2 Jahre ins Land gehen.
06.04.2025, 10:34
State of the Art sind OpenAi, Google, Claude und Deepseek. Wenn ChatGPT mit 200 Mrd Funding pro Jahr kein Impressum fehlerfrei draften kann, dann wird Beck das auch nicht können. Klar sind LLM gute Blender, weil sie gut klingende Texte schreiben können. Das reicht aber nicht. Der Teufel steckt im Detail.
06.04.2025, 10:44
(14.02.2025, 16:13)admin schrieb:(14.02.2025, 15:29)CryptoKraut schrieb: Spannendes Experiment!
Habe selber immer nur Fälle aus dem ersten Examen genommen, da hat man natürlich nen feststehenden Sachverhalt, den muss man sich im zweiten Examen selbst zusammenbauen. Ich denke, dass das auch noch ne nennenswerte Fehlerquelle sein kann
Das ist ein guter Aspekt, dass KIs bei feststehenden Sachverhalten wahrscheinlich besser funktionieren. Man müsste mal zum Testen die Rechtsansichten der Beklagten entfernen und schauen, zu welchem Ergebnis dann die KIs kommen (und ob sie die entscheidenden Rechtsfragen, auf die man ja gerade durch die Rechtsansichten gestoßen wird, erkennt). In dem von uns geschilderten Fall geht das, weil der tatsächliche Sachverhalt unstreitig ist. Bei sehr vielen anderen Fällen aus dem 2. Examen wird das nicht funktionieren, da gerade der tatsächliche Sachverhalt zwischen den Parteien umstritten ist.
Ich hatte diese Diskussion übersehen. Ich finde das ehrlicherweise schon beeindruckend. Klar kann man noch keine allumfassende, alle tatsächlichen und juristischen Details und Feinheiten richtig erfassende Lösung erwarten.
Aber ein nicht zu vernachlässigender Teil an Rechtsstreitigkeiten hat im Alltag oftmals keine besondere Komplexität, sondern entspringen nicht selten Missverständnissen oder der Borniertheit einer Partei. Gut für Juristen.
Im Endeffekt wird es in absehbarer Zeit a) auf das Vertrauen und b) auf den Streitwert ankommen. Ich kann mir zwar schon vorstellen, dass in 1,2 Jahren das Vertrauen der Verbraucher/kleine Betriebe/Selbstständige in KI-Antworten bei tatsächlich und/oder rechtlich nicht besonders komplexen Sachverhalten stark steigen wird. Eventuell wird KI auch verstärkt Rückfragen stellen können, um die Antworten entsprechend zu optimieren.
Andererseits wird beim Überschreiten einer gewissen finanziellen Schwelle (der Wert ist natürlich subjektiv) mit Sicherheit auch noch in mittlerer Zukunft der Weg zum RA immer noch die erste Wahl sein.
06.04.2025, 10:47
(06.04.2025, 10:34)guga schrieb: State of the Art sind OpenAi, Google, Claude und Deepseek. Wenn ChatGPT mit 200 Mrd Funding pro Jahr kein Impressum fehlerfrei draften kann, dann wird Beck das auch nicht können. Klar sind LLM gute Blender, weil sie gut klingende Texte schreiben können. Das reicht aber nicht. Der Teufel steckt im Detail.
Richtig. Es geht ja primär um Produktivitätssteigerung und nicht um die vollständig autonome Lösung durch KI. Und Produktivitätssteigerung in Compliance, Contract-Mangement, Recherche, Entwurf usw liegen hingegen vor.
06.04.2025, 10:56
(06.04.2025, 10:47)nachdenklich schrieb:(06.04.2025, 10:34)guga schrieb: State of the Art sind OpenAi, Google, Claude und Deepseek. Wenn ChatGPT mit 200 Mrd Funding pro Jahr kein Impressum fehlerfrei draften kann, dann wird Beck das auch nicht können. Klar sind LLM gute Blender, weil sie gut klingende Texte schreiben können. Das reicht aber nicht. Der Teufel steckt im Detail.
Richtig. Es geht ja primär um Produktivitätssteigerung und nicht um die vollständig autonome Lösung durch KI. Und Produktivitätssteigerung in Compliance, Contract-Mangement, Recherche, Entwurf usw liegen hingegen vor.
Nichts, was ein Word Template nicht auch schon seit Jahren kann. Im Gegenteil, ein gutes Template ist LLM Lösungen weit voraus, weil man weiß, dass es fehlerfrei ist...



