Gestern, 10:44
(14.02.2025, 16:13)admin schrieb:(14.02.2025, 15:29)CryptoKraut schrieb: Spannendes Experiment!
Habe selber immer nur Fälle aus dem ersten Examen genommen, da hat man natürlich nen feststehenden Sachverhalt, den muss man sich im zweiten Examen selbst zusammenbauen. Ich denke, dass das auch noch ne nennenswerte Fehlerquelle sein kann
Das ist ein guter Aspekt, dass KIs bei feststehenden Sachverhalten wahrscheinlich besser funktionieren. Man müsste mal zum Testen die Rechtsansichten der Beklagten entfernen und schauen, zu welchem Ergebnis dann die KIs kommen (und ob sie die entscheidenden Rechtsfragen, auf die man ja gerade durch die Rechtsansichten gestoßen wird, erkennt). In dem von uns geschilderten Fall geht das, weil der tatsächliche Sachverhalt unstreitig ist. Bei sehr vielen anderen Fällen aus dem 2. Examen wird das nicht funktionieren, da gerade der tatsächliche Sachverhalt zwischen den Parteien umstritten ist.
Ich hatte diese Diskussion übersehen. Ich finde das ehrlicherweise schon beeindruckend. Klar kann man noch keine allumfassende, alle tatsächlichen und juristischen Details und Feinheiten richtig erfassende Lösung erwarten.
Aber ein nicht zu vernachlässigender Teil an Rechtsstreitigkeiten hat im Alltag oftmals keine besondere Komplexität, sondern entspringen nicht selten Missverständnissen oder der Borniertheit einer Partei. Gut für Juristen.
Im Endeffekt wird es in absehbarer Zeit a) auf das Vertrauen und b) auf den Streitwert ankommen. Ich kann mir zwar schon vorstellen, dass in 1,2 Jahren das Vertrauen der Verbraucher/kleine Betriebe/Selbstständige in KI-Antworten bei tatsächlich und/oder rechtlich nicht besonders komplexen Sachverhalten stark steigen wird. Eventuell wird KI auch verstärkt Rückfragen stellen können, um die Antworten entsprechend zu optimieren.
Andererseits wird beim Überschreiten einer gewissen finanziellen Schwelle (der Wert ist natürlich subjektiv) mit Sicherheit auch noch in mittlerer Zukunft der Weg zum RA immer noch die erste Wahl sein.
Gestern, 10:47
(Gestern, 10:34)guga schrieb: State of the Art sind OpenAi, Google, Claude und Deepseek. Wenn ChatGPT mit 200 Mrd Funding pro Jahr kein Impressum fehlerfrei draften kann, dann wird Beck das auch nicht können. Klar sind LLM gute Blender, weil sie gut klingende Texte schreiben können. Das reicht aber nicht. Der Teufel steckt im Detail.
Richtig. Es geht ja primär um Produktivitätssteigerung und nicht um die vollständig autonome Lösung durch KI. Und Produktivitätssteigerung in Compliance, Contract-Mangement, Recherche, Entwurf usw liegen hingegen vor.
Gestern, 10:56
(Gestern, 10:47)nachdenklich schrieb:(Gestern, 10:34)guga schrieb: State of the Art sind OpenAi, Google, Claude und Deepseek. Wenn ChatGPT mit 200 Mrd Funding pro Jahr kein Impressum fehlerfrei draften kann, dann wird Beck das auch nicht können. Klar sind LLM gute Blender, weil sie gut klingende Texte schreiben können. Das reicht aber nicht. Der Teufel steckt im Detail.
Richtig. Es geht ja primär um Produktivitätssteigerung und nicht um die vollständig autonome Lösung durch KI. Und Produktivitätssteigerung in Compliance, Contract-Mangement, Recherche, Entwurf usw liegen hingegen vor.
Nichts, was ein Word Template nicht auch schon seit Jahren kann. Im Gegenteil, ein gutes Template ist LLM Lösungen weit voraus, weil man weiß, dass es fehlerfrei ist...