25.02.2024, 17:34
(25.02.2024, 11:35)nachdenklich schrieb: Eins würde ich gerne noch anmerken:
1. Herr Dr. Matthias Birkholz (Autor des hier zitierten dystopischen Artikels im Anwaltsspiegels vom Januar 2024) hatte im April 2023 folgenden Artikel veröffentlicht:
https://legal-tech-verzeichnis.de/fachar...ignet-ist/
In dem Artikel geht es primär um die Frage, ob GPT eine Rechtsdienstleistung i.S.d. RDG erbringt. Der Autor zieht als Leitfaden die bisherige liberale Rechtsprechung des BGH bzgl. verschiedener Legal-Tech-Software heran. In seinem "Smart-Law" Urteil hatte der BGH (im Gegensatz zur erstinstanzlichen Entscheidung des LG) den Vertragsgenerator nicht als Rechtsdienstleistung i.S.d. RDG eingestuft, denn die Software sei nur anhand einer Vielzahl diverser typischer Konstellationen programmiert worden. Die ausgespuckten Vertragsklauseln würden nur zu einem Gesamtvertragswerk kombiniert, ohne dass vom Nutzer tatsächlich eine konkrete Prüfung des Einzelfalles vorgenommen und erwartet werde.
Dies sei bei GPT anders. GPT könne nicht nur Antworten auf abstrakte Rechtsfragen liefern, sondern konkrete Rechtsfragen beantworten. So kann man GPT einen Sachverhalt unterbreiten und bekommt eine rechtliche Einschätzung dazu, dessen Antworten durch das Rückfragen beim System weiter verfeinert und noch präziser auf den konkreten Fall zugeschnitten werden. Die Antworten sind je nach Rechtsgebiet und Komplexität noch nicht "perfekt", wobei es hier allerdings auf das zur Verfügung gestellte Trainingsmaterial ankommt.
Er kommt jedenfalls zum Ergebnis, dass GPT eine Rechtsdienstleitung i.S.d. RDG anbietet, LLM-Programme zukünftig immer besser werden und insbesondere deutlich schneller und präziser als RAe Rechtsfragen beantworten werden können. Da das RDG nicht den Berufsstand der Anwaltschaft schützt, sondern den Rechtssuchenden und die Rechtsordnung schützen soll, stellt sich die Frage, was das für die Anwaltschaft bedeutet. Der Autor plädiert vor diesem Hintergrund für eine Reform des RDG und sieht die Rolle des Anwalts eher als "trusted advisor".
2. Der Artikel im Anwaltsspiegel, knapp 9 Monate später, ist allerdings sogar deutlich destruktiver (ja hoffnungsloser) formuliert:
https://www.deutscheranwaltspiegel.de/an...enz-33742/
Jetzt wirft sich schon die Frage auf, was den Autor bewegt hat, innerhalb von knapp 9 Monaten zu einer noch negativeren Neubewertung zu gelangen. Ich gehe davon aus, dass LLM-Programme, wenn diese genügend Material bekommen (Urteile, Kommentare und insbesondere Sachverhaltskonstellationen), erstaunlich gute Antworten/Drafts etc liefern kann. Dies wird bei Lindenpartners (oder von denen beauftragen Unternehmen) gerade durchgeführt bzw das Programme "antrainiert".
3. @guga: Es mag sein, dass viele mehr oder minder einfachere oder schwerere Rechtsfragen auch via Google und Openjur gelöst werden können. Das Problem ist ja: das kostet verdammt viel Zeit und bedarf juristischen Verständnis (auch bzgl der Fachtermini) um sich durch ewig lange Urteile oder unverständlich frei zugängliche Rechtserläuterungen zu hangeln. Da gibt man dann auf (man ist ja nicht Jurist und hat einen anderen Job und Familie, sodass keine Zeit übrig bleibt, Stunden oder Tage das Inet oder Kommentare zu durchforsten). Und das ist mit GPT nicht mehr der Fall. Innerhalb von Sekunden bekommt man dort eine Antwort.
GPT liefert aber keine rechtliche Einschätzung, sondern eine auf mathematischer Kalkulation des nächsten richtigen Wortes (vereinfacht) basierende (d.h. anhand des Trainingsmaterials), sprachlich möglichst menschliche Antwort.
25.02.2024, 18:03
.
25.02.2024, 19:25
Das wirkt vor allem auf mich so, dass Lindenpartners gerne eine LLM verkaufen will. Das erklärt zumindest die Lobbyartikel der Kanzlei.
25.02.2024, 19:36
(25.02.2024, 18:03)nachdenklich schrieb: Deshalb sollte eine RAK klagen um Rechtssicherheit zu schaffen. Wobei bei einem etwaigen Obsiegen der RAK der zitierte Autor jedenfalls für eine Reform des RDG aus o.g. Gründen plädiert. Würde keine Reform erfolgen, käme das RDG einem Vehikel zum Schutz der RAe vor KI gleich und verwehre den Verbrauchern den Zugang zu einfacheren, kostengünstigerer und schnelleren Lösungen ihrer Rechtsprobleme. Das Anwaltsmonopol habe damit ausgedient.
Die Notwendigkeit besteht erst, wenn man ein entsprechendes Sprachmodell ("KI") als Rechtsberatung einstuft. Das halte ich hingegen für gewagt, da aus ihrer Natur heraus diese Modelle antrainierte Daten auf Grundlage mathematischer Faktoren neu anordnen. Das ist gerade keine rechtliche Beratung, weil keinerlei Würdigung, Einschätzung oder o.ä. stattfinden KANN.
25.02.2024, 21:21
.
25.02.2024, 21:38
(25.02.2024, 21:21)nachdenklich schrieb: @JaMie: das kann man sicherlich so sehen. Ich interpretiere dies eher dahingehen, dass dem Autor einfach durch die kontinuierliche Nutzung, Training und "Dattenfütterung" von "KI" (GPT) das Potential "vor Augen" geführt worden ist.
Ich glaube eher, dass er darin ein Businessmodell gesehen hat und jetzt betreibt er PR, die natürlich sein Businessmodell stützt. Vielleicht ist er davon sogar überzeugt, kann sein, aber auf jeden Fall hat er allen Grund, die LLM-Modelle öffentlichkeitswirksam zu feiern.
Aber ernsthaft, wenn du so die nackte Panik vor LLMs hast, dann such dir doch einen Job, der sich damit beschäftigt und mit der Zeit geht...
25.02.2024, 22:09
Du kennst doch Papagaien, die Papagaien sagen manchmal Wörter, ohne dass sie überhaupt irgendeine Leise Ahnung haben, was diese bedeuten, sie wissen nur, dass wenn sie diesen Laut Formen, dass es einen Keks gibt. So ähnlich kann man sich LLMs vorstellen, bei LLMs findet kein Nachdenken statt, keine evaluieren, kein Hinterfragen. Sie rechnen nur aus, welche Buchstabenkette anhand ihrer Trainingsdaten am besten passen würde. Die LLMs selber haben gar keine Ahnung, was sie da überhaupt sagen (wie auch, sind ja nur Computerprogramme). Das heißt, der Usecase für diese LLMs ist einmal bei Recherche. Wenn die mit trainingsdaten und aktuellen Urteilen gefüttert werden ist das durchaus eine ordentliche Zeitersparnis, wenn man sich diese nicht vorher zusammensuchen muss. Problematisch wird es dann aber, wenn der Anwender der LLM selbst keine Ahnung hat. Wie oben bereits ausgeführt, rechnen sie lediglich aus, welche buchstabenkombination am wahrscheinlichsten ist. Wenn man jetzt aber eine konkrete Rechtsfrage hat, musst du folgendes bedenken. Derjenige der die frage stellt sollte rechtskundig sein, weil sonst hat man keine Chance zu sehen, ob der Papagei da gerade was falsches ausspuckt oder nicht. Wie ich schon bereits gesagt habe bin ich auf das Desaster gespannt, das irgendwann mal kommen wird, wenn irgendein Laie die Maschine was fragt, er davon nichts versteht, und das dann für irgendwas verwenden will. Die Maschine kann selbst nämlich auch nicht verifizieren ob das stimmt was sie sagt. Also mach dir mal keine allzugroßen Gedanken, bei großen gesellschaftsrechtsfragen musst du auch weiterhin über einer Lösung Knobeln, weil wenn du nicht drüber nachdenkst, was der Papagei dir da ausspuckt, kann es auch gut sein, dass du die bessere Lösung übersiehst.
26.02.2024, 20:40
.
13.03.2024, 20:35
.
16.03.2024, 11:27
.