25.02.2024, 17:34
(25.02.2024, 11:35)nachdenklich schrieb: Eins würde ich gerne noch anmerken:
1. Herr Dr. Matthias Birkholz (Autor des hier zitierten dystopischen Artikels im Anwaltsspiegels vom Januar 2024) hatte im April 2023 folgenden Artikel veröffentlicht:
https://legal-tech-verzeichnis.de/fachar...ignet-ist/
In dem Artikel geht es primär um die Frage, ob GPT eine Rechtsdienstleistung i.S.d. RDG erbringt. Der Autor zieht als Leitfaden die bisherige liberale Rechtsprechung des BGH bzgl. verschiedener Legal-Tech-Software heran. In seinem "Smart-Law" Urteil hatte der BGH (im Gegensatz zur erstinstanzlichen Entscheidung des LG) den Vertragsgenerator nicht als Rechtsdienstleistung i.S.d. RDG eingestuft, denn die Software sei nur anhand einer Vielzahl diverser typischer Konstellationen programmiert worden. Die ausgespuckten Vertragsklauseln würden nur zu einem Gesamtvertragswerk kombiniert, ohne dass vom Nutzer tatsächlich eine konkrete Prüfung des Einzelfalles vorgenommen und erwartet werde.
Dies sei bei GPT anders. GPT könne nicht nur Antworten auf abstrakte Rechtsfragen liefern, sondern konkrete Rechtsfragen beantworten. So kann man GPT einen Sachverhalt unterbreiten und bekommt eine rechtliche Einschätzung dazu, dessen Antworten durch das Rückfragen beim System weiter verfeinert und noch präziser auf den konkreten Fall zugeschnitten werden. Die Antworten sind je nach Rechtsgebiet und Komplexität noch nicht "perfekt", wobei es hier allerdings auf das zur Verfügung gestellte Trainingsmaterial ankommt.
Er kommt jedenfalls zum Ergebnis, dass GPT eine Rechtsdienstleitung i.S.d. RDG anbietet, LLM-Programme zukünftig immer besser werden und insbesondere deutlich schneller und präziser als RAe Rechtsfragen beantworten werden können. Da das RDG nicht den Berufsstand der Anwaltschaft schützt, sondern den Rechtssuchenden und die Rechtsordnung schützen soll, stellt sich die Frage, was das für die Anwaltschaft bedeutet. Der Autor plädiert vor diesem Hintergrund für eine Reform des RDG und sieht die Rolle des Anwalts eher als "trusted advisor".
2. Der Artikel im Anwaltsspiegel, knapp 9 Monate später, ist allerdings sogar deutlich destruktiver (ja hoffnungsloser) formuliert:
https://www.deutscheranwaltspiegel.de/an...enz-33742/
Jetzt wirft sich schon die Frage auf, was den Autor bewegt hat, innerhalb von knapp 9 Monaten zu einer noch negativeren Neubewertung zu gelangen. Ich gehe davon aus, dass LLM-Programme, wenn diese genügend Material bekommen (Urteile, Kommentare und insbesondere Sachverhaltskonstellationen), erstaunlich gute Antworten/Drafts etc liefern kann. Dies wird bei Lindenpartners (oder von denen beauftragen Unternehmen) gerade durchgeführt bzw das Programme "antrainiert".
3. @guga: Es mag sein, dass viele mehr oder minder einfachere oder schwerere Rechtsfragen auch via Google und Openjur gelöst werden können. Das Problem ist ja: das kostet verdammt viel Zeit und bedarf juristischen Verständnis (auch bzgl der Fachtermini) um sich durch ewig lange Urteile oder unverständlich frei zugängliche Rechtserläuterungen zu hangeln. Da gibt man dann auf (man ist ja nicht Jurist und hat einen anderen Job und Familie, sodass keine Zeit übrig bleibt, Stunden oder Tage das Inet oder Kommentare zu durchforsten). Und das ist mit GPT nicht mehr der Fall. Innerhalb von Sekunden bekommt man dort eine Antwort.
GPT liefert aber keine rechtliche Einschätzung, sondern eine auf mathematischer Kalkulation des nächsten richtigen Wortes (vereinfacht) basierende (d.h. anhand des Trainingsmaterials), sprachlich möglichst menschliche Antwort.
25.02.2024, 18:03
Deshalb sollte eine RAK klagen um Rechtssicherheit zu schaffen. Wobei bei einem etwaigen Obsiegen der RAK der zitierte Autor jedenfalls für eine Reform des RDG aus o.g. Gründen plädiert. Würde keine Reform erfolgen, käme das RDG einem Vehikel zum Schutz der RAe vor KI gleich und verwehre den Verbrauchern den Zugang zu einfacheren, kostengünstigerer und schnelleren Lösungen ihrer Rechtsprobleme. Das Anwaltsmonopol habe damit ausgedient.
25.02.2024, 19:25
Das wirkt vor allem auf mich so, dass Lindenpartners gerne eine LLM verkaufen will. Das erklärt zumindest die Lobbyartikel der Kanzlei.
25.02.2024, 19:36
(25.02.2024, 18:03)nachdenklich schrieb: Deshalb sollte eine RAK klagen um Rechtssicherheit zu schaffen. Wobei bei einem etwaigen Obsiegen der RAK der zitierte Autor jedenfalls für eine Reform des RDG aus o.g. Gründen plädiert. Würde keine Reform erfolgen, käme das RDG einem Vehikel zum Schutz der RAe vor KI gleich und verwehre den Verbrauchern den Zugang zu einfacheren, kostengünstigerer und schnelleren Lösungen ihrer Rechtsprobleme. Das Anwaltsmonopol habe damit ausgedient.
Die Notwendigkeit besteht erst, wenn man ein entsprechendes Sprachmodell ("KI") als Rechtsberatung einstuft. Das halte ich hingegen für gewagt, da aus ihrer Natur heraus diese Modelle antrainierte Daten auf Grundlage mathematischer Faktoren neu anordnen. Das ist gerade keine rechtliche Beratung, weil keinerlei Würdigung, Einschätzung oder o.ä. stattfinden KANN.
25.02.2024, 21:21
@Ri: so richtig verstehe ich nicht, worauf du hinaus möchtest. Der BGH hat in seiner "smart-Law" Entscheidung über einen fest vorprogrammierten Vertragsgenerator von Wolters Kluwer entscheiden müssen, ob dies mit dem RDG vereinbar ist oder nicht. Kläger war die RAK HH. Warum sollte eine vergleichbare Klage nicht bzgl GPT bzw. vergleichbare LLM-Programme möglich sein, die in ihren Fähigkeiten deutlich über diesen Vertragsgenerator hinausgehen?
Des Weiteren geht aus den Podcasts vom DAV, LTO usw (Gäste sind Unternehmensjuristen, zB Head of Legal von Idealo oder RAe von GKs) hervor, dass GPT nicht nur für Drafts und Recherche genutzt wird, sondern gerade auch um eigene Argumente zu finden und Entscheidungen zu treffen bzw. Argumente des Gegners zu entkräften oder um wirtschaftliche oder rechtliche Risiken zu antizipieren.
Im Endeffekt kommt es natürlich auf die zur Verfügung gestellte Informations- /Datenmenge an und auf das "Training", sprich konkrete Nachfragen, Nachjustieren bis das das Ergebnis für den "Prompter" stimmig ist. Das merkt sich das LLM-Programm. Mal schauen wie viele Informationen/Daten schon in einem Jahr den Programmen zur Verfügung gestellt werden.
Wolters Kluwer und Juris haben ja angekündigt einen LLM-Chatbot mit Zugriff zur eigenen Kommentar- und Rechtsprechungsdatenbank der Öffentlichkeit kostenlos zur Verfügung stellen zu wollen.
@JaMie: das kann man sicherlich so sehen. Ich interpretiere dies eher dahingehen, dass dem Autor einfach durch die kontinuierliche Nutzung, Training und "Dattenfütterung" von "KI" (GPT) das Potential "vor Augen" geführt worden ist.
Des Weiteren geht aus den Podcasts vom DAV, LTO usw (Gäste sind Unternehmensjuristen, zB Head of Legal von Idealo oder RAe von GKs) hervor, dass GPT nicht nur für Drafts und Recherche genutzt wird, sondern gerade auch um eigene Argumente zu finden und Entscheidungen zu treffen bzw. Argumente des Gegners zu entkräften oder um wirtschaftliche oder rechtliche Risiken zu antizipieren.
Im Endeffekt kommt es natürlich auf die zur Verfügung gestellte Informations- /Datenmenge an und auf das "Training", sprich konkrete Nachfragen, Nachjustieren bis das das Ergebnis für den "Prompter" stimmig ist. Das merkt sich das LLM-Programm. Mal schauen wie viele Informationen/Daten schon in einem Jahr den Programmen zur Verfügung gestellt werden.
Wolters Kluwer und Juris haben ja angekündigt einen LLM-Chatbot mit Zugriff zur eigenen Kommentar- und Rechtsprechungsdatenbank der Öffentlichkeit kostenlos zur Verfügung stellen zu wollen.
@JaMie: das kann man sicherlich so sehen. Ich interpretiere dies eher dahingehen, dass dem Autor einfach durch die kontinuierliche Nutzung, Training und "Dattenfütterung" von "KI" (GPT) das Potential "vor Augen" geführt worden ist.
25.02.2024, 21:38
(25.02.2024, 21:21)nachdenklich schrieb: @JaMie: das kann man sicherlich so sehen. Ich interpretiere dies eher dahingehen, dass dem Autor einfach durch die kontinuierliche Nutzung, Training und "Dattenfütterung" von "KI" (GPT) das Potential "vor Augen" geführt worden ist.
Ich glaube eher, dass er darin ein Businessmodell gesehen hat und jetzt betreibt er PR, die natürlich sein Businessmodell stützt. Vielleicht ist er davon sogar überzeugt, kann sein, aber auf jeden Fall hat er allen Grund, die LLM-Modelle öffentlichkeitswirksam zu feiern.
Aber ernsthaft, wenn du so die nackte Panik vor LLMs hast, dann such dir doch einen Job, der sich damit beschäftigt und mit der Zeit geht...
25.02.2024, 22:09
Du kennst doch Papagaien, die Papagaien sagen manchmal Wörter, ohne dass sie überhaupt irgendeine Leise Ahnung haben, was diese bedeuten, sie wissen nur, dass wenn sie diesen Laut Formen, dass es einen Keks gibt. So ähnlich kann man sich LLMs vorstellen, bei LLMs findet kein Nachdenken statt, keine evaluieren, kein Hinterfragen. Sie rechnen nur aus, welche Buchstabenkette anhand ihrer Trainingsdaten am besten passen würde. Die LLMs selber haben gar keine Ahnung, was sie da überhaupt sagen (wie auch, sind ja nur Computerprogramme). Das heißt, der Usecase für diese LLMs ist einmal bei Recherche. Wenn die mit trainingsdaten und aktuellen Urteilen gefüttert werden ist das durchaus eine ordentliche Zeitersparnis, wenn man sich diese nicht vorher zusammensuchen muss. Problematisch wird es dann aber, wenn der Anwender der LLM selbst keine Ahnung hat. Wie oben bereits ausgeführt, rechnen sie lediglich aus, welche buchstabenkombination am wahrscheinlichsten ist. Wenn man jetzt aber eine konkrete Rechtsfrage hat, musst du folgendes bedenken. Derjenige der die frage stellt sollte rechtskundig sein, weil sonst hat man keine Chance zu sehen, ob der Papagei da gerade was falsches ausspuckt oder nicht. Wie ich schon bereits gesagt habe bin ich auf das Desaster gespannt, das irgendwann mal kommen wird, wenn irgendein Laie die Maschine was fragt, er davon nichts versteht, und das dann für irgendwas verwenden will. Die Maschine kann selbst nämlich auch nicht verifizieren ob das stimmt was sie sagt. Also mach dir mal keine allzugroßen Gedanken, bei großen gesellschaftsrechtsfragen musst du auch weiterhin über einer Lösung Knobeln, weil wenn du nicht drüber nachdenkst, was der Papagei dir da ausspuckt, kann es auch gut sein, dass du die bessere Lösung übersiehst.
26.02.2024, 20:40
@ JaMie: vielen Dank für deine Ausführungen. Das kann man durchaus so sehen. Wobei ich da anmerken würde, dass es - egal wie man LLM-Programme auch bezeichnen sollte - im Endeffekt nur auf das Resultat und nicht um den Begriff selbst ankommt ("KI" oder "nur" Programm anhand mathematischer Berechnung, welches Wort als nächstes logisch ist oder nicht).
Im aktuellen Podcast mit Osborne Clark wird auch ein Legal Engineer (Volljurist) interviewt. OC nutzt einen internen, mit eigenen Daten kontinuierlich trainierten GPT-Bot und hat u.a. auch prompting engineers eingestellt, die tatsächlich primär dazu da sind, die richtige Fragestellung bzw den richtigen Befehl zu "finden". Ein guter prompt wird dann gespeichert und dann auf Tasten o.ä. gebunden. "KI" wird u.a. für Datenschutz oder im Marken-/ Wettbewerbs- /Kartellrecht genutzt. So hat man einem Mandanten einen eigens entwickelten Chatbot generiert, der mit der eigenen "Policy" gefüttert wird und von Mitarbeitern des Mandanten zu o.g. Themen befragt werden kann, sodass diese schnell Antworten auf ihre Fragen bekommen. Angeblich halluziniert dieser Bot auch nicht.
Interessant ist mMn dabei Folgendes:
- auch bei OC gibt es laut dem Interviewpartner Anwälte und sonstige Mitarbeiter mit Sorgen "in 5 Jahren ersetzt" zu werden
- Anhand der Antworten des OC-RA lässt sich schließen, dass OC sich aktuell (und bestimmt auch andere GKs oder MKs) auf eine wackelige Gratwanderung begibt, einerseits KI als Produkt an Mandanten zu verkaufen (Unternehmen), andererseits sich dadurch allerdings zukünftig nicht selbst obsolet zu machen.
Im aktuellen Podcast mit Osborne Clark wird auch ein Legal Engineer (Volljurist) interviewt. OC nutzt einen internen, mit eigenen Daten kontinuierlich trainierten GPT-Bot und hat u.a. auch prompting engineers eingestellt, die tatsächlich primär dazu da sind, die richtige Fragestellung bzw den richtigen Befehl zu "finden". Ein guter prompt wird dann gespeichert und dann auf Tasten o.ä. gebunden. "KI" wird u.a. für Datenschutz oder im Marken-/ Wettbewerbs- /Kartellrecht genutzt. So hat man einem Mandanten einen eigens entwickelten Chatbot generiert, der mit der eigenen "Policy" gefüttert wird und von Mitarbeitern des Mandanten zu o.g. Themen befragt werden kann, sodass diese schnell Antworten auf ihre Fragen bekommen. Angeblich halluziniert dieser Bot auch nicht.
Interessant ist mMn dabei Folgendes:
- auch bei OC gibt es laut dem Interviewpartner Anwälte und sonstige Mitarbeiter mit Sorgen "in 5 Jahren ersetzt" zu werden
- Anhand der Antworten des OC-RA lässt sich schließen, dass OC sich aktuell (und bestimmt auch andere GKs oder MKs) auf eine wackelige Gratwanderung begibt, einerseits KI als Produkt an Mandanten zu verkaufen (Unternehmen), andererseits sich dadurch allerdings zukünftig nicht selbst obsolet zu machen.
13.03.2024, 20:35
Joint-Venture zweier Mittelstands-StBUnternehmen und Aleph Alpha bzgl eines KI-Tools für Unternehmen.
Falls vergleichbares nicht längst schon auch für die klassische Rechtsberatung entwickelt wird, dann wird jedenfalls nicht allzu viel Zeit vergehen, bis man entsprechendes angeht.
https://www.juve-steuermarkt.de/meinung/...-ueber-ki/
Zusammenfassung:
Das o.g. Jointventure hat einen KI-Chatbot für Steuerabteilungen von Unternehmen maßgeschneidert. Der Chatbot ist mit Fachliteratur und Urteilen gefüttert und lässt sich in das jeweilige Unternehmen implementieren und als eine Art Baukasten auf die verschiedene Bedürfnisse zuschneiden (ohne Programmier-/Codingwissen) und mit eigenen Daten speisen. Die Daten werden datenschutzkonform gespeichert. Der Chabot hat eine "Reverse-Prompting" Funktion, um den Sachverhalt vollständig ermitteln zu können, d.h. der Chatbot stellt konkrete Nachfragen, um das Ergebnis zu optimieren. Ferner wird nicht nur das Ergebnis gezeigt, sondern auch der "Weg" zum Ergennis aufgestellt mitsamt Quellenangabe. Es gibt eine Art "Prompting-Bibliothek", in der schon viele wichtige Prompts gespeichert sind und die immer erweitert werden kann.
Der Artikel hebt hervor, dass reine Wissensvermittlung (bspw. via Gutachten) nicht mehr ausreichen wird, um Mandate zu akquirieren. Gerade größere Beratungsgesellschaften und Anwaltskanzleien würden durch dieses Tool massiv unter Druck geraten. Unternehmen werden somit unabhängiger von äußerer Beratung. Als Beispiel werden neben der klassischen Steuerberatung auch die juristisch hochkomplexen steuerrechtlichen Gutachten von GKs genannt, bei denen der Mandant sehr viel Geld zahlen musste, mit der anschließenden Umsetzung des Gutachtens mehr oder minder allein gelassen wurde. Dies wird so nicht mehr möglich sein, weil entsprechendes Wissen nun per "prompt" vorhanden sei.
Edit: das hat zwar nichts mit Jura zu tun, aber mit KI ---> gestern wurde der erste AI Software Engineer "Devin" announced. Zu was der fähig ist, kann man sich bspw. hier anschauen
https://www.youtube.com/watch?v=1RxbHg0Nsw0
Falls vergleichbares nicht längst schon auch für die klassische Rechtsberatung entwickelt wird, dann wird jedenfalls nicht allzu viel Zeit vergehen, bis man entsprechendes angeht.
https://www.juve-steuermarkt.de/meinung/...-ueber-ki/
Zusammenfassung:
Das o.g. Jointventure hat einen KI-Chatbot für Steuerabteilungen von Unternehmen maßgeschneidert. Der Chatbot ist mit Fachliteratur und Urteilen gefüttert und lässt sich in das jeweilige Unternehmen implementieren und als eine Art Baukasten auf die verschiedene Bedürfnisse zuschneiden (ohne Programmier-/Codingwissen) und mit eigenen Daten speisen. Die Daten werden datenschutzkonform gespeichert. Der Chabot hat eine "Reverse-Prompting" Funktion, um den Sachverhalt vollständig ermitteln zu können, d.h. der Chatbot stellt konkrete Nachfragen, um das Ergebnis zu optimieren. Ferner wird nicht nur das Ergebnis gezeigt, sondern auch der "Weg" zum Ergennis aufgestellt mitsamt Quellenangabe. Es gibt eine Art "Prompting-Bibliothek", in der schon viele wichtige Prompts gespeichert sind und die immer erweitert werden kann.
Der Artikel hebt hervor, dass reine Wissensvermittlung (bspw. via Gutachten) nicht mehr ausreichen wird, um Mandate zu akquirieren. Gerade größere Beratungsgesellschaften und Anwaltskanzleien würden durch dieses Tool massiv unter Druck geraten. Unternehmen werden somit unabhängiger von äußerer Beratung. Als Beispiel werden neben der klassischen Steuerberatung auch die juristisch hochkomplexen steuerrechtlichen Gutachten von GKs genannt, bei denen der Mandant sehr viel Geld zahlen musste, mit der anschließenden Umsetzung des Gutachtens mehr oder minder allein gelassen wurde. Dies wird so nicht mehr möglich sein, weil entsprechendes Wissen nun per "prompt" vorhanden sei.
Edit: das hat zwar nichts mit Jura zu tun, aber mit KI ---> gestern wurde der erste AI Software Engineer "Devin" announced. Zu was der fähig ist, kann man sich bspw. hier anschauen
https://www.youtube.com/watch?v=1RxbHg0Nsw0
16.03.2024, 11:27
Analyse des AI Center of Excellence, Onit Inc. Auckland New Zealand über die aktuellen und zukünftigen Fähigkeiten von KI im Rechtsdienstleistungsbereich. Der Bericht wurde von Juristen, Legal-Engineers und Data Analysten verfasst.
https://arxiv.org/html/2401.16212v1?
ich zitiere teilweise aus der "conclusion":
https://arxiv.org/html/2401.16212v1?
ich zitiere teilweise aus der "conclusion":
Zitat:The implications of this research on the legal industry are profound and multifaceted. We believe LLMs are already at a point where they can significantly disrupt LPOs. Our research shows LLMs are as accurate, yet faster and more cost-effective at the tasks LPOs are typically engaged in. There is little doubt that broad adoption of LLMs will lead to a significant shift in the LPO business model. [...] While our research does not explore a broad enough spectrum of the capabilities performed by Junior Lawyers to establish a one to one comparison, it does indicate that LLMs are already outperforming Junior Lawyers in specific areas. We believe the partial adoption of LLMs will begin to reduce the demand for entry-level legal positions, as they are currently defined, over time.
[...].
Despite the potential for controversy and litigation, given the regulatory landscape of the legal profession, genuine resistance to LLM adoption may be less about the validity of the technology—as evidenced by our research—and more about protecting established interests. Such opposition could be perceived as a strategic manoeuvre to maintain the status quo rather than a genuine concern for the practical or ethical shortcomings of AI in legal practice, this, of course, would run counter to the industry wide pursuit for greater access to justice, and potentially effect trust in the legal sector.