Gestern, 20:44
(Gestern, 10:00)nachdenklich schrieb:(Gestern, 07:45)Äfes schrieb:(Gestern, 00:31)Egal_ schrieb: Ich habe heute die Beck-Online KI befragt. Die Antwort klang sehr gut und hätte man so doch glatt verwenden können, wenn sie nicht falsch gewesen wäre![]()
Das, was sie geschrieben hat, fand sich in der Fundstelle nicht wieder, wurde einfach von ihr hinzugedichtet und war darüber hinaus nachweislich falsch.
Ich glaube, ich verlasse mich bei meiner Recherche wohl doch erstmal weiterhin nur auf mich selbst.
Hatte auch vor kurzem einen Schriftsatz einer Privatperson im Verfahren, der mich auch vermuten lässt, dass er einfach die Akte in ChatGPT geladen und um eine Stellungnahme gebeten hat. Las sich alles super und sinnvoll, bis man mal in die angegebenen Paragraphen geschaut und gemerkt hat, dass es den angegebenen Absatz 2 darin überhaupt nicht gibt und auch sonst völlig andere Dinge drin stehen, als angegeben. Gleiches galt im Hinblick auf die zitierte Rechtsprechung.
Ist dann auch ein riesen Aufwand dagegen zu argumentieren, weil man immer prüfen muss, ob nicht doch was dazu in dem Urteil steht oder nicht doch irgendjemand in irgendeinem Kommentar was ähnliches aus dem Paragraphen rausliest oder vielleicht auch nur der Paragraph verwechselt wurde...
Hast du in deiner Replik den Gegner in einer Art "Obiter Dictum" oder jedenfalls in einem Nebensatz auf deine Vermutungen hingewiesen? ;-)
Nein, in einem Hauptsatz und klar gesagt, dass es schwierig ist, gegen erfundene Rechtsprechung und Paragraphen zu argumentieren.
War aber auch kein wirklicher Gegner, sondern der Schuldner in einer Zwangsverwaltung, der die Aufhebung der ZV erreichen wollte
Gestern, 21:39
(Gestern, 09:36)nachdenklich schrieb: "Frag den Grüneberg" bzw Putzo dürften mit großer Sicherheit auf einer - im Vergleich zu aktuellen LLMs - älteren und somit schwächeren KI beruhen.
Und zu GPT: große Sprachmodelle haben das Problem, dass sie nicht ausschließlich mit Fachliteratur/Urteile/Aufsätze usw trainiert, sondern mit vielen Milliarden (für Jura) unnützes Wissen/Daten gespeist wurden. Gleichzeitig mit Materialien vieler Sprachen. Dies wirkt sich auf Halluzinationsrisiken aus.
große Sprachmodelle haben den Vorteil, dass sie nicht ausschließlich mit Fachliteratur/Urteile/Aufsätze usw trainiert, sondern mit vielen Milliarden (für Jura) hilfreichem Wissen/Daten gespeist wurden. Gleichzeitig mit Materialien vieler Sprachen. Dies wirkt sich positiv auf Halluzinationsrisiken aus.