In der Zeitschrift für Erbrecht und Vermögensnachfolge erschien ein Aufsatz von Prof. Dr. Lange zum Thema: "Pflichten des Erben bei angeordneter Testamentsvollstreckung - Was meint ChatGPT dazu?" Leider beantwortete er nicht nur die juristische Frage aus seinem Fachgebiet, sondern wollte wohl aufzeigen, wie dumm ChatGPT ist. Dabei unterliefen ihm leider schwere methodische Fehler.
1. Der Autor teilte mit, was er eingegeben hat und was ChatGPT als Antwort geliefert hat. Leider hat er die Eingabe nicht wiederholt. ChatGPT hat in der Standardeinstellung eine Zufallskomponente. Bei jeder Wiederholung der Eingabe kommt ein ganz anderes Ergebnis. Es genügt also nicht, ein Ergebnis mitzuteilen und sich daran "abzuarbeiten".
Der prompt lautete: "Wie sind die Rechte und Pflichten des Erben während der Testamentsvollstreckung geregelt und welche Möglichkeiten haben sie, sich gegen die Entscheidungen des Testamentsvollstreckers zur Wehr zu setzen?" - Bezieht sich diese Frage eigentlich auf deutsches Recht?
2. Der Autor wundert sich, dass ChatGPT den Inhalt eines Paragrafen falsch wiedergibt. Dieses Phänomen ist als Halluzination gut bekannt. Die Antworten von ChatGPT sollen nicht richtig sein, sie sollen gut klingen.
Die Fragen, was ChatGPT ist und wie intelligent etwas ist, was man gern als künstliche Intelligenz bezeichnet, liegt auf dem Gebiet der Informatik und hätte wohl auch dort aus beantwortet werden sollen.
Keine Kommentare:
Kommentar veröffentlichen