| Thema: |
|
||
| Autor: | FS | ||
| Datum: | 14.02.23 10:37 | ||
| Antwort auf: | Precht und Lanz reden über ChatGPT von futzi | ||
ChatGPT berechnet lediglich basierend auf seiner irren großen Trainingsdatei die höchste Wahrscheinlichkeit wie das nächste Wort (!) basierend auf der Frage lauten muss und danach das nächste Wort. Dass dabei so intelligent wirkende Sätze rauskommen und auch oft korrekte Antworten, liegt daran dass echte Menschen irgendwann irgendwo die korrekten Antworten bereits auf gleiche oder sehr ähnliche Fragen gaben und ChatGPT findet dann immer mehr Übereinstimmungen in seiner Trainingsdatei bis zu dem Punkt wo es fast 1:1 einen Artikel, Programmiercode oder Wikipediaeinträge zitiert. Gilt auch für Bilder erzeugende AI bei der man klar die "Handschrift" von existenten Künstlern findet. So findet man nicht selten Stockfoto tags in den Bildern weil die so oft in den Trainingsdateien vorkamen dass dieses Pixelmuster als das wahrscheinlichste wegen höchster Übereinstimmung repliziert wird. ChatGPT versteht, egal was es antwortet, nicht einmal mal rudimentär was es da gerade inhaltlich schreibt. Es hat keinerlei Bewusstsein, keinerlei konzeptionelles Verständnis oder übergreifendes Allgemeinwissen. Es kann nichts einschätzen, grob überschlagen, auf Plausibilität überprüfen. Es kann nur Wahrscheinlichkeiten basierend auf Trainingsdaten berechnen. Darum finden sich ja auch so viele Vorurteile, Bias, häufige menschliche Fehler und andere Probleme in ChatGPT und anderer AI die sich hartnäckig hält. Der Grund ist eher banal. Input Kacke=>Output Kacke. Wenn z.B. in der Trainingsdateien die rassistische Vorurteile mitschwingen (z.B. bei Gerichtsurteilen welche bei gleichen Delikten gerade in USA im Schnitt härter für schwarze Angeklagte ausfallen) dann wird der Output bei Anfragen basierend auf der Wahrscheinlichkeit der Übereinstimmung mit genau diesen Daten ebenfalls rassistische Vorschläge machen (darum ist KI gestützte Rechtsprechung ein Problem). Das ist auch der Grund warum Leute mit sehr abweichenden Meinungen vom Mainstream sich unterdrückt fühlen, weil ChatGPT z.B. beim Thema Klimawandel, egal wie oft man es fragt, immer die Lehrmeinung von 99% der Wissenschaft ausspucken wird und nie auf die "Sonnenflecken" und sonstige widerlegte Theorien nennenswert eingehen. Schlicht weil es dazu mehr Übereinstimmungen in den Trainingsdaten gibt. Das größte Problem bei künstlicher Intelligenz ist die Qualität der Trainingsdaten und wer diese auswählt. Das verändert dann den Output. Nicht das neuronale Netz selber, das hat keine Agenda und kein Bewußtsein oder Willen. |
|||
| < antworten > | |||