| Thema: |
|
||
| Autor: | Pat Bateman (deaktiviert) | ||
| Datum: | 15.02.23 15:16 | ||
| Antwort auf: | Input reflektiert Output von FS | ||
>Dass dabei so intelligent wirkende Sätze rauskommen und auch oft korrekte Antworten, liegt daran dass echte Menschen irgendwann irgendwo die korrekten Antworten bereits auf gleiche oder sehr ähnliche Fragen gaben und ChatGPT findet dann immer mehr Übereinstimmungen in seiner Trainingsdatei bis zu dem Punkt wo es fast 1:1 einen Artikel, Programmiercode oder Wikipediaeinträge zitiert. > >Gilt auch für Bilder erzeugende AI bei der man klar die "Handschrift" von existenten Künstlern findet. So findet man nicht selten Stockfoto tags in den Bildern weil die so oft in den Trainingsdateien vorkamen dass dieses Pixelmuster als das wahrscheinlichste wegen höchster Übereinstimmung repliziert wird. > >ChatGPT versteht, egal was es antwortet, nicht einmal mal rudimentär was es da gerade inhaltlich schreibt. Es hat keinerlei Bewusstsein, keinerlei konzeptionelles Verständnis oder übergreifendes Allgemeinwissen. Es kann nichts einschätzen, grob überschlagen, auf Plausibilität überprüfen. Es kann nur Wahrscheinlichkeiten basierend auf Trainingsdaten berechnen. Das beschreibt den derzeitigen Stand der Technik doch ganz gut. Das ganze KI-generierte Zeug hat noch nicht wirklich was mit Intelligenz zu tun, ich sehe das eher als Bruteforceansatz. Das Potential der Technik kann aber trotzdem riesig sein, vielleicht erleben wir in den nächsten Jahren wirklich eine kleine Revolution und man schafft den Sprung zum rudimentären Verstehen von Zusammenhängen. Gibt ja auch KI-Musik wo der random Reinhard Mey Hörer denkt "wow das klingt ja echt wie Beethoven" aber unter Musikerkollegen war dann doch recht schnell klar, dass es nicht "human" ist - wie denn auch ;) Chatgpt wird daher glaube ich ein bisschen überschätzt. |
|||
| Antworten nicht möglich, siehe Info neben Nickname | |||