| Thema: |
|
||
| Autor: | token | ||
| Datum: | 02.01.23 09:46 | ||
| Antwort auf: | Re:Finde es besser als jetzt von PoP | ||
>Angst war jetzt nicht wortwörtlich gemeint. Eher das ungute Gefühl das ich jetzt auf all möglichen Fragen nur EINE Antwort bekomme. Bei faktischen Fragen wie zb Alter und Geburtsort von Personen ist das kein Thema. Bei schwierigeren Fragen kann das aber schnell problematisch werden. > Bei jedem Handwerk das Recherche voraus setzt, ist der Handwerker auch ein Korrektiv für Recherchefehler. Bei dem Handwerk das ich ausübe gehört das Review eines weiteren Handwerkers über meine Entwürfe gar fest zum vorgeschriebenen Arbeitsprozess, aus gutem Grund. Es gibt also einerseits Lösungen im methodischen Vorgehen für solche Probleme, des weiteren sehe ich AI auch nicht als Single Point, denn natürlich wird eine Vielzahl von AIs werkeln und klassische Recherche ist als weiteres Korrektiv zur Verprobung weiterhin möglich. Ja, wir werden unsere Vorgehensmodelle anpassen müssen sobald wir solche Werkzeuge etabliert haben, aber das ist usual business, weil wir genau das eh ständig machen wenn es neue Entwicklungen und neue Werkzeuge gibt. >Ich denke nicht schwarz und weiß. Bin aber beunruhigt wenn ich den Hype sehe und es gibt eben viele (die Mehrheit) der Menschen die faul sind und dann eine AI für alles heranziehen. Dadurch wird das zu mächtig. > So wie es Menschen gibt die irgendwelche Telegram-Posts von Durchgeknallten nicht hinterfragen. Wie gesagt Grundsatzprobleme die nicht AI-Spezifisch sind, aber eben auch Probleme bei denen AI helfen könnte weil... >Wie genau soll es denn zur Lösung helfen? Um die Atombombe als Beispiel zu nehmen: wir haben jetzt eine größere und stärkere Atombombe erfunden. Die könnte potentiell alle Probleme lösen. > >Ich bin bei AI halt generell eher kritisch, da gibt es ja zwei Lager. Musk und co sind kritisch und es gibt die anderen die sagen da kann nichts schief laufen. so wie ich die Menschheit sehe haben wir es immer geschafft das es schiefläuft. > ...es nur ein weiteres Werkzeug ist, dass wie alle Werkzeuge Gefahren und Chancen birgt. Je nachdem wie man es einsetzt. Aktuell haben wir ein Problem mit dem Internet und dort generiertem Content, beispielsweise der gezielte Einsatz zur Propaganda der Menschen in sektenartige Gefilde treibt, die wiederum negativ auf die Gesamtgesellschaft durchschlagen und demokratische Prinzipien wie freie Rede exploiten mit dem Ziel Demokratie an sich von innen heraus auszuhöhlen. Hinter der Moderation dieser Inhalte steht eine menschlich kaum noch bewältigbare Masse und in der Erkennung solcher Inhalte eine gewisse Komplexität die normalerweise einen Menschen braucht. Heutige AI-Methodik ist aber genau darin supergut, du kannst sie trainieren Komplexitäten zu erkennen von denen man dachte, diese seien dem menschlichen Geist vorbehalten. Das wird gerade auf allen erdenklichen Ebenen eindrucksvoll widerlegt. AI kann sowas. Und sie kann auch andere Komplexitäten abbilden, bspw. sowas wie einen Faktencheck. Du kannst also die Moderation von solchen Inhalten viel effizienter unterstützend automatisieren, und diese Automatisierung kannst du im Gegensatz zum Menschen auch anforderungsbedingt mit Rechenpower skalieren. Freilich kommen mit solchen Instrumenten auch neue Probleme und Herausforderung auf die Welt, keine Frage. Aber das gehört wie gesagt eh integral zu den Erkenntnissen und Instrumenten die aus wissenschaftler Forschung heraus kommen, und gerade was AI angeht ist dieses Bewusstsein schon früh auf Schiene, so werden bspw. schon jetzt mögliche Gefahren oder ethische Probleme reflektiert obwohl die Maschinen dahinter noch im Embryo-Stadium sind. Das ist richtig und wichtig und wird ja selbst in der Privatwirtschaft so gehandhabt, dass auch ein gewinnorientierter Konzern wie Google sich proaktiv mit sowas beschäftigt ist in meinen Augen kein Warnsignal sondern ein gutes Zeichen dass das notwendige Verantwortungsbewusstsein für solche Entwicklungen vorhanden ist. >Wer jedem eine Atombombe in die Hand drückt lebt am Ende nicht mehr ;) Gütlicherweise sind derart mächtige Instrumente auch hochkompliziert und können (noch) nicht im Hobbykeller zusammengefrickelt werden. Könnten sie das, gäbe es uns schon nicht mehr. Sabine Hossenfelder hat zum Neujahrswechsel mal die Risikoeinwertungen für eine Auslöschung der Menschheit beleuchtet. AI war einer der 4 maßgeblichen Risikofaktoren, die Einwertung verlief aber äußerst kurz, da dahinter Komplexitäten stecken die kurz- und mittelfristig nur von wenigen Konzernen, Akademien oder Staaten abbildbar sind. Sprich, wenn du eine kompetentes intelligentes System hast, dann kostet es auch einen gehörigen Aufwand dieses überhaupt zu betreiben. Das allein macht das Gefahrenpotenzial nicht obsolet, aber eben zum usual business zu diversen anderen hohen Gefahrenpotenzialen die aus wissenschaftlichem Fortschritt entstehen. |
|||
| < antworten > | |||