Thema:
Re:Hui: Boston Dynamics - Es geht langsam los flat
Autor: FS
Datum:12.10.18 11:11
Antwort auf:Re:Hui: Boston Dynamics - Es geht langsam los von ChRoM

>>Roboter werden irgendwann den Menschen, physisch sowie evtl. psychisch überlegen sein. Wenn sie dann auch noch sowas wie ein Selbstbewusstsein entwickeln dann war es das mit der Menschheit...
>
>Was mir am meisten Sorge macht, ist das gering ausgeprägte Risikobewusstsein vieler Beteiligter. Ich hab letztens Joseph Sirosh interviewt, bei MS Liter der KI-Forschung. Der wischt sämtliche Bedenken beiseite mit den Worten: Die Kritiker wie Elon Musk sollten mal lieber Leute fragen, die sich auskennen. Wir wissen gar nicht, wie das Gehirn funktioniert, insofern können wir es auch nicht nachbauen und was wir heute als KI bezeichnen ist im Endeffekt auch nur sehr komplizierte Software, hat aber mit Intelligenz nix zu tun, daher auch keine Gefahr.
>
>Nun mag er in Hinblick auf Machine Learning damit ja Recht haben. Nur ist das ja nur ein Zwischenschritt und nicht das Endziel, wo wir hinwollen. Und dass auch selbstlernende Alogrithmen sich in ungewünschte Richtungen entwickeln können, haben wir ja auch schon oft genug gsehen. Und wir sind laufen dabei, den Dingern immer wichtigere Aufgaben zu übertragen...


Beide Seiten haben Recht. Ja, wir sind meilenweit davon entfernt ein künstliches Gehirn zu haben. Künstliche Neuronale Netze/Deep Learning/KI wie wir sie heute haben ist ganz krass gesagt nur eine Mustererkennungsroutine. Man kann aus einem Menge Beispieldaten ein "Extrakt" ziehen welches alle Daten gemein haben.

[https://www.heise.de/ct/zcontent/16/06-hocmsmeta/1458191210995647/contentimages/atr_Netz_FL_mtk_IG.jpg]

Danach kann man das "Extrakt" verwenden um neue Daten zu erzeugen die den Beispielsdaten ähnlich sehen oder andere Daten damit vergleichen und feststellen ob diese den Beispielsdaten ähnlich sehen. Das wars. Das reicht aber für eine Menge Sachen. Damit kann man selbstfahrende Autos machen, Musik, Bilder, Sprache erkennen und künstlich erzeugen etc.

Das reicht auch um einen Killerroboter zu bauen der Gesichter von Zielen erkennt, verfolgt und vernichtet.

Da die Maschine aber keinen eigenen Willen hat und kein Bewußtsein haben wir eine viel größere Gefahr als ein Skynet das selber Entscheidungen fällt und zwar Menschen welche mächtige KI System mit unzureichenden Befehlen füttern. Die menschliche Fehler die ständig und überall in jeder Branche passieren bekommen durch KI und mächtige KI Maschinen eine Hebelwirkung. DAS ist die Gefahr. Ein falscher Befehl an KI Systeme an der Börse kann einen Börsencrash erzeugen. Ein falscher Befehl an einen KI Killerroboter kann Massentötungen zur Folge haben.

Hier sehe ich die große Gefahr. Die Gefahr eines selbstständig denkende und entscheidenden Computergehirns welche die Menschen vernichten will a la Skynet ist in der Tat noch sehr sehr ferne Fiktion. Ist aber auch gar nicht nötig um sich wegen KI Sorgen zu machen.


< antworten >