Thema:
Re:Apples "CSAM" Funktion bringt mich ins Grübeln flat
Autor: Maxiplus (deaktiviert)
Datum:24.08.21 16:39
Antwort auf:Re:Apples "CSAM" Funktion bringt mich ins Grübeln von Phil Gates


>
>Wenn das wirklich so wäre, könnte ich damit leben. Aber ich habe auf meinem Handy natürlich eine ganze Reihe Nackedei-Bilder meiner eigenen Kinder beim Planschen im Planschbecken oder Pool, genau wie im Familienalbum solche Bilder von mir und meiner Schwester in dem Alter drin sind. Wir haben den Großen damals trocken bekommen, weil er im Urlaub nackt rumgelaufen ist (Tipp meiner Mutter). Auch bei meiner Tochter nutzen wir Schwimmwindeln nur, wenn es vorgeschrieben ist (öffentliches Schwimmbad o.ä.), die Dinger saugen sich voll und das arme Kind kann damit kaum rumlaufen. Daher in unserem eigenen Pool sicher nicht. Mein Sohn hat im Urlaub behauptet, er könne ohne Badehose besser schwimmen :-D Wie dem auch sei: es wäre ein ziemlich starkes Stück, wenn Apple solche, fürs Familienalbum gedachte Bilder scannen würde. Mal gespannt, wie das in der Praxis wirklich ausschaut.


Das wäre dann aber erst der nächste logische Schritt - KI-Erkennung von Nackedei-Bildern, die nicht bereits in der Database hinterlegt sind.
Wie dem auch sei - der Kinderschutz dient wie so oft nur als Vorwand zur Etablierung neuer Überwachungstechnologie. Wenn so eine Massnahme mal vom User akzeptiert worden ist, kann sie nach Belieben (der jeweiligen Regierungen) ausgeweitet werden. Vielleicht erwischt man ja tatsächlich eine Handvoll armseliger Trottel, die versehentlich CP in die Cloud hochladen wollen, aber das Risiko durch false positives oder Missbrauch für sinistre Zwecke kann das niemals wert sein.


Antworten nicht möglich, siehe Info neben Nickname