Apple scannt ALLE von Benutzern in iCloud hochgeladenen Fotos

Apple scannt ALLE von Benutzern in iCloud hochgeladenen Fotos

Apple Ich habe damit begonnen, alle von iPhone-, iPad-, iPod Touch- und Mac-Benutzern in iCloud hochgeladenen Bilder zu scannen. Die Ankündigung wurde während der CES 2020 von einem der Manager des amerikanischen Unternehmens gemacht.

Die Entscheidung von Apple, alle auf iCloud hochgeladenen Bilder zu analysieren, basiert auf dem Ziel herauszufinden, welche davon Inhalte enthalten, die darauf hindeuten könnten, dass Minderjährige für sexuelle Zwecke ausgebeutet werden.

Apple gibt an, mithilfe künstlicher Intelligenz solche Bilder zu erkennen, die in iCloud hochgeladen werden, und solche, die mit solchen Inhalten gekennzeichnet sind, werden von seinen Mitarbeitern auch analysiert.

„Apple setzt sich für den Schutz von Kindern im gesamten Ökosystem ein, wo auch immer unsere Produkte verwendet werden, und wir unterstützen weiterhin Innovationen in diesem Bereich.“ Wir haben auf allen Ebenen unserer Softwareplattform und in der gesamten Lieferkette starke Schutzmaßnahmen entwickelt. Im Rahmen dieses Engagements nutzt Apple Bildabgleichstechnologie, um die Ausbeutung von Kindern aufzudecken und zu melden. Wie E-Mail-Spamfilter verwenden unsere Systeme elektronische Signaturen, um mutmaßliche Kindesausbeutung zu erkennen. Wir validieren jedes Spiel durch eine individuelle Überprüfung. Konten mit Inhalten, die Kinder ausbeuten, verstoßen gegen unsere Nutzungsbedingungen und alle Konten, die wir mit diesem Material finden, werden deaktiviert.“

Apple benachrichtigt die Behörden, wenn es Bilder entdeckt, die darauf hindeuten könnten, dass es Kinder gibt, die sexuell ausgebeutet wurden, und alles geschieht, ohne dass die Person, die die Bilder hochlädt, dies tut.