Apple und CSAM - richtig oder falsch?
Apple steht gerade ziemlich in der Kritik wegen ihrem Vorstoß, lokal auf dem Smartphone nach Bildern zu scannen, bei denen es sich um CSAM (Child Sexual Abuse Material) handeln könnte. Apple Child Safety Webseite.
Sobald das überprüfte Bild einen bestimmten Schwellenwert überschritten hat, werden die zuständigen Behörden informiert. Apple ist bekannt dafür, in vielen Fällen das Richtige zu tun (Spoiler: Apple-Fanboy hier), sind allerdings viele besorgt, dass dieses der erste Schritt ist, der den Behörden einen Fuß in der Tür gibt, die bisher als gut verschlossen und geschützt angesehen wurde. Auch scheint es, dass es für Apple danach schwieriger werden wird, ihre Anti-FBI-Backdoor-Haltung weiter aufrecht zu halten.
Mehr Infos bei The Verge.
Beitrag 9 der #100DaysToOffload Herausforderung.
💬 Suchst du die Kommentare? Sorry!
Ich habe keine Kommentare auf dieser Seite, weil ich keine Lust habe, sie zu verwalten. Du kannst mich stattdessen aber gerne anderweitig kontaktieren.
Du darfst auch diesen Inhalt gerne teilen, damit ihn auch andere finden und lesen können. Vielen Dank.
Letzte Aktualisierung am 09 Aug, 2021 13:29