Pechar anuncio

A finais da semana pasada, informámosvos dunha novidade bastante interesante, que é un novo sistema de detección de imaxes que representan o maltrato infantil. En concreto, Apple escaneará todas as fotos almacenadas en iCloud e, en caso de detectarse, informará destes casos ás autoridades competentes. Aínda que o sistema funciona "con seguridade" dentro do dispositivo, o xigante aínda foi criticado por violar a privacidade, o que tamén foi anunciado polo popular denunciante Edward Snowden.

O problema é que Apple confiou ata agora na privacidade dos seus usuarios, que quere protexer en todas as circunstancias. Pero esta noticia perturba directamente a súa actitude orixinal. Os produtores de mazá enfróntanse literalmente a un feito consumado e teñen que escoller entre dúas opcións. Ou terán un sistema especial para escanear todas as imaxes almacenadas en iCloud, ou deixarán de usar as fotos de iCloud. Entón todo funcionará de forma sinxela. O iPhone descargará unha base de datos de hashes e despois compararaos coas fotos. Ao mesmo tempo, tamén intervirá nos informativos, onde se supón que debe protexer aos nenos e informar oportunamente aos pais sobre comportamentos de risco. A preocupación vén entón do feito de que alguén podería abusar da propia base de datos, ou peor aínda, de que o sistema podería non só escanear fotos, senón tamén mensaxes e toda a actividade, por exemplo.

Apple CSAM
Como funciona todo

Por suposto, Apple tivo que responder ás críticas o máis rápido posible. Por este motivo, por exemplo, lanzou un documento de preguntas frecuentes e agora confirmou que o sistema só escaneará fotos, pero non vídeos. Tamén o describen como unha versión máis amigable coa privacidade que a que están a usar outros xigantes tecnolóxicos. Ao mesmo tempo, a empresa da mazá describiu aínda con máis precisión como funcionará todo. Se hai unha coincidencia ao comparar a base de datos coas imaxes de iCloud, créase un vale criptográficamente seguro para iso.

Como xa se mencionou anteriormente, o sistema tamén será relativamente fácil de evitar, o que foi confirmado directamente por Apple. Nese caso, simplemente desactive Fotos en iCloud, o que facilita evitar o proceso de verificación. Pero xorde unha pregunta. Paga a pena? En calquera caso, a noticia brillante segue sendo que o sistema se está a implementar só nos Estados Unidos de América, polo menos polo momento. Como ves este sistema? Estarías a favor da súa introdución nos países da Unión Europea, ou é unha intromisión excesiva na privacidade?

.