Privacidad: Apple retrasa el lanzamiento del sistema para detectar contenido pedófilo cargado desde iPhones y iPads |  Tecnología

Apple anunció hoy que está retrasando la implementación de las nuevas medidas para proteger a los niños que anunció a principios del pasado mes de agosto. Entre ellos, el más controvertido fue el escaneo automático de todas las imágenes subidas a la nube desde iPhones y iPads, los populares modelos de teléfonos y tabletas comercializados por la compañía, para detectar imágenes de contenido pedófilo o de abuso infantil. Esta iniciativa se iba a implementar en los Estados Unidos a finales de este año. La rectificación se produce después de que la empresa recibiera múltiples críticas por parte de grupos y activistas que defendían la privacidad en internet, quienes consideraban que el supuesto remedio era incluso peor que el mal que pretendía abordar.

Más información

La empresa ha añadido a la página donde anunció las medidas un encabezado comunicando su suspensión. “Anteriormente anunciamos planes con nuevas características diseñadas para ayudar a proteger a los niños de los depredadores sexuales que usan herramientas de comunicación para reclutarlos y explotarlos, y para ayudar a limitar la propagación de material de abuso sexual infantil. Teniendo en cuenta los comentarios de clientes, organizaciones legales, investigadores y otros, hemos decidido tomarnos más tiempo durante los próximos meses para recopilar información y hacer mejoras antes de lanzar estas medidas de seguridad infantil extremadamente importantes ”, se lee en la nota.

Con las primeras críticas, la empresa se había esforzado por explicar que el método elegido apenas interfería con la privacidad de los usuarios. El procedimiento propuesto asumía que cada vez que una foto tomada desde un dispositivo Apple se cargaba en la nube, automáticamente cruzaría su picadillo (una especie de registro de los archivos comprimidos) con el de una lista de contenidos ya identificados como pedófilos. En el caso de una coincidencia, se enviaría un aviso a Apple y un empleado revisaría los archivos y, en su caso, se suspendería la cuenta del usuario y se notificaría a las autoridades.

Sin embargo, estas explicaciones no satisfizo a los grupos de privacidad. Consideraron que, si bien su propósito era loable, una vez activadas estas funcionalidades era solo cuestión de tiempo antes de que fueran utilizadas para otros fines, como la persecución de la disidencia en países autoritarios o simplemente la vigilancia extrema de cualquier ciudadano. A mediados de agosto, decenas de organizaciones escribieron una carta abierta al director ejecutivo de Apple, Tim Cook, para su rectificación. “Si bien estas funciones están destinadas a proteger a los niños y reducir la propagación de material de abuso sexual infantil, nos preocupa que se utilicen para censurar el discurso protegido, amenacen la privacidad y la seguridad de las personas en todo el mundo y, en última instancia, tengan consecuencias desastrosas para muchos niños ”, señalaron los grupos en la carta.

Los firmantes también manifestaron su preocupación por otra medida anunciada que, según el mensaje publicado hoy por Apple, también ha sido suspendida: un sistema de seguimiento de las comunicaciones de los menores en la aplicación iMessage a través de la denominada aprendizaje automático (aprendizaje automático). La idea es que se envíe una alerta a los padres cuando se detecte que un menor está intercambiando contenido explícito. Según los grupos de defensa de la privacidad, esta iniciativa podría amenazar la seguridad y el bienestar de algunos jóvenes, especialmente el grupo LGTBI + con padres poco comprensivos.

Puedes seguir a EL PAÍS TECNOLOGÍA en Facebook y Gorjeo o regístrate aquí para recibir nuestro boletín semanal.

Por admin

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *