General

Apple cancela planes para la herramienta de detección de CSAM para iCloud Fotos

Apple Privacidad

El miércoles pasado, Apple anunció que no avanzará con su herramienta de detección de material de abuso sexual infantil ( CSAM ) propuesta anteriormente para iCloud Fotos. La controvertida herramienta habría permitido a Apple verificar iPhones, iPads y iCloud Photos para CSAM. Pero los críticos se opusieron a la función debido a sus graves implicaciones en la privacidad.

Apple no avanza con la herramienta de detección de CSAM para fotos de iCloud

En un comunicado de Apple enviado a Wired, Apple dijo que hay otras formas de proteger a los niños que no requerirán que las empresas revisen los datos personales. Cupertino aseguró que seguirá trabajando con los gobiernos, los defensores de los niños y otras empresas para ayudar a proteger a los jóvenes y preservar su derecho a la privacidad. Por lo tanto, al hacerlo, Apple espera hacer de Internet un lugar más seguro no solo para los niños sino también para todos.

Mirando hacia atrás cuando Apple anunció por primera vez la herramienta CSAM para fotos de iCloud en 2021, esperaba ayudar a combatir la explotación infantil y promover la seguridad. Estos son problemas urgentes que la comunidad tecnológica deseaba abordar. Sin embargo, después de recibir una ola de críticas de varios defensores de la privacidad, Apple tuvo que detener la implementación de la herramienta CSAM para iCloud. Según Apple, «llevaría más tiempo en los próximos meses recopilar información y realizar mejoras antes de lanzar estas características de seguridad infantil de importancia crítica«.

Apple sigue preocupada por el CSAM

El anuncio del miércoles indica que Apple está abandonando la implementación de la herramienta, al menos por ahora. Sin embargo, eso no quiere decir que Cupertino esté descuidando por completo la defensa de la seguridad. En lugar de la herramienta CSAM, Apple se está reenfocando en su función de Seguridad de las comunicaciones, que estuvo disponible por primera vez en diciembre de 2021. Dicha herramienta de Seguridad de las comunicaciones sería una función de control parental opcional que advertirá a los menores y a sus padres cuando los archivos adjuntos entrantes o enviados en iMessage sean sexualmente explícito. Si es así, Apple los desdibujará.

La declaración reciente de Apple sobre sus planes de no reenviar con la herramienta CSAM para iCloud vino junto con el anuncio de varias funciones de seguridad nuevas. Más particularmente, Apple dijo que traerá el cifrado de extremo a extremo de los datos de iCloud. Estos incluirían copias de seguridad, fotos, notas, historiales de chat y otros servicios. La función, llamada Protección de datos avanzada, permitirá a los usuarios mantener ciertos datos seguros de piratas informáticos, gobiernos y espías.

Sin embargo, la Protección de datos avanzada también recibió algunas reacciones negativas del gobierno, particularmente del FBI, que expresó su profunda preocupación por la nueva función.

Categoría
General

Dí mi primer muerdo a una manzana con 10 años CEO de mecambioaMac

Deja una respuesta

*

*