Apple cancela planes para la herramienta de detección de CSAM para iCloud Fotos

Apple anunció que no avanzará con su herramienta de detección de material de abuso sexual infantil ( CSAM ) propuesta anteriormente para iCloud Photos debido a sus graves implicaciones en…

- ads -