Saltar al contenido
computerg

ūü•á Apple Retrasa El Escaneo De Fotograf√≠as De Abuso Infantil Planeadas Para IOS Quince

septiembre 3, 2021


Apple anunci√≥ el mes pasado una nueva pol√≠tica de seguridad infantil para escanear de manera autom√°tica las fotograf√≠as de los usuarios que procuran material de agresi√≥n sexual infantil (CSAM), lo que provoc√≥ quejas de los defensores de la privacidad y los usuarios por las violaciones de los derechos de privacidad y la posible explotaci√≥n por la parte del gobierno. Ahora Apple est√° retrasando el lanzamiento de la tecnolog√≠a para buscar comentarios ¬ęa lo largo de los pr√≥ximos meses¬Ľ ya antes de su lanzamiento completo.

Apple planificó previamente incluir su tecnología de escaneo CSAM y una política opcional complementaria para filtrar contenido sexual en iMessages para jóvenes en iOS quince y iPadOS quince, que se espera que se lancen así como el iPhone trece (incluyendo el rumoreado que desea que se revele en el mes de septiembre catorce). Conforme los informes, se puso on line en los E.U., sin planes establecidos para el despliegue global. Acá está la declaración completa de Apple sobre el retraso, por TechCrunch:

‚ÄúEl mes pasado, anunciamos planes de funciones para asistir a resguardar a los peque√Īos de los predadores que emplean herramientas de comunicaci√≥n para reclutarlos y explotarlos, y para limitar la propagaci√≥n de material de abuso sexual infantil. Bas√°ndonos en los comentarios de los clientes del servicio, conjuntos de defensa, estudiosos y otros, hemos decidido tomarnos m√°s tiempo a lo largo de los pr√≥ximos meses para compendiar comentarios y efectuar mejoras ya antes de lanzar estas funciones de seguridad.

Poco una vez que se introdujesen las nuevas pol√≠ticas a inicios de agosto mediante una publicaci√≥n de weblog, Apple prosigui√≥ con una secci√≥n de preguntas usuales de m√ļltiples p√°ginas con explicaciones en detalle de de qu√© forma marchan el an√°lisis de CSAM y el filtrado de iMessage para los j√≥venes.

Apple planeaba emplear su tecnología llamada NeuralHash para escanear fotografías de manera automática para poder ver si coincidían con hashes de material CSAM conocido. La tecnología solo escaneó las imágenes cuando se cargaron en iCloud (que está cifrado).

Mas la posibilidad de que los gobiernos exploten la pol√≠tica de escanear fotograf√≠as de manera autom√°tica para sus usos ha sobresaltado a los defensores de la privacidad y a los conjuntos de la industria: la Electronic Frontier Foundation (EFF) critic√≥ a la compa√Ī√≠a por incluir todo g√©nero de ¬ępuerta trasera¬Ľ en los datos de los usuarios, al paso que el Centro for Democracy and Technology (CDT) ha reunido una alianza para denunciar de qu√© forma los gobiernos podr√≠an abusar de semejante escaneo de fotograf√≠as en pos de material objetable.

El CDT asimismo explic√≥ de qu√© forma otra pol√≠tica que Apple planea incorporar as√≠ como el escaneo de fotograf√≠as CSAM, una funci√≥n opcional de iMessage que codifica im√°genes de contenido sexual mandadas a usuarios menores de trece a√Īos y avisa a los progenitores vinculados a exactamente la misma cuenta familiar, podr√≠a ¬ęconminar la seguridad y el bienestar de ciertos j√≥venes, y los j√≥venes LGBTQ + cuyos progenitores son hostiles est√°n particularmente bajo riesgo ¬ę.

Por √ļltimo, Apple asimismo iba a dejar que Siri y Research dieran recursos m√°s √ļtiles para los usuarios que piden reportar CSAM, como intervenir con advertencias y recursos de soporte cuando los usuarios procuran material relacionado con CSAM. No se sabe si esto asimismo se retrasar√°.

An√°lisis: un paso atr√°s para Apple, un paso adelante para la privacidad

Conjuntos y también individuos que se oponen a la nueva política de Apple han criticado los métodos del gigante tecnológico, no su pretensión. Aparte de objetar de qué forma esto violaría la privacidad del usuario y abriría una puerta trasera a la explotación del gobierno, criticaron el potencial de falsos positivos con el escaneo CSAM en sí.

Por servirnos de un ejemplo, Apple apunt√≥ que sus empleados no ver√≠an ninguna imagen cargada en iCloud que se escanease de manera autom√°tica salvo que supere un umbral de hash CSAM, en otras palabras, que el hash de una imagen (una huella digital de letras y n√ļmeros) ha encontrado un coincidir en una base de datos de CSAM conocidos.

Aunque la coincidencia de hash es un procedimiento usado, por servirnos de un ejemplo, por Microsoft para su tecnolog√≠a PhotoDNA, la compa√Ī√≠a de seguridad de sitios CloudFlare y la organizaci√≥n sin fines de lucro Thorn contra el tr√°fico sexual de peque√Īos, los estudiosos de seguridad habr√≠an replicado el c√≥digo NeuralHash de Apple y podr√≠an haber generado una ¬ęcolisi√≥n de hash¬Ľ donde 2 im√°genes palpablemente diferentes podr√≠an haber producido exactamente el mismo hash, conforme TechCrunch.

Aunque no conocemos la auténtica eficiencia de los protocolos de seguridad infantil de Apple hasta su debut, semeja que Apple se está tomando las críticas y preocupaciones suficientemente de verdad para tomar unos meses para refinar su enfoque, lo que quiere decir que posiblemente no lo veamos desarrollarse hasta el momento en que finalice. . desde dos mil veintiuno o bien dos mil veintidos.


Source link