sábado, 28 diciembre, 2024
InicioTecnoDenunciaron a WhatsApp por usar datos privados para entrenar su inteligencia artificial

Denunciaron a WhatsApp por usar datos privados para entrenar su inteligencia artificial

Los abogados especialistas en protección de datos personales, Facundo Malaureille y Daniel Monastersky, presentaron una denuncia contra Meta, la empresa matriz de Facebook, WhatsApp e Instagram, por el uso de datos personales en Argentina para el entrenamiento de inteligencia artificial (IA), según publicó Ciberseguridad Latam.

La denuncia, que consta de 22 puntos, solicita a Meta Argentina explicaciones sobre sus prácticas de recolección y uso de datos personales. Entre los ítems más relevantes requeridos figuran:

  • Detalles sobre la actualización de la Política de Privacidad y evidencia del consentimiento de los usuarios.
  • Una Evaluación de Análisis de Impacto (PIA) conforme a las guías argentinas.
  • Explicaciones técnicas sobre los procesos de anonimización de datos y garantías de su irreversibilidad.
  • Aclaraciones sobre cómo se previene la reidentificación de datos anonimizados.
  • Información sobre el manejo de metadatos y datos sensibles en el proceso de anonimización.
  • Detalles sobre las políticas de retención y destrucción de datos.

Claves de la primera ley que regula la inteligencia artificial

Esto no les gusta a los autoritarios

El ejercicio del periodismo profesional y crítico es un pilar fundamental de la democracia. Por eso molesta a quienes creen ser los dueños de la verdad.

Sumado a esto, pidieron a la Agencia de Acceso a la Información Pública (AAIP), organismo ante el cual presentaron la denuncia, que lleve a cabo una auditoría independiente de los procesos de Meta en el país, así como el establecimiento de directrices sobre los estándares de anonimización aceptables en Argentina, en el marco de sus facultades como autoridad de aplicación de la Ley 25.326.

“Con esta presentación, buscamos que Argentina tome una posición proactiva en la regulación del uso de datos personales para el entrenamiento de IA», comentó Malaureille, quien puso de relieve que “es crucial que no nos quedemos atrás en la protección de los derechos digitales de nuestros ciudadanos«.

En diálogo con el programa radial De Acá en Más, el letrado explicó que la denuncia exige que cuando una empresa cambie su política de privacidad, el usuario tenga la posibilidad de dar su consentimiento. «Por lo menos en mi caso puntual, yo no firmé absolutamente nada ni di mi consentimiento», expresó.

Además, indicó que la denuncia plantea que Meta explique la forma en que va a utilizar los datos personales de los usuarios argentinos. «Supuestamente ellos [Meta] dicen que lo van a hacer de modo anónimo», añadió.

El CEO de Globant, Martín Migoya, explicó cuál es «la falla» de la inteligencia artificial

Por su parte, Monastersky agregó: “Esta denuncia busca establecer un precedente legal que guíe futuras regulaciones y prácticas en el ámbito de la IA y la protección de datos en nuestro país”.

En ese sentido, ambos firmantes sostuvieron que “la ausencia de una legislación actualizada en este campo coloca a los ciudadanos en riesgo de sufrir abusos potenciales por parte de empresas multinacionales que manejan grandes volúmenes de información personal”.

Según explicaron los letrados, es necesario una legislación en materia de protección de datos personales.

Al respecto, el texto de la presentación advierte que «la falta de acción legislativa al no tratar el proyecto de reforma de la ley 25.326 deja a los ciudadanos argentinos en una posición vulnerable, expuestos a las decisiones unilaterales de corporaciones tecnológicas de gran envergadura, como Meta».

Por ese motivo, instaron a los diputados y senadores a tomar conciencia de la situación crítica en la que se encuentra la protección de datos personales en el país. «En el Congreso hace un año que descansa un proyecto de ley de datos personales similar al de Europa y al de Brasil, entonces lo que le pedimos a la Agencia [AAIP] como autoridad de aplicación es que notifique esta denuncia a los diputados y senadores para que reactiven este proceso legislativo y Argentina tenga entonces la ley que merece tener en el 2024«, afirmó Malaureille.

Rebelión en la granja digital: una inteligencia artificial se negó a escribir como Houellebecq

Y agregó: «Nosotros tenemos una ley que tiene 24 años. Claramente hace 24 años no había redes sociales, por lo tanto es importante tener una legislación mundial y moderna, y no ser ciudadanos del mundo de segunda clase, porque finalmente nosotros somos los conejillos de Indias de este tipo de empresas que pueden usarnos porque todavía no tenemos una ley que nos proteja del modo que necesitamos ser protegidos».

En esa línea, el abogado explicó que se trata de «un tema que viene hace varias semanas ocurriendo en el mundo». Según detalló, solo 22 países cuentan con la nueva función de IA de WhatsApp, entre los que se encuentra la Argentina. A su criterio, esa decisión se debió a la falta de legislación en materia de protección de datos personales.

«Hay países donde hay legislaciones un poco más fuertes y actualizadas, como por ejemplo Europa, y ahí Meta decidió no desplegar todas estas cuestiones de inteligencia artificial porque pudo anticipar que iba a tener muchos inconvenientes porque la legislación es bastante más fuerte«, manifestó Malaureille.

El caso de Brasil y Europa

La denuncia en Argentina realizada por los abogados Malaureille y Monastersky se produce en un contexto internacional de creciente escrutinio sobre las prácticas de las grandes tecnológicas en materia de IA y protección de datos.

En ese sentido, Brasil decidió tomar medidas similares. Para ello, la autoridad de protección de datos brasileña (ANPD) obligó a Meta a suspender el funcionamiento de Meta AI en el país.

Sumado a esto, se impuso una posible multa de 50 mil reales diarios por incumplimiento. Además, la Fiscalía brasileña solicitó una sanción de 1.733 millones de reales contra WhatsApp por supuesta violación de privacidad.

En Europa, no se introdujeron los nuevos modelos Llama 3.1 de IA para evitar sanciones potenciales.

En tanto, en Europa, la situación también presenta desafíos. Sin embargo, Meta decidió no lanzar sus modelos de IA multimodal en la Unión Europea debido a la “naturaleza impredecible del entorno normativo”.

De esa manera, los nuevos modelos Llama 3.1 de IA no están disponibles en el bloque económico para evitar potenciales sanciones por violación del Reglamento General de Protección de Datos (RGPD). Al respecto, Rob Sherman, directivo de Meta, expresó preocupación por el riesgo de que Europa “quede fuera” en el desarrollo de IA avanzada debido a la regulación.

Quejas en Europa

La corporación global Meta Platforms ya venía recibiendo desde junio once quejas presentadas en Austria, Bélgica, Francia, Alemania, Grecia, Italia, Irlanda, Países Bajos, Noruega, Polonia y España por los cambios propuestos en la forma en que utiliza datos personales para entrenar sus modelos de IA sin obtener consentimiento.

Las quejas afirmaron que las recientes modificaciones en la política de privacidad de Meta, que entraron en vigor el 26 de junio, permitirían a la compañía utilizar años de publicaciones personales, imágenes privadas y datos de seguimiento en línea para su tecnología de inteligencia artificial. Además, impide a los ciudadanos europeos eliminar sus datos una vez que están en el sistema.

Debido a los cambios inminentes, NYOB-Centro Europeo de Derechos Digitales pidió a las autoridades de protección de datos en los once países que inicien una revisión urgente. Según una declaración de la organización sin fines de lucro, la nueva política de privacidad de Meta cita un interés legítimo en usar los datos de los usuarios para entrenar y desarrollar sus modelos de IA generativa y otras herramientas de IA, las cuales pueden ser compartidas con terceros.

MB /Gi

Más Noticias