DeepSeeek la amenza China a la Inteligencia Artificial

DeepSeek vs. Ley 25.326 ¿hay seguridad de los datos?

DeepSeek y la Privacidad de Datos en Argentina: Una Conmoción Tecnológica con Implicaciones Legales Profundas 

DeepSeek un problema que emergió en el mundo de la AI
DeepSeek un problema que emergió en el mundo de la AI

La reciente irrupción de DeepSeek, la empresa china de inteligencia artificial (IA), en el panorama tecnológico global ha generado una verdadera convulsión.

Su logro, equiparar la capacidad de chatbots líderes con una fracción del poder computacional requerido tradicionalmente, ha puesto en tela de juicio los paradigmas de la industria y desatado interrogantes sobre la competitividad de las empresas estadounidenses.

Sin embargo, más allá del impacto económico y estratégico, la aparición de DeepSeek y el auge de la IA en general plantean desafíos cruciales en materia de privacidad de datos, especialmente en jurisdicciones como Argentina, donde la protección de la información personal está consagrada por ley.

Este artículo profundizo en el análisis de las implicaciones de la revolución de la IA, personificada en DeepSeek, en el contexto de la legislación argentina sobre protección de datos personales.

Exploraremos la Ley 25.326, sus principios fundamentales, y cómo se aplican a las nuevas tecnologías como la IA. Además, examinaremos los riesgos potenciales que la recopilación, el procesamiento y la utilización de datos por parte de sistemas de IA pueden representar para la privacidad de los individuos, y las medidas que las empresas y el gobierno argentino deben tomar para mitigar estos riesgos.

Finalmente, analizaremos el impacto de la IA en el derecho al olvido y la necesidad de adaptar el habeas data a las nuevas tecnologías.

DeepSeek: Un Catalizador para la Reflexión sobre la Privacidad y el Origen de los Datos

La irrupción de DeepSeek en el mercado, con su innovador enfoque para el desarrollo de IA, ha puesto de manifiesto la velocidad con la que la tecnología avanza y la necesidad de adaptar las regulaciones para hacer frente a los nuevos desafíos.

Si bien el éxito de DeepSeek se basa en la eficiencia y la innovación, también plantea interrogantes cruciales sobre el origen de los datos utilizados para entrenar sus modelos y la forma en que se protegen los derechos de los individuos cuyos datos fueron utilizados.

¿De dónde provienen esos datos? ¿Fueron obtenidos legalmente? ¿Se respetaron los derechos de los titulares de los datos? Estas preguntas son fundamentales en el contexto de la protección de datos personales.

La controversia que rodea a DeepSeek, con acusaciones de posible utilización de datos de OpenAI, subraya la importancia de la transparencia y la responsabilidad en el desarrollo de la IA.

Es fundamental que las empresas que desarrollan y utilizan sistemas de IA se aseguren de obtener el consentimiento adecuado para el uso de datos personales, de informar a los individuos sobre cómo se utilizan sus datos y de garantizar la seguridad de la información.

Además, deben establecer mecanismos para verificar el origen de los datos utilizados para entrenar sus modelos, asegurándose de que no provengan de fuentes ilegales o que violen los derechos de los titulares.

La Ley 25.326: Pilar de la Protección de Datos en Argentina y su Aplicación a la IA

La Ley 25.326 de Protección de los Datos Personales, promulgada en el año 2000, es la principal normativa que regula el tratamiento de datos personales en Argentina.

Esta ley establece los principios y las obligaciones que deben cumplir las personas físicas y jurídicas que recopilan, almacenan, procesan o transfieren datos personales.

Si bien la Ley 25.326 fue concebida antes del auge de la IA, sus principios fundamentales siguen siendo relevantes en el contexto de esta tecnología. Sin embargo, es necesario interpretar y aplicar estos principios de manera flexible y creativa para hacer frente a los nuevos desafíos que plantea la IA.

Principios Clave de la Ley 25.326 y su Adaptación a la IA:

  • Licitud, Lealtad y Transparencia: Los datos deben ser recolectados y tratados de manera lícita, leal y transparente, informando al titular de los datos sobre la finalidad de la recolección y el tratamiento. En el contexto de la IA, esto implica informar a los individuos sobre cómo se utilizan sus datos para entrenar modelos de aprendizaje automático y cómo estos modelos toman decisiones que los afectan. Por ejemplo, una empresa que utiliza un algoritmo de IA para evaluar solicitudes de crédito debe informar a los solicitantes sobre los criterios que utiliza el algoritmo y cómo se ponderan estos criterios.

  • Finalidad: Los datos solo pueden ser recolectados y tratados para fines determinados, explícitos y legítimos. En el contexto de la IA, esto implica definir claramente la finalidad para la que se utilizan los datos para entrenar modelos de aprendizaje automático. Por ejemplo, no sería legítimo utilizar datos de salud para entrenar un modelo de IA que se utiliza para evaluar solicitudes de empleo.

  • DeepSeek ni la industria, ni la ley la vieron venir
    DeepSeek ni la industria, ni la ley la vieron venir

    Calidad de los Datos: Los datos deben ser exactos, adecuados, pertinentes y no excesivos en relación con la finalidad para la que fueron recolectados. En el contexto de la IA, esto implica garantizar la calidad de los datos utilizados para entrenar modelos de aprendizaje automático. Los datos deben ser exactos, completos y actualizados para evitar que el algoritmo tome decisiones erróneas o discriminatorias.

  • Consentimiento: El tratamiento de datos personales requiere el consentimiento libre, expreso e informado del titular, salvo excepciones legales. En el contexto de la IA, esto implica obtener el consentimiento informado de los individuos antes de utilizar sus datos para entrenar modelos de aprendizaje automático. El consentimiento debe ser específico, informado y libremente revocable. Un ejemplo claro es el consentimiento para utilizar datos biométricos para el reconocimiento facial.

  • Seguridad: Los responsables de las bases de datos deben adoptar las medidas técnicas y organizativas necesarias para garantizar la seguridad y confidencialidad de los datos, evitando su alteración, pérdida, tratamiento o acceso no autorizado. En el contexto de la IA, esto implica implementar medidas de seguridad robustas para proteger los datos utilizados para entrenar modelos de aprendizaje automático, así como los modelos en sí mismos.

  • Información: Los titulares de los datos tienen derecho a acceder a sus datos, rectificarlos, actualizarlos y suprimirlos. En el contexto de la IA, esto implica permitir a los individuos acceder a la información que se ha utilizado para entrenar modelos de aprendizaje automático que los afectan y solicitar la rectificación o supresión de datos inexactos o desactualizados.

  • Transferencia Internacional de Datos: La transferencia de datos a países que no ofrecen un nivel de protección adecuado solo puede realizarse con la autorización de la Agencia de Acceso a la Información Pública (AAIP). En el contexto de la IA, esto implica obtener la autorización de la AAIP antes de transferir datos a países que no ofrecen un nivel de protección adecuado para entrenar modelos de aprendizaje automático.

La Agencia de Acceso a la Información Pública (AAIP): El Guardián de la Privacidad en la Era Digital

La Agencia de Acceso a la Información Pública (AAIP) es el organismo de control encargado de velar por el cumplimiento de la Ley 25.326.

Entre sus funciones se encuentran:

  • Dictar normas complementarias para la aplicación de la ley.

  • Fiscalizar el cumplimiento de la ley por parte de los responsables de las bases de datos.

  • Recibir y tramitar denuncias por violaciones a la ley.

  • Aplicar sanciones por incumplimientos.

  • Autorizar la transferencia internacional de datos.

  • Mantener el Registro Nacional de Bases de Datos.

En el contexto de la IA, la AAIP debe desempeñar un papel aún más importante en la protección de la privacidad de los datos. Debe desarrollar una guía detallada sobre la aplicación de la Ley 25.326 a la IA, que incluya recomendaciones sobre cómo obtener el consentimiento informado, cómo garantizar la transparencia algorítmica y cómo establecer mecanismos de responsabilidad algorítmica. Además, debe fortalecer su capacidad de fiscalización para garantizar que las empresas cumplan con la ley y proteger los derechos de los individuos.

La Inteligencia Artificial y la Privacidad de Datos: Un Nuevo Desafío con Sesgos Algorítmicos

La inteligencia artificial, con su capacidad para analizar grandes cantidades de datos y tomar decisiones automatizadas, presenta desafíos únicos para la privacidad de los datos personales. Los sistemas de IA pueden recopilar datos de diversas fuentes, incluyendo redes sociales, dispositivos móviles, sensores y otras fuentes de información. Estos datos pueden ser utilizados para perfilar a los individuos, predecir su comportamiento y tomar decisiones que los afecten, como la concesión de créditos, la selección de personal o la evaluación de riesgos.

Un riesgo particularmente preocupante es la posibilidad de que los algoritmos de IA reproduzcan o amplifiquen sesgos existentes en los datos utilizados para entrenarlos. Por ejemplo, si un algoritmo de IA se entrena con datos que reflejan desigualdades de género en el mercado laboral, puede terminar favoreciendo a los hombres sobre las mujeres en el proceso de selección de personal.

Riesgos Específicos para la Privacidad en el Contexto de la IA:

  • Recopilación Excesiva de Datos: Los sistemas de IA a menudo requieren grandes cantidades de datos para funcionar correctamente, lo que puede llevar a la recopilación de información innecesaria o irrelevante. Un ejemplo es la recopilación de datos de ubicación a través de aplicaciones, incluso cuando no son necesarios para la funcionalidad principal de la app.

  • Falta de Transparencia: La complejidad de los algoritmos de IA puede dificultar la comprensión de cómo se utilizan los datos y cómo se toman las decisiones automatizadas. A esto se le llama la “caja negra” de la IA.

  • Sesgos Algorítmicos: Los algoritmos de IA pueden estar sesgados si se entrenan con datos que reflejan desigualdades o prejuicios existentes, lo que puede llevar a decisiones discriminatorias.

  • Reidentificación de Datos Anonimizados: Técnicas avanzadas de análisis de datos pueden permitir la reidentificación de individuos a partir de datos que han sido anonimizados.

  • Vigilancia Masiva: Los sistemas de IA pueden ser utilizados para la vigilancia masiva de la población, lo que puede tener un impacto negativo en la libertad y la autonomía de los individuos. El uso de reconocimiento facial en espacios públicos es un claro ejemplo.

  • Uso de Datos Sensibles: La IA puede utilizar datos sensibles como información de salud, creencias religiosas o orientación sexual, lo que requiere una protección especial.

Adaptando la Ley 25.326 a la Era de la IA: Desafíos, Posibilidades y Derecho al Olvido

Si bien la Ley 25.326 establece un marco sólido para la protección de datos personales, es necesario adaptarla para hacer frente a los desafíos específicos que plantea la IA.

Uno de los desafíos más importantes es la necesidad de equilibrar el derecho a la privacidad con el derecho a la libertad de expresión y el acceso a la información.

En este sentido, es crucial analizar el impacto de la IA en el derecho al olvido, es decir, el derecho de los individuos a solicitar la supresión de información personal que sea inexacta, irrelevante o excesiva.

Áreas Clave a Considerar:

  • Consentimiento Informado: Es necesario definir qué significa el consentimiento informado en el contexto de la IA, especialmente cuando los datos se utilizan para entrenar modelos de aprendizaje automático. Se debe asegurar que los individuos comprendan cómo se utilizarán sus datos y que tengan la posibilidad de revocar su consentimiento.

  • Transparencia Algorítmica: Es fundamental promover la transparencia algorítmica, exigiendo a las empresas que desarrollen y utilicen sistemas de IA que expliquen cómo funcionan sus algoritmos y cómo se toman las decisiones automatizadas.

  • Responsabilidad Algorítmica: Es necesario establecer mecanismos de responsabilidad algorítmica, que permitan a los individuos afectados por decisiones automatizadas impugnar dichas decisiones y obtener una reparación por los daños sufridos.

  • Derecho a la Explicación: Los individuos deben tener derecho a obtener una explicación sobre las decisiones automatizadas que los afectan. Esto es crucial para garantizar la rendición de cuentas y la justicia algorítmica.

  • Evaluación de Impacto en la Privacidad (EIP): Se debe exigir la realización de evaluaciones de impacto en la privacidad antes de la implementación de sistemas de IA que puedan representar un riesgo para la privacidad de los individuos.

  • Anonimización y Seudonimización: Es necesario promover el uso de técnicas de anonimización y seudonimización para proteger la privacidad de los datos utilizados para entrenar modelos de IA.

  • Regulación Sectorial: Dependiendo del sector, puede ser necesario establecer regulaciones sectoriales específicas para la IA, teniendo en cuenta las particularidades de cada sector. Por ejemplo, el sector salud y el financiero requieren regulaciones más estrictas.

  • Fortalecimiento de la AAIP: Es fundamental fortalecer la AAIP para que pueda cumplir eficazmente su función de control y supervisión en el ámbito de la IA.

Medidas que las Empresas Deben Tomar para Proteger la Privacidad de los Datos:

Las empresas que desarrollan y utilizan sistemas de IA deben adoptar medidas para proteger la privacidad de los datos personales, tales como:

  • Implementar políticas de privacidad claras y transparentes.

  • Obtener el consentimiento informado de los individuos antes de recopilar y utilizar sus datos.

  • Limitar la recopilación de datos a lo estrictamente necesario.

  • Garantizar la seguridad de los datos.

  • Implementar mecanismos de transparencia algorítmica.

  • Establecer mecanismos de responsabilidad algorítmica.

  • Realizar evaluaciones de impacto en la privacidad.

  • Capacitar a los empleados sobre la privacidad de los datos.

  • Designar un responsable de privacidad.

  • Realizar auditorías periódicas de sus sistemas de IA para identificar y corregir posibles sesgos.

  • Establecer un proceso para que los individuos puedan ejercer su derecho al olvido.

El Rol del Gobierno Argentino en la Protección de la Privacidad en la Era de la IA:

El gobierno argentino tiene un rol fundamental en la protección de la privacidad de los datos en la era de la IA.

Debe:

  • Adaptar la Ley 25.326 a los desafíos de la IA.

  • Fortalecer la AAIP.

  • Promover la transparencia algorítmica.

  • Fomentar la investigación y el desarrollo de tecnologías que protejan la privacidad.

  • Colaborar con otros países y organizaciones internacionales en materia de privacidad de datos.

  • Concientizar a la población sobre sus derechos en materia de privacidad.

  • Establecer estándares éticos para el desarrollo y la utilización de la IA.

  • Fomentar la educación sobre la IA y sus implicaciones sociales.

El Habeas Data: Una Herramienta para la Defensa de la Privacidad y su Adaptación a la IA

DeepSeek el desafío chino
DeepSeek el desafío chino

El habeas data es una acción judicial que permite a cualquier persona acceder a la información que sobre ella conste en registros o bancos de datos, públicos o privados, destinados a proveer informes.

Es una herramienta fundamental para la protección del derecho a la autodeterminación informativa y la defensa de la privacidad.

A través del habeas data, los individuos pueden solicitar la rectificación, actualización o supresión de datos inexactos, incompletos o desactualizados que les causen perjuicio.

En el contexto de la IA, el habeas data debe adaptarse para permitir a los individuos impugnar decisiones automatizadas que los afecten y solicitar la revisión de los algoritmos utilizados para tomar dichas decisiones.

DeepSeek y el Futuro de la IA en Argentina: Un Enfoque Responsable y Humano

La llegada de DeepSeek y el auge de la IA representan una oportunidad para el desarrollo económico y social de Argentina. Sin embargo, es fundamental que este desarrollo se realice de manera responsable, respetando los derechos de los individuos y protegiendo su privacidad.

La Ley 25.326, adaptada y fortalecida, debe ser la guía para garantizar que la IA se utilice de manera ética y responsable en Argentina. La AAIP debe ser el guardián de la privacidad, velando por el cumplimiento de la ley y promoviendo la transparencia y la responsabilidad en el desarrollo y la utilización de la IA.

En definitiva, la convulsión tecnológica desatada por DeepSeek es una llamada de atención para reflexionar sobre la importancia de la privacidad de los datos en la era de la IA.

Argentina tiene la oportunidad de liderar la región en la protección de la privacidad, creando un marco legal y regulatorio que fomente la innovación y el desarrollo de la IA, al tiempo que protege los derechos fundamentales de los individuos.

El desafío es encontrar el equilibrio entre el progreso tecnológico y la protección de la privacidad, garantizando un futuro en el que la IA beneficie a todos, sin comprometer la libertad y la autonomía de los individuos.

La clave reside en la transparencia, la responsabilidad, la aplicación efectiva de la Ley 25.326, adaptada a las nuevas realidades tecnológicas, y un enfoque centrado en el ser humano. No se trata solo de leyes y algoritmos, sino de garantizar que la IA sirva a la humanidad y no al revés.

 

Dra. Liliana Molina Slojan – Especialista legal en Inteligencia Artificial

 

Lea más sobre Análisis de Datos e IA en;

Envenenamiento de Modelo: tiene seguridad la AI 2025?

SAB 121: más allá del respiro inicial, por seguridad profundizamos el análisis

Geopolítica, tecnología y seguridad – versión 4.0

Gastón Edgardo Machado 2025: el uso de la AI para un diseño creativo

ASI 2025: análisis profundo para que en un futuro no nos avergoncemos

DeepSeek, DeepSeek, DeepSeek, DeepSeek, DeepSeek, DeepSeek, DeepSeek, DeepSeek, DeepSeek, DeepSeek, DeepSeek, DeepSeek, DeepSeek, DeepSeek, DeepSeek, DeepSeek, DeepSeek, DeepSeek, DeepSeek, DeepSeek, DeepSeek, DeepSeek, DeepSeek, DeepSeek, DeepSeek, DeepSeek, DeepSeek, DeepSeek, DeepSeek, DeepSeek, DeepSeek, DeepSeek, DeepSeek, DeepSeek, DeepSeek, 

 

Scroll al inicio