Ley 25326

Ley 25326: modificaciones para resguardar la libertad

La inteligencia artificial generativa ha transformado el futuro de la humanidad para siempre, la Ley 25326, de actualizarse para responder a los desafíos que plantea esta tecnología tan disruptiva.

La República Argentina marcó un hito regional en el año 2000 con la sanción de la Ley Nº 25.326 de Protección de los Datos Personales.

Ley 25326

Este cuerpo normativo, concebido en los albores de la masificación de internet, estableció un marco jurídico para “la protección integral de los datos personales asentados en archivos, registros, bancos de datos, u otros medios técnicos de tratamiento de datos”, con el fin explícito de “garantizar el derecho al honor y a la intimidad de las personas, así como también el acceso a la información que sobre las mismas se registre”.

Dicha finalidad se encuentra en consonancia directa con el Artículo 43, párrafo tercero, de la Constitución Nacional, reformada en 1994, que consagró la acción de hábeas data y reconoció la protección de datos como un derecho fundamental ligado a la autodeterminación informativa. Este reconocimiento subraya la trascendencia de la protección de datos como un derecho humano esencial para la dignidad y el libre desarrollo de la personalidad en la sociedad contemporánea.

La Irrupción de la IA Generativa: El panorama tecnológico ha sufrido una transformación radical desde la sanción de la Ley 25.326. La irrupción y rápida expansión de la Inteligencia Artificial (IA) Generativa, sistemas capaces de crear contenido novedoso y complejo (textos, imágenes, código, etc.) , ha introducido un nuevo paradigma.

Estos sistemas, a menudo basados en Modelos de Lenguaje Grandes (LLMs), se nutren de volúmenes exponenciales de datos, frecuentemente recolectados mediante técnicas de web scraping de fuentes públicas en internet. La escala, la opacidad y las capacidades emergentes de esta tecnología plantean desafíos inéditos y profundos a los marcos legales de protección de datos existentes a nivel global.

Obsolescencia Normativa y Riesgos Constitucionales: A pesar de haber sido pionera y de contar con normativa reglamentaria y actualizaciones , la Ley 25.326 evidencia hoy una marcada obsolescencia e insuficiencia para regular eficazmente las especificidades y los riesgos asociados a la IA generativa.

Esta brecha no es meramente técnica; compromete la efectividad de derechos fundamentales consagrados constitucionalmente.

La recolección masiva de datos sin consentimiento claro, la opacidad inherente a los algoritmos complejos, la posibilidad de generar información falsa (“alucinaciones”) o discriminatoria (sesgos algorítmicos), y la dificultad para que los individuos ejerzan un control significativo sobre sus datos, impactan directamente en el derecho a la intimidad (Art. 19 CN) , la autodeterminación informativa (Art. 19 y 43 CN) , el principio de igualdad y no discriminación (Art. 16 CN) y la libertad individual (Art. 19 CN).

Mi razonamiento escrito en esta nota  propone realizar un análisis crítico de la Ley 25.326, desde una perspectiva anclada en el derecho constitucional argentino, frente al fenómeno disruptivo de la IA generativa.

Se identificarán las principales lagunas, tensiones y áreas de conflicto entre la normativa actual y las exigencias de esta nueva tecnología, a la luz de la jurisprudencia nacional pertinente. Como corolario, se delinearán los ejes centrales para una reforma legislativa integral, necesaria y urgente, que permita adecuar el marco de protección de datos argentino a la era de la inteligencia artificial, garantizando la plena vigencia y eficacia de los derechos y garantías constitucionales.

2. Análisis del Marco Normativo Vigente: Ley 25.326 y sus Principios Fundamentales

Objeto y Definiciones Clave: El Artículo 1° de la Ley 25.326 define su objeto protector del honor, la intimidad y el acceso a la información personal. El Artículo 2° establece las definiciones estructurales:

Datos personales: “Información de cualquier tipo referida a personas físicas o de existencia ideal determinadas o determinables”. La inclusión de personas jurídicas es un punto de debate, con propuestas de reforma que buscan alinear la ley con estándares internacionales limitándola a personas físicas.

Datos sensibles: Información sobre origen racial/étnico, opiniones políticas, convicciones religiosas/filosóficas/morales, afiliación sindical, salud o vida sexual. Su tratamiento está restringido (Art. 7 ), salvo excepciones legales o fines científicos/estadísticos disociados. Archivo, registro, base o banco de datos: Conjunto organizado de datos personales.

Tratamiento de datos: Operaciones diversas sobre los datos (recolección, almacenamiento, cesión, etc.).

Responsable de archivo: Titular del archivo.

Titular de los datos: Persona (física o ideal) cuyos datos se tratan.

Usuario de datos: Quien trata los datos a su arbitrio.

Disociación de datos: Tratamiento que impide la identificación del titular.

Principios Rectores bajo Análisis Constitucional: La ley articula la protección de datos a través de principios fundamentales cuya aplicación se ve tensionada por la IA generativa:

Licitud (Art. 3): Exige la inscripción de los archivos de datos y la observancia de la ley y la moral pública en su operación. La inscripción en el Registro Nacional de Bases de Datos (gestionado por la AAIP) es una garantía clave. La escala y naturaleza global de la recolección de datos para IA, a menudo desde fuentes no estructuradas y sin finalidades claras ab initio, dificulta el cumplimiento formal y sustancial de este principio.

Calidad (Art. 4): Principio central que demanda que los datos sean ciertos, adecuados, pertinentes y no excesivos; recolectados lealmente; usados para fines compatibles; exactos y actualizados; y destruidos al cesar su necesidad. La IA generativa colisiona con este principio:

Certeza y Exactitud (Art. 4.1, 4.4): Los datos de entrenamiento de internet carecen de verificación y los modelos pueden generar “alucinaciones” (información falsa).

Adecuación, Pertinencia, No Excesividad (Art. 4.1): La lógica del big data es maximalista, contraria a la minimización.

Destrucción (Art. 4.7): La obligación de destruir datos es difícilmente aplicable a parámetros de modelos entrenados.

Finalidad (Art. 4.3, 6.a): Prohíbe el uso para fines incompatibles con los originales e impone el deber de informar la finalidad. La naturaleza multipropósito de los modelos fundacionales de IA dificulta definir finalidades específicas y limitadas, permitiendo reutilizaciones imprevistas que vulneran este principio esencial para el control del titular.

Consentimiento (Art. 5): Regla general que exige consentimiento libre, expreso e informado (preferentemente escrito). Es la piedra angular de la autodeterminación informativa. Existen excepciones (fuentes públicas, función estatal, relación contractual, datos financieros). Es revocable. Obtener consentimiento válido a la escala masiva requerida por la IA es inviable. Esto obliga a recurrir a excepciones o bases como el “interés legítimo”, que carecen de salvaguardas suficientes en la ley actual para los riesgos de la IA.

Información (Art. 6): Deber de informar finalidad, responsable, obligatoriedad, consecuencias y derechos ARCO. La complejidad de la IA y la multiplicidad de sus usos dificultan cumplir este deber de forma clara y completa.

Seguridad (Art. 9): Obligación de adoptar medidas técnicas y organizativas “necesarias” para garantizar seguridad y confidencialidad. La IA introduce nuevas vulnerabilidades (jailbreaking, ataques adversariales, memorización de datos) que exigen redefinir qué medidas son “necesarias”.

Confidencialidad (Art. 10): Deber de secreto profesional para todos los intervinientes en el tratamiento, incluso post-relación. La naturaleza distribuida del desarrollo de IA y el riesgo de revelación inadvertida de datos complican su garantía efectiva.

Derechos del Titular (ARCO y otros): La Ley 25.326 consagra los derechos ARCO, cuya efectividad se ve desafiada:

Acceso (Art. 14): Derecho a saber qué datos se tratan, finalidad, origen, etc. (plazo 10 días corridos, gratuito c/6 meses). Contenido detallado en Art. 15. Difícil de ejercer frente a la IA por la complejidad de identificar datos propios en modelos masivos.

Rectificación, Actualización, Supresión (Art. 16): Derecho a corregir o eliminar datos inexactos, incompletos o indebidos (plazo 5 días hábiles, gratuito). Límites a la supresión. Técnicamente complejo o inviable aplicar sobre modelos de IA entrenados.

Información (Art. 13): Derecho a consultar a la AAIP sobre bases registradas.

Oposición: Ausente como derecho general explícito , limitado al ámbito publicitario (Art. 27.3 ) o derivado del consentimiento. Una debilidad crítica frente a tratamientos basados en interés legítimo. Las reformas buscan incluirlo.

Habeas Data (Art. 33-43): Acción judicial específica para ejercer derechos ARCO. Su efectividad depende de la viabilidad técnica de identificar y modificar datos en sistemas de IA.

La Agencia de Acceso a la Información Pública (AAIP): Como órgano de control , la AAIP es crucial. Sus funciones incluyen el registro de bases, dictado de normas, fiscalización, asesoramiento y sanción. El régimen sancionatorio original (Art. 31 ) quedó desactualizado. Las Resoluciones AAIP 240/2022 y 244/2022 elevaron los topes de multas (hasta $15M para muy graves) y ajustaron criterios. Sin embargo, persiste el debate sobre su poder disuasorio frente a grandes tecnológicas. Propuestas de reforma sugieren vincular multas a UM o facturación global.

3. Inteligencia Artificial Generativa: Desafíos Jurídicos y Técnicos para la Protección de Datos

El Ciclo de Vida de la IA Generativa y Puntos de Fricción Legal: El proceso de creación y uso de IA generativa presenta fricciones con la Ley 25.326 en cada etapa:

Recolección Masiva de Datos (Web Scraping): La extracción automatizada y a gran escala de datos de internet , incluyendo datos personales y obras protegidas , sin consentimiento individualizado, desafía los principios de consentimiento (Art. 5 ), finalidad (Art. 4.3, 6.a ) y minimización (Art. 4.1 ). La justificación por “fuentes de acceso público” (Art. 5.2.a ) es insuficiente para esta escala y propósito.

Entrenamiento de Modelos (LLMs): El procesamiento de estos datos masivos para entrenar los modelos conlleva el riesgo de “memorización” de información personal. La anonimización completa es difícil de lograr y verificar. El modelo resultante puede contener o permitir inferir datos personales , planteando dudas sobre su naturaleza jurídica y la aplicabilidad de derechos como la supresión.

Generación de Contenido (Output): La creación de contenido nuevo por el modelo introduce riesgos específicos:
Alucinaciones: Información falsa o inexacta.

Sesgos: Reflejo y amplificación de prejuicios sociales.

Infracciones de PI: Replicación de contenido protegido.

Violación de Privacidad: Revelación de datos personales. La atribución de responsabilidad por estos outputs dañinos es un vacío legal importante.

Tensión con los Principios de la Ley 25.326:

Consentimiento Informado: Inviable a escala masiva. El recurso al “interés legítimo” necesita salvaguardas robustas inexistentes hoy. Se requiere un nuevo equilibrio constitucionalmente válido.

Finalidad y Calidad: La flexibilidad de los modelos choca con la limitación de finalidad (Art. 4.3 ). La dificultad de verificar datos de entrenamiento y el riesgo de “alucinaciones” vulneran la calidad (Art. 4.1, 4.4 ). La regulación debe enfocarse en el riesgo del uso y la calidad del output.

Transparencia vs. Opacidad (‘Black Box’): La complejidad intrínseca de los LLMs impide explicaciones claras. Esto obstaculiza la rendición de cuentas, la detección de errores/sesgos y el ejercicio de derechos, violando el derecho a la información (Art. 6 ) y el debido proceso (Art. 18 CN).

Seguridad y Confidencialidad: Nuevos vectores de ataque (jailbreaking, ataques adversariales) y riesgo de fugas de datos memorizados exigen reinterpretar las “medidas necesarias” del Art. 9.

Riesgos Específicos de la IA Generativa y Derechos Afectados:

Alucinaciones: Generan desinformación y riesgo de decisiones erróneas.

Sesgos Algorítmicos: Sistematizan y escalan la discriminación , violando el Art. 16 CN. La opacidad dificulta su detección y corrección.

Vulneración de Derechos ARCO: La arquitectura de la IA puede hacer inaplicables en la práctica los derechos de acceso, rectificación y supresión si no se establecen obligaciones técnicas y legales específicas.

4. Análisis Jurisprudencial y Constitucional Relevante

La interpretación judicial de la Ley 25.326 y los derechos constitucionales en el entorno digital proporciona un marco de referencia, aunque insuficiente por sí solo para la IA generativa.

Jurisprudencia Clave:

Hábeas Data: Los tribunales han reconocido su autonomía procesal para proteger la autodeterminación informativa. Su aplicación efectiva a la IA dependerá de la posibilidad de adaptar sus mecanismos a la complejidad del tratamiento de datos en estos sistemas.

Responsabilidad de Intermediarios (Buscadores):
Caso “Rodríguez c/ Google” (CSJN, 2014): Estableció responsabilidad subjetiva para buscadores, condicionada al conocimiento efectivo de la ilicitud del contenido. Distinguió entre notificación fehaciente (ilicitud manifiesta) y orden judicial/administrativa (casos dudosos). Si bien relevante, la IA generativa crea contenido, no solo lo indexa, lo que podría justificar un estándar de responsabilidad diferente.

Caso “Denegri c/ Google” (CSJN, 2022): Limitó severamente el “derecho al olvido” digital, priorizando la libertad de expresión e información sobre hechos veraces de interés público pasado, incluso si perjudiciales para el honor actual. La desindexación es excepcionalísima. Esto marca un precedente importante para solicitudes de supresión de contenido generado por IA sobre hechos pasados.

Caso “G. O. c/ Facebook” (Cám. Fed. Bahía Blanca, 2021): Rechazó bloqueo cautelar de publicaciones en redes, priorizando libertad de expresión e interés público sobre la medida cautelar en habeas data, considerándola censura previa. Subraya la alta protección de la libertad de expresión, un desafío para regular outputs dañinos de IA.

Caso Facebook Argentina (Dictamen PGN, 2022): Sostuvo la legitimación pasiva de la filial local bajo la Ley 25.326 , clave para la aplicación de la ley a plataformas globales.

Interpretación Constitucional en la Era Digital: La IA generativa obliga a reinterpretar derechos constitucionales:

Privacidad e Intimidad (Art. 19 CN): Amenazada por la recolección masiva, inferencia de perfiles y vigilancia algorítmica. La protección constitucional debe abarcar estas nuevas formas de injerencia.

Autodeterminación Informativa (Art. 43 y 19 CN): El derecho a controlar la información personal se ve erosionado por la opacidad, la dificultad para ejercer derechos ARCO y las decisiones automatizadas.

Libertad de Expresión (Art. 14, 32 CN): Requiere una ponderación delicada al regular la IA para mitigar desinformación o contenido ilícito sin incurrir en censura previa.

No Discriminación (Art. 16 CN): El riesgo de discriminación algorítmica sistémica exige acciones positivas y obligaciones de auditoría de sesgos y equidad.

 

5. Propuestas de Reforma a la Ley 25.326 desde una Perspectiva Constitucional

Una reforma integral es indispensable. Las propuestas deben incorporar, desde una perspectiva constitucional:

Actualización de Definiciones:

Incluir “IA generativa”, “sistema de IA”, “perfilamiento”, “decisión automatizada”, “datos inferidos”.

Ampliar “datos sensibles” a “biométricos” y “genéticos”.

Reconocer “datos inferidos” como datos personales.

Limitar el alcance principal a “personas humanas”.

Refuerzo de Principios:

Ley 25326

Responsabilidad Proactiva y Demostrada (Accountability).

Privacidad desde el Diseño y por Defecto.

Evaluación de Impacto (EIPD) obligatoria para alto riesgo (incluyendo IA).

Minimización de Datos reforzada, promoviendo anonimización/datos sintéticos.

Adaptación del Consentimiento:

Requisitos específicos y mayor transparencia para IA.

Salvaguardas para Interés Legítimo (EIPD, oposición efectiva).

Reglas claras para Consentimiento de Menores (edad, prohibiciones específicas).

Nuevos Derechos y Fortalecimiento de Existentes:

Derecho a la Explicación y Revisión Humana para decisiones automatizadas significativas.

Derecho de Oposición general y explícito.

Derecho a la Portabilidad de datos.

Clarificación Supresión/Olvido en IA, estableciendo mecanismos viables.

Obligaciones Específicas para IA:

Transparencia Algorítmica (informar lógica general, datos usados).

Gestión de Sesgos (detectar, prevenir, mitigar discriminación).

Seguridad Reforzada adaptada a riesgos de IA.

Notificación de Brechas de Seguridad.

Regulación de Datos Sintéticos:

Establecer condiciones para su uso como PET, reconociendo limitaciones.

Fortalecimiento de la AAIP:

Mayores facultades de auditoría e investigación proactiva.  Sanciones disuasorias y proporcionales (UM o % facturación global).

Transferencias Internacionales:

Actualizar criterios de adecuación (Art. 12 ) y mecanismos de garantía para alinearse con estándares internacionales (GDPR).

Tabla 1: Comparativa Ley 25.326 vs. Propuesta Reforma vs. GDPR/EU AI Act (Aspectos Clave para IA)

Característica Ley 25.326 (Actual) Propuesta Reforma Argentina (AAIP/Ejecutivo) GDPR (UE) EU AI Act (UE)
Consentimiento para IA Training Basado en Art. 5. Problemático por escala. Dependencia de excepciones. Mantiene consentimiento como base principal (Art. 13 ). Refuerza requisitos de información (Art. 16 ). Regula interés legítimo con más detalle (Art. 13.f ). Art. 6. Requiere base legal (consentimiento, interés legítimo, etc.). Interés legítimo requiere ponderación (Art. 6(1)(f)). No regula bases legales (remite a GDPR), pero establece requisitos de transparencia sobre datos de entrenamiento para modelos fundacionales.
Decisión Automatizada/Perfilado Art. 20 limita valoración basada únicamente en tratamiento informatizado. Insuficiente. Derecho a no ser objeto de decisiones automatizadas significativas (Art. 31 ). Derecho a explicación y revisión humana (Art. 31 ). Art. 22. Derecho a no ser objeto de decisiones basadas únicamente en tratamiento automatizado con efectos jurídicos/significativos. Excepciones. Clasifica sistemas de IA por riesgo. Alto riesgo (crédito, empleo, etc.) requiere evaluación de conformidad, transparencia, supervisión humana.
Datos Inferidos No regulados explícitamente. Propuesta de considerarlos datos personales sujetos a derechos. Interpretación amplia de “datos personales” podría incluirlos.
Delegado de Protección Datos (DPO) No exigido. Obligatorio para sector público, tratamiento de datos sensibles o a gran escala (Art. 44 ). Voluntario en otros casos. Art. 37-39. Obligatorio en casos similares (sector público, tratamiento a gran escala de datos sensibles o monitoreo regular). No lo exige directamente, pero interactúa con DPOs bajo GDPR.
Sanciones (Multas) $1.000-$100.000 (original). Actualizado por AAIP a $15M máx.. Propuesta de Unidades Móviles (UM) actualizables o % facturación global. Art. 83. Hasta €20M o 4% facturación global anual, el que sea mayor. Multas significativas por incumplimiento, también basadas en % facturación global, según nivel de riesgo y tipo de infracción.
Transferencias Internacionales Art. 12. Prohibición a países sin nivel adecuado. Excepciones limitadas. Mantiene prohibición. AAIP determina adecuación (Art. 24 ). Prevé otros mecanismos (garantías adecuadas, Art. 25 ). Art. 44-50. Decisiones de adecuación, Cláusulas Contractuales Tipo, Normas Corporativas Vinculantes, excepciones específicas. Regula IA de alto riesgo comercializada en UE, independientemente de origen. Interactúa con GDPR para transferencias.
Evaluación de Impacto (EIPD) No exigida. Exigida para tratamientos de alto riesgo (Art. 41 ). Art. 35. Obligatoria para tratamientos de alto riesgo. Requisito central para sistemas de IA de alto riesgo (evaluación de conformidad, gestión de riesgos continua).
Derecho de Oposición No general. Solo Art. 27.3 (publicidad). Derecho explícito a oponerse (Art. 30 ). Art. 21. Derecho general a oponerse (base: interés legítimo, interés público). Derecho absoluto para marketing directo.

Tabla 2: Jurisprudencia Relevante sobre Protección de Datos, Internet y Derechos Fundamentales en Argentina

Caso Tribunal Año Hechos Relevantes Holding/Ratio Decidendi Clave Implicancia para IA Generativa Snippets Relevantes
“Rodríguez, María Belén c/ Google Inc.” CSJN 2014 Modelo demanda a buscadores por uso no autorizado de imagen y vinculación con sitios pornográficos. Responsabilidad subjetiva de buscadores. Necesidad de conocimiento efectivo para remover/bloquear. Distinción entre contenido manifiestamente ilícito (notificación fehaciente) y dudoso (orden judicial/adm.). Establece un marco para responsabilidad de intermediarios, pero la IA generativa crea contenido, no solo indexa. Podría requerir adaptación o un estándar diferente. La distinción ilícito manifiesto/dudoso es relevante para outputs de IA.
“Denegri, Natalia Ruth c/ Google Inc.” CSJN 2022 Actriz solicita desindexar noticias antiguas sobre escándalos mediáticos (“derecho al olvido”). Revoca fallo de Cámara. Prioriza libertad de expresión e interés público sobre derecho al olvido (no autónomo). Desindexación es excepcionalísima, requiere ponderación rigurosa y daño desproporcionado. Limita fuertemente el “derecho al olvido” digital en Argentina, especialmente para información veraz y de interés público pasado. Aplicable a solicitudes de supresión de contenido generado por IA sobre hechos pasados.
“G. O., C. N. E. c/ Facebook Argentina S.R.L.” Cám. Fed. Bahía Blanca 2021 Acción de habeas data buscando bloqueo cautelar de publicaciones en redes sociales acusando al actor de abuso sexual infantil. Rechaza bloqueo cautelar. Prioriza libertad de expresión e interés público en denuncias (incluso si dañosas) sobre medida cautelar, considerándola censura previa. Falta de peligro en la demora específico para cautelar en habeas data. Refuerza alta protección de libertad de expresión frente a contenido potencialmente dañoso. Desafío para regular outputs falsos/difamatorios de IA sin caer en censura previa.
Facebook Argentina (Dictamen) Procuración General (ante CSJN) 2022 Discusión sobre legitimación pasiva de Facebook Argentina en habeas data. Sostiene que la filial local es sujeto obligado por Ley 25.326 y legitimada pasiva, independientemente de la estructura global. Relevante para asegurar aplicabilidad de ley argentina y jurisdicción sobre plataformas tecnológicas globales que operan IA en el país.

 6. Recapitulación 

La Ley 25.326, un instrumento valioso en su concepción, ha quedado desfasada ante la velocidad y profundidad de la transformación tecnológica impulsada por la Inteligencia Artificial Generativa.

Sus principios rectores y los derechos consagrados, diseñados para un ecosistema de datos diferente, se muestran insuficientes o de difícil aplicación frente a las prácticas de recolección masiva, la opacidad algorítmica y las capacidades creativas (y potencialmente dañosas) de estos nuevos sistemas.

Esta brecha normativa trasciende lo técnico y adquiere una dimensión constitucional crítica.

La falta de una regulación adecuada pone en riesgo derechos fundamentales como la intimidad, la autodeterminación informativa, la igualdad y la libertad.

La actualización de la Ley 25.326 es, por tanto, una necesidad impostergable para asegurar que el marco jurídico argentino esté a la altura de los desafíos del siglo XXI y pueda proteger eficazmente a los ciudadanos en el nuevo entorno digital.

La reforma debe ser integral y guiada por los principios constitucionales.

No se trata de frenar la innovación, sino de encauzarla dentro de límites que respeten la dignidad humana.

Esto exige incorporar nuevos derechos adaptados a la realidad algorítmica, reforzar los principios existentes con un enfoque basado en el riesgo y la responsabilidad proactiva, establecer obligaciones claras para los desarrolladores y usuarios de IA en materia de transparencia, equidad y seguridad, y dotar a la autoridad de control de las herramientas y facultades necesarias para una fiscalización y sanción efectivas. Solo a través de una legislación moderna, robusta y constitucionalmente sólida.

Argentina podrá aprovechar los beneficios de la IA generativa minimizando sus riesgos y garantizando que la tecnología se desarrolle en armonía con los derechos humanos y los valores democráticos.

Por Marcelo Lozano –  General Publisher IT CONNECT LATAM
Lea más sobre  Análisis de datos e IA en;

Automatización notas clínicas: Seguridad e IA 2025

Era Digital 2025: El Mundo Empresarial Transformador

IA 2025: La mente cautiva ¿un espejismo terrorífico?

Inteligencia Artificial 2025: El Espejo del Cinismo Digital

7 Claves para la Economía regional, la IA es esencial

Ley 25326, Ley 25326, Ley 25326, Ley 25326, Ley 25326, Ley 25326, Ley 25326, Ley 25326, Ley 25326, Ley 25326, Ley 25326, Ley 25326, Ley 25326, Ley 25326, Ley 25326, Ley 25326, Ley 25326, Ley 25326, Ley 25326, Ley 25326, Ley 25326, Ley 25326, Ley 25326, Ley 25326, Ley 25326, Ley 25326, Ley 25326, Ley 25326, Ley 25326, Ley 25326, Ley 25326, Ley 25326, Ley 25326, Ley 25326, Ley 25326, Ley 25326, 

Salir de la versión móvil