Inteligencia Artificial y Derecho en Argentina: Una Transformación en Curso entre la Innovación, la Ética y el Desafío Regulatorio
1. Introducción: La Inteligencia Artificial Desembarca en el Derecho Argentino

La inteligencia artificial (IA) ha irrumpido como una fuerza transformadora en múltiples sectores a nivel global, y su influencia se extiende de manera creciente hacia profesiones con una profunda raigambre tradicional, como es el caso de la abogacía.
El ámbito legal argentino, con su rica y compleja tradición jurídica, no es ajeno a esta disrupción tecnológica. Este fenómeno se manifiesta a través de diversas iniciativas que abarcan desde el sector público, con desarrollos notables como el sistema Prometea, hasta el ámbito privado y académico, donde la exploración y adopción de herramientas de IA comienzan a tomar impulso.
La publicación del libro “Impacto de la Inteligencia Artificial en el ámbito legal”, dirigido por Martín Leguizamón y Marcelo Lozano, se erige como un testimonio de la maduración de este debate en el país, pasando de ser una curiosidad tecnológica a un tema de análisis crítico y profundo sobre su implementación práctica, ética y, fundamentalmente, regulatoria.
La obra, cuyo subtítulo “CÓMO LA TECNOLOGÍA ESTÁ TRANSFORMANDO LA FORMA EN LA QUE SE EJERCE LA ABOGACÍA” encapsula su propósito, se presenta como un hito en la literatura jurídica argentina. Su aparición, prevista para 2025 , lo posiciona en la vanguardia de una discusión que ya no se centra en si la IA llegará al derecho, sino en cómo se está integrando y qué implicaciones conlleva.
Este compendio, que reúne las voces de diversos autores como Marco Rossi, Javier Orellana y Federico A. Kozak Grassini, bajo la dirección de Leguizamón y Lozano y con un prólogo de Juan Manuel Converset , no es un evento aislado.
Más bien, refleja una creciente conciencia en la comunidad legal sobre la necesidad de un análisis estructurado y sistemático, impulsado tanto por la disponibilidad global de tecnologías de IA más accesibles como por una presión competitiva y la búsqueda incesante de eficiencia en un sistema judicial y una práctica legal a menudo percibidos como sobrecargados o lentos.
Este artículo se propone explorar las múltiples facetas de esta transformación.
La tesis central que se desarrollará es que la inteligencia artificial no constituye una promesa lejana para el derecho argentino, sino una realidad palpable y presente que está reconfigurando activamente la práctica de la abogacía. Si bien esta irrupción genera eficiencias y abre un abanico de nuevas capacidades, también plantea interrogantes éticos fundamentales y desafíos regulatorios urgentes que el sistema legal nacional debe abordar de manera proactiva, integral y reflexiva.
A lo largo de las siguientes secciones, se desglosarán las transformaciones prácticas que la IA está induciendo, se recogerán las perspectivas de los expertos involucrados en la obra de referencia, se analizará la visión de otros actores del ecosistema legal argentino, se evaluará la preparación del andamiaje normativo actual y se profundizará en los dilemas éticos y los desafíos regulatorios que marcan el horizonte. El objetivo es ofrecer una panorámica completa de un campo en vertiginosa evolución, donde la innovación tecnológica y la tradición jurídica convergen, y a veces colisionan, en la búsqueda de una justicia más eficiente, pero también más justa y humana.
2. Transformaciones Fundamentales: La IA Remodelando la Práctica Legal en Argentina
La incursión de la inteligencia artificial en el ámbito legal argentino se sustenta en principios tecnológicos que están redefiniendo las capacidades y los métodos de trabajo de los profesionales del derecho. El libro “Impacto de la Inteligencia Artificial en el ámbito legal” dedica una sección a los “Principios básicos de la IA: aprendizaje automático y redes neuronales; algoritmos de decisión” , conceptos que no son meramente técnicos, sino la piedra angular sobre la cual se edifican las herramientas transformadoras. El aprendizaje automático (machine learning), por ejemplo, permite que los sistemas aprendan de vastos corpus de datos legales –jurisprudencia, doctrina, contratos– para identificar patrones, predecir posibles resultados o asistir en la toma de decisiones complejas. Los algoritmos de decisión, por su parte, se emplean para estructurar y automatizar ciertos procesos de razonamiento legal, desde la clasificación de documentos hasta la evaluación de riesgos procesales.
Automatización de Procesos Legales: Eficiencia y Nuevas Capacidades
Una de las transformaciones más evidentes es la automatización de procesos legales. En la investigación y análisis jurídico, herramientas de IA pueden procesar y analizar ingentes bases de datos legislativas y jurisprudenciales con una velocidad y precisión que superan los métodos tradicionales. La capacidad de identificar precedentes relevantes o líneas argumentales en cuestión de minutos, en lugar de horas o días, representa un cambio paradigmático.
La redacción y revisión de documentos también se ve impactada. La IA se utiliza para generar borradores de escritos legales, contratos e incluso para revisar documentos en busca de errores, inconsistencias o cláusulas específicas. En el contexto argentino, la discusión sobre la “redacción inteligente” y la optimización de prompts para interactuar con modelos de IA generativa es cada vez más relevante.
En la gestión de casos y despachos, el software de gestión legal que incorpora IA optimiza flujos de trabajo, administra plazos y mejora la comunicación con los clientes. Si bien no todas las herramientas disponibles en el mercado argentino, como CaseTracking by Lemontech, Legalsurf o TimeBillingX , son explícitamente basadas en IA avanzada, marcan una clara tendencia hacia la tecnificación y constituyen el terreno fértil donde la IA puede integrarse progresivamente.
Los chatbots y asistentes virtuales emergen para la atención primaria al cliente, el triaje de consultas legales básicas o como asistentes para los propios abogados. No obstante, es crucial reconocer sus limitaciones actuales, como la posible desactualización respecto a leyes recientes o su incapacidad para ofrecer un asesoramiento legal personalizado y complejo que requiere el juicio humano.
Impacto en la Legislación, la Jurisprudencia y Casos Emblemáticos

El libro de Leguizamón y Lozano también explora cómo la IA podría influir en la forma en que se crea, interpreta y aplica la ley. Existe un potencial considerable en el análisis de tendencias jurisprudenciales y la predicción de posibles fallos, aunque esto debe abordarse con extremas cautelas éticas para no socavar la independencia judicial ni el derecho a un juicio justo.
Otro ejemplo es el Motor de Inteligencia Artificial (MIA), un programa piloto implementado en el Poder Judicial de la Ciudad de Buenos Aires e integrado al sistema de Expediente Judicial Electrónico (EJE). MIA actúa como un asistente virtual que genera borradores y automatiza tareas rutinarias, permitiendo que los operadores judiciales puedan concentrar sus esfuerzos en cuestiones de mayor complejidad. Si bien la información específica sobre la adopción de IA por grandes estudios jurídicos como Marval, O’Farrell & Mairal o Bomchil no se detalla en las fuentes consultadas, el estudio de Juan G. Corvalán y Albert Ferre sobre la implementación de IAGen en estudios jurídicos y áreas legales, que analiza 27 tipos de tareas, evidencia un creciente interés y exploración en el sector privado.
La adopción de IA en el sector legal argentino parece seguir una doble vía: por un lado, iniciativas “de arriba hacia abajo” provenientes del sector público judicial, como Prometea y MIA, enfocadas en la eficiencia sistémica y la estandarización; por otro, una adopción “de abajo hacia arriba” en estudios y por profesionales individuales, impulsada por la disponibilidad de herramientas de IA generativa y la necesidad de mantener la competitividad. Esta dualidad sugiere diferentes motivaciones y también distintos desafíos.
Si bien la automatización de tareas repetitivas es un beneficio incuestionable , subyace el riesgo de una pérdida de habilidades fundamentales (de-skilling) en las nuevas generaciones de abogados si la dependencia de la IA para tareas formativas –como la investigación inicial o la redacción de los primeros borradores– no se gestiona con una pedagogía adecuada. Las tareas de menor valor agregado son, a menudo, el crisol donde los abogados junior forjan su pericia inicial. La transformación, por ende, no se trata solo de incorporar herramientas, sino de un rediseño inteligente de los procesos legales y de la formación jurídica. La mera inserción de IA en flujos de trabajo obsoletos podría no generar el máximo beneficio; se requiere una reingeniería de cómo se concibe y se presta el servicio legal.
A continuación, se presenta una tabla que resume algunas aplicaciones emblemáticas de IA en el ámbito legal argentino:
Tabla 1: Aplicaciones Emblemáticas de IA en el Ámbito Legal Argentino
Nombre de la Herramienta/Sistema | Desarrollador/Implementador | Función Principal | Impacto Observado/Potencial | Fuente(s) |
---|---|---|---|---|
Prometea | IALAB (UBA) / Ministerio Público Fiscal CABA | Asistencia en redacción de dictámenes, búsqueda de leyes, predicción de modelos | Reducción drástica de tiempos procesales, automatización de tareas repetitivas (57%), alta efectividad (96%) | |
MIA (Motor de IA) | Poder Judicial de la Ciudad de Buenos Aires | Asistente virtual para expedientes judiciales, generación de borradores | Automatización de tareas rutinarias, optimización del trabajo de operadores judiciales | |
Sistemas de IAGen en Estudios | Estudios jurídicos y departamentos legales (implementación general) | Redacción asistida, investigación, análisis de documentos, gestión de casos | Aumento de eficiencia, reducción de costos, mejora en la calidad de algunos servicios (potencial según estudio Corvalán) |
Esta tabla permite visualizar ejemplos concretos de IA en acción, anclando la discusión teórica en la realidad práctica del sistema legal argentino.
3. Voces Expertas: Desafíos y Oportunidades Según los Protagonistas del Libro
El libro “Impacto de la Inteligencia Artificial en el ámbito legal” no solo analiza la tecnología, sino que también canaliza las reflexiones de sus artífices. Las perspectivas de sus directores y autores, inferidas de sus trayectorias y las temáticas que aborda la obra, ofrecen una visión multifacética de los desafíos y oportunidades que la IA presenta al derecho argentino.
Perspectivas de los Directores: Martín Leguizamón y Marcelo Lozano
Martín Leguizamón, reconocido por su pionera labor en litigios contra gigantes tecnológicos y su especialización en nuevas tecnologías, derecho a la imagen y el “derecho al olvido” , probablemente aporte una visión centrada en la imperiosa necesidad de proteger los derechos individuales en un entorno digital crecientemente mediado por la IA.
Su experiencia subraya la urgencia de marcos legales que se adapten a la vertiginosa velocidad del cambio tecnológico, con especial atención a los desafíos que la IA plantea para la privacidad, el honor y la autodeterminación informativa.
Como director de la obra, su impronta se reflejará en el análisis del impacto de la IA en la legislación, la jurisprudencia y, crucialmente, la protección de datos, temas centrales del libro. Su rol sugiere una preocupación por una integración de la IA que no sacrifique garantías fundamentales.
Marcelo Lozano, con una sólida trayectoria en ciberseguridad, cibercrimen y un profundo conocimiento de las tendencias tecnológicas, evidenciado en su actividad como fundador de IT Connect Latam y director en AALCC , seguramente enfatizará los riesgos inherentes a la seguridad de los sistemas de IA en el ámbito legal.
Su perspectiva probablemente se inclina hacia la necesidad de robustez, confiabilidad y resiliencia en las aplicaciones legales de IA, sin dejar de reconocer las oportunidades para optimizar la eficiencia y la toma de decisiones, pero siempre con una aguda conciencia de las vulnerabilidades.
La sección del libro sobre “ética y responsabilidad en sistemas de IA; marco legal actual y derechos de los algoritmos” es un claro reflejo de estas preocupaciones. Su canal “IT Connect Secure Stream” es una plataforma desde la cual difunde la importancia de abordar estos temas con criticismo y profesionalismo.
Aportes de Otros Autores del Libro
Marco Rossi, cuya labor como Director del Laboratorio de IA, Innovación y Transformación Digital (DYNTEC) en la UNT y su experiencia en el poder judicial de Tucumán lo posicionan como un experto en la aplicación práctica de la IA en la justicia , seguramente habrá contribuido con análisis sobre la transformación de los procesos judiciales y los desafíos de implementación en el sector público. Su concepción de la abogacía como una “tecnología para resolver conflictos” ofrece un marco innovador para entender el rol de la IA. Temas como la investigación y análisis jurídico automatizado, y el impacto en la legislación y jurisprudencia, son áreas naturales de su aporte al libro.
En cuanto a Javier Orellana, tiene una especialización directa en IA y derecho argentino. Sin embargo, su coautoría con Marco Rossi en una obra sobre Metaverso y resolución de conflictos sugiere un interés en las nuevas fronteras legales que la IA y tecnologías inmersivas abren, particularmente en la gestión de disputas en entornos digitales avanzados. Su contribución al libro podría haberse centrado en “casos de estudio” innovadores o en la prospectiva sobre “el futuro de la IA y la ley”.
Federico A. Kozak Grassini, a través de sus trabajos sobre “Inteligencia Artificial y Neuromarketing” desde la perspectiva del Derecho del Consumo y la Contratación de Seguros , aporta una dimensión crucial: cómo la IA, al influir en la toma de decisiones de los consumidores (a menudo explotando sesgos cognitivos), redefine las relaciones de consumo y plantea nuevos desafíos para la protección de datos, la privacidad y la responsabilidad contractual. Las secciones del libro sobre “protección de datos y privacidad; neuromarketing” y “ética y responsabilidad en sistemas de IA” se nutren directamente de esta línea de investigación.
La Visión del Prologuista: Juan Manuel Converset
El prólogo de la obra, de Juan Manuel Converset, probablemente enmarque la discusión general del libro. Desde una posición con experiencia en el Poder Judicial y en la intersección del derecho y la tecnología, su introducción destaca la necesidad de adaptación del sistema judicial, el delicado equilibrio entre la búsqueda de eficiencia mediante la IA y la salvaguarda de las garantías procesales, y la insustituible importancia de la supervisión humana en cualquier implementación tecnológica en la justicia.
La diversidad de perfiles de los autores del libro subraya una realidad fundamental: el impacto de la IA en el derecho no es un tema monolítico que pueda ser abordado desde una única disciplina. Requiere, por su propia naturaleza, un enfoque interdisciplinario. El derecho no opera en un vacío; la IA, con sus profundas implicaciones en la cognición, la economía, la seguridad y la interacción social, exige que los juristas dialoguen y colaboren con expertos de otras áreas. La composición del equipo autoral del libro es, en este sentido, un microcosmos de esta necesidad imperante.
Además, las perspectivas de estos expertos, muchos de los cuales combinan experiencia en la vanguardia tecnológica con un profundo conocimiento del sistema judicial tradicional, probablemente reflejen una tensión productiva.
Esta tensión se da entre el impulso innovador de la IA y la necesidad crítica de preservar los principios y garantías fundamentales que sustentan el Estado de Derecho. Figuras como Leguizamón, que ha contribuido a crear jurisprudencia en el ámbito tecnológico , Rossi, que implementa innovaciones en la justicia tucumana , y Converset, que impulsa la IA en el Poder Judicial de CABA , navegan constantemente esta frontera, buscando integrar la tecnología sin socavar los cimientos del sistema legal.
Finalmente, el hecho de que el libro se proyecte hacia “El futuro de la IA y la ley” e incluya discusiones sobre “Desafíos y soluciones en super alineación” es significativo. Indica que los autores no se limitan a un diagnóstico del presente, sino que están activamente comprometidos en la prospectiva y en la búsqueda de soluciones a problemas complejos y emergentes. La “super alineación”, un concepto avanzado que se refiere a asegurar que sistemas de IA muy inteligentes actúen de acuerdo con las intenciones humanas y valores éticos, es un tema de frontera. Su inclusión en una obra jurídica argentina es notable y evidencia una vocación progresista y una profunda comprensión de los desafíos a largo plazo.
4. El Pulso de la Profesión: La Visión de Abogados, Jueces y Académicos Argentinos
La irrupción de la inteligencia artificial en el derecho argentino no es solo un tema de debate teórico, sino una realidad que está siendo experimentada y evaluada por los diversos actores del sistema legal. Sus percepciones, que oscilan entre el entusiasmo por las nuevas posibilidades y una cautela necesaria ante los riesgos, configuran el panorama actual de adopción y adaptación.
Abogados en Ejercicio: Entre la Adopción Entusiasta y la Cautela Necesaria
Para muchos abogados en ejercicio, la IA se presenta como una herramienta prometedora para transformar su práctica diaria. La principal atracción radica en la posibilidad de mejorar la eficiencia, reducir costos operativos y tiempos de trabajo, y automatizar tareas repetitivas que consumen una parte considerable de su jornada. Aplicaciones como el análisis rápido de grandes volúmenes de datos para la investigación jurídica, la asistencia en la redacción de borradores de documentos legales y la optimización de la gestión de casos son vistas con gran interés.
Sin embargo, la adopción no está exenta de barreras. Los costos de implementación de algunas soluciones de IA, la necesidad de adquirir nuevas habilidades tecnológicas y analíticas, una natural resistencia al cambio en una profesión tradicionalmente conservadora, y una significativa falta de conocimiento sobre cómo integrar efectivamente la IA generativa (IAGen) en los flujos de trabajo son obstáculos importantes.
Un estudio reciente, referenciado por Corvalán, señala que mientras un 73% de los abogados espera tener integradas herramientas de IAGen en su trabajo, una proporción similar admite no saber aún cómo hacerlo eficazmente. Esta brecha entre el potencial reconocido de la IA y la capacidad actual de muchos profesionales para implementarla es un factor crítico que podría llevar a una adopción desigual o a un uso incorrecto de la tecnología, como lo demuestran casos internacionales donde abogados han sido sancionados por utilizar IA sin verificar la exactitud de los resultados, llegando a citar jurisprudencia inexistente.
Las preocupaciones éticas y de responsabilidad profesional también son palpables. El temor a los errores de la IA, comúnmente denominados “alucinaciones”, la definición de la responsabilidad por el contenido generado por estas herramientas, y la crucial protección de los datos del cliente y el mantenimiento de la confidencialidad profesional son temas de debate constante.
En este contexto, el rol de los colegios de abogados se vuelve fundamental. Iniciativas como la del Colegio de Abogados de Rosario, que ha presentado un documento con recomendaciones para el uso ético y responsable de la IAGen por parte de los profesionales del derecho, marcan un camino a seguir. Estos lineamientos enfatizan principios clave como la primacía de los derechos fundamentales, la transparencia en el uso de la tecnología, la necesidad de obtener el consentimiento informado de los clientes, la protección de datos personales y, de manera crucial, la obligación de una revisión crítica y una supervisión humana adecuada del contenido generado por IA. Esta proactividad de las instituciones profesionales es vital, ya que pueden ofrecer guías prácticas y actualizadas ante la velocidad del cambio tecnológico, complementando y, en ocasiones, anticipando la regulación estatal.
Jueces y Funcionarios Judiciales: Impulsando la IA con Supervisión Humana
Desde el Poder Judicial, la perspectiva sobre la IA es mayormente positiva, aunque siempre acompañada de un fuerte énfasis en la necesidad de control humano.
En eventos como la SAIAConf 2024, jueces y funcionarios han destacado cómo la IA está contribuyendo a agilizar trámites (como la gestión de cartas de ciudadanía o expedientes previsionales), mejorar la consistencia en las decisiones judiciales al evitar fallos contradictorios, y permitir que los magistrados puedan concentrarse en el análisis profundo de casos complejos, lo que, paradójicamente, podría llevar a una justicia “más humana”.
Casos como Prometea y MIA son frecuentemente citados como ejemplos exitosos de cómo la IA puede ser una herramienta clave para una gestión más eficiente y equitativa del cumplimiento de la ley. Sin embargo, existe un consenso robusto entre los miembros de la judicatura: la IA no reemplaza ni reemplazará el rol crítico e insustituible de los jueces. El sistema, en todas sus instancias, debe estar siempre supervisado por seres humanos para asegurar la precisión, la equidad y la justicia de las decisiones. Las preocupaciones giran en torno a la necesidad de establecer un marco ético y seguro para su implementación, reconociendo que los sistemas de IA pueden fallar o incorporar sesgos si no son adecuadamente diseñados y auditados. Esta convergencia en la preocupación por la ética y la supervisión humana, tanto desde la abogacía como desde la judicatura, constituye una base sólida para el desarrollo de directrices y regulaciones que gocen de amplia aceptación.
Académicos y la Formación del Abogado del Futuro
La academia jurídica argentina también está respondiendo al desafío de la IA. Se reconoce que la adopción de estas tecnologías requerirá que los profesionales del derecho desarrollen nuevas competencias, no solo técnicas, sino también en áreas como el análisis de datos, la ética aplicada a la IA y la gestión tecnológica.
En respuesta a esta demanda, han surgido diversas ofertas de capacitación. El Colegio Público de Abogados de la Capital Federal (CPACF) ofrece cursos como “Inteligencia Artificial Para Abogados”, que cubren desde los conceptos introductorios hasta las aplicaciones legales específicas, el marco regulatorio argentino, las consideraciones éticas y el desarrollo de proyectos prácticos. Universidades de prestigio, como la Universidad de Buenos Aires a través de su Laboratorio de Innovación e Inteligencia Artificial (IALAB) y la Universidad del CEMA (UCEMA), han lanzado programas de posgrado y diplomaturas enfocados en Legaltech, IA y Derecho.
Estos programas suelen combinar la teoría con la aplicación práctica, enseñando a los profesionales a desarrollar aplicaciones low-code, gestionar proyectos legaltech, utilizar datos para la toma de decisiones y comprender los nuevos modelos de negocios legales. Los contenidos incluyen desde la introducción a grandes modelos de lenguaje (LLMs) como ChatGPT hasta el legal prompting, la ética, la privacidad y los ciberdelitos.
El desafío principal para las instituciones educativas radica en integrar estos conocimientos de manera transversal en la formación de grado y posgrado, y no solo como cursos aislados o optativos. La adaptación a la IA en el derecho argentino no es meramente una cuestión de adquirir nuevas herramientas tecnológicas; es un cambio cultural y educativo profundo que requiere una nueva mentalidad, una inversión sostenida en formación continua y un diálogo interdisciplinario constante entre todos los actores del sistema legal.
5. El Andamiaje Normativo: ¿Está Preparado el Sistema Legal Argentino para la IA?
La creciente integración de la inteligencia artificial en la práctica legal y en la sociedad en general plantea una pregunta crucial: ¿cuenta el sistema legal argentino con el andamiaje normativo adecuado para gobernar esta tecnología disruptiva? La respuesta actual es compleja, marcada por la ausencia de una ley específica de IA, la aplicación analógica de normativas preexistentes y un efervescente debate legislativo que busca llenar este vacío.
Marco Legal Existente y su (In)suficiencia
En la actualidad, Argentina no posee una ley integral que regule la inteligencia artificial de manera específica. Esto obliga a recurrir a marcos legales existentes, cuya aplicabilidad y suficiencia son objeto de análisis. La Ley 25.326 de Protección de Datos Personales es, quizás, la normativa más directamente relevante, especialmente en lo que concierne a la recopilación, tratamiento, consentimiento y transferencia de datos personales por parte de sistemas de IA. Principios fundamentales de esta ley, como el consentimiento informado, la finalidad específica del tratamiento de datos, la seguridad de la información y los derechos de acceso, rectificación, cancelación y oposición (ARCO), son cruciales. Sin embargo, surgen desafíos interpretativos al intentar aplicar estos principios a la escala y naturaleza de los grandes modelos de lenguaje (LLM), que se entrenan con ingentes volúmenes de datos, muchos de ellos de acceso público, o a las inferencias y perfiles que la IA puede generar sobre los individuos.
En el ámbito de la responsabilidad civil por daños causados por IA, la discusión se centra en la posible aplicación del Artículo 1757 del Código Civil y Comercial de la Nación, que regula la responsabilidad derivada de actividades riesgosas o peligrosas. Se argumenta que la utilización de algoritmos, especialmente aquellos basados en machine learning y deep learning con capacidad de autoaprendizaje y comportamiento emergente, podría considerarse una actividad riesgosa por su naturaleza, los medios empleados o las circunstancias de su realización, habilitando un factor de atribución objetivo (riesgo creado) donde se responde aun sin culpa. Un obstáculo conceptual es que un algoritmo, en sentido estricto, no es una “cosa” según la definición del Art. 16 del CCyC, sino más bien un bien inmaterial; no obstante, el Art. 1757 también contempla “actividades” riesgosas, lo que podría abrir una vía interpretativa.
Adicionalmente, la Ley 24.240 de Defensa del Consumidor resulta aplicable cuando la IA se utiliza en el contexto de relaciones de consumo, ofreciendo protección contra prácticas abusivas, falta de información veraz y detallada, o daños causados por productos o servicios basados en IA.
Proyectos de Ley en el Congreso Argentino: Un Panorama Efervescente
La conciencia sobre la necesidad de una regulación específica ha impulsado la presentación de diversos proyectos de ley en el Congreso argentino. Entre los más destacados se encuentran:
Proyecto 3003-D-2024 “Régimen Jurídico Aplicable para el Uso Responsable de la IA”: Este proyecto busca establecer un régimen legal para el uso responsable de la IA, promoviendo su aplicación ética y la protección de los derechos fundamentales. Propone principios rectores como la transparencia, robustez, equidad y responsabilidad proactiva. Entre sus claves se encuentran la exigencia de una evaluación de impacto en derechos humanos para proyectos de IA, un sistema de gestión de riesgos categorizados (inaceptable, alto, medio, bajo), la asignación de deberes específicos para proveedores y usuarios, la designación del Instituto Nacional de Tecnología Industrial (INTI) como autoridad de aplicación y fiscalización, un régimen de sanciones y la creación de un Consejo Asesor en IA.
Proyecto 2505-D-2023 “Marco legal para la regulación del desarrollo y uso de la IA”: Con objetivos similares al anterior, este proyecto también se enfoca en establecer un marco para la investigación, desarrollo, uso y regulación de la IA, garantizando la protección de derechos humanos, privacidad y seguridad. Comparte muchos principios, pero pone un énfasis particular en la explicabilidad de los sistemas de IA. Propone la creación de una Autoridad de Supervisión de IA (ASIA), un registro público de sistemas de IA, y detalla un régimen de responsabilidad por daños causados por errores de uso.
Proyecto 1013-D-2024 “Ley Turing: Readecuación del Sistema Legal Argentino por el Impacto de la IA”: Este proyecto adopta un enfoque diferente y particularmente interesante. En lugar de crear un régimen de IA completamente nuevo y aislado, busca “readecuar” el marco normativo argentino existente –modificando el Código Civil y Comercial, la Ley de Propiedad Intelectual, el Código Penal y la Ley de Protección de Datos Personales– para abordar los impactos específicos de la IA. Propone, por ejemplo, regular el “material sintético” y el consentimiento para el uso de la imagen o voz en producciones de IA (nuevo Art. 53 Bis CCyC), distinguir entre “producciones sintéticas” (que no generarían derechos de propiedad intelectual) y “producciones asistidas” (donde la PI recaería sobre el aporte humano), tipificar penalmente la creación y difusión de “pornografía sintética” y su uso con fines extorsivos, e incorporar a la Ley 25.326 la exigencia de supervisión humana e integridad de los datos en los sistemas de IA que traten datos personales. Este enfoque de “readecuación” reconoce que la IA no solo necesita su propia ley, sino que transforma la aplicabilidad y la interpretación de las normas preexistentes, permeando y desafiando múltiples áreas del derecho
La existencia de estos múltiples proyectos legislativos, con enfoques a veces complementarios y otras divergentes, indica una amplia toma de conciencia sobre la urgencia de regular la IA. Sin embargo, también evidencia una potencial fragmentación en el abordaje legislativo, lo que podría derivar en un proceso de consolidación normativa complejo o en la coexistencia de regulaciones parciales si no se alcanza un consenso unificador.
Comparativa con Tendencias Globales
Los esfuerzos regulatorios en Argentina no ocurren en un vacío. El enfoque basado en riesgos, presente en los proyectos 3003-D-2024 y 2505-D-2023, guarda similitudes con el Reglamento de Inteligencia Artificial de la Unión Europea (conocido como “AI Act”). Existe una conciencia de la necesidad de evitar formatos normativos excesivamente rígidos o burocráticos que puedan ahogar la innovación, y de mantener una alineación con los estándares y mejores prácticas internacionales para fomentar un ecosistema de IA competitivo y confiable.
Un desafío no explícitamente abordado en los proyectos, pero que emerge de la aplicación de IA en la justicia (como Prometea o MIA) y las discusiones sobre responsabilidad civil , es la potencial cuestión de la “cosa juzgada algorítmica”. Si un error de IA, no detectado por la supervisión humana, influye en una decisión judicial que adquiere firmeza, se abrirían complejos debates sobre los mecanismos de revisión y la responsabilidad del Estado o de los desarrolladores, poniendo a prueba los cimientos de la seguridad jurídica.
La siguiente tabla ofrece una comparativa de los proyectos de ley más relevantes:
Tabla 2: Comparativa de Proyectos de Ley Clave sobre IA en Argentina
Esta tabla permite comprender de manera concisa las diferentes iniciativas legislativas, facilitando la comparación de enfoques y la comprensión de la complejidad del proceso legislativo en curso.
6. Dilemas Éticos y Protección de Derechos en la Era de la IA Legal
La integración de la inteligencia artificial en el sistema legal argentino, si bien promete avances significativos en eficiencia y capacidad de análisis, también desata una serie de dilemas éticos complejos y exige una atención renovada a la protección de los derechos fundamentales. El libro “Impacto de la Inteligencia Artificial en el ámbito legal” de Leguizamón y Lozano sitúa la “ética y responsabilidad en sistemas de IA” como un eje central de la discusión, reconociendo que la tecnología no puede avanzar desvinculada de un marco valorativo sólido.
Sesgos Algorítmicos: La Justicia Puesta a Prueba
Uno de los desafíos éticos más acuciantes es el de los sesgos algorítmicos (algorithmic bias). Estos se definen como errores sistemáticos en los algoritmos de aprendizaje automático que conducen a resultados injustos, desiguales o discriminatorios, a menudo porque los datos con los que fueron entrenados reflejan y, por ende, perpetúan o incluso amplifican prejuicios socioeconómicos, raciales, de género u otros preexistentes en la sociedad. En el ámbito del derecho, el impacto de estos sesgos puede ser devastador: desde perpetuar desigualdades en la administración de justicia –como se ha observado con sistemas predictivos de reincidencia en otros países, como el caso COMPAS en Estados Unidos – hasta influir de manera injusta en el acceso a servicios legales, la selección de personal en estudios jurídicos o la fijación de precios en seguros. En Argentina, la toma de conciencia sobre este riesgo impulsa la necesidad de implementar auditorías y evaluaciones constantes de los sistemas de IA para identificar, mitigar y corregir estos sesgos. La discusión sobre “algoritmos verdes” , que podría interpretarse como algoritmos más justos o equitativos, también se inscribe en esta preocupación.
Transparencia y Explicabilidad: Abriendo la “Caja Negra”
La naturaleza de algunos modelos de IA avanzados, particularmente aquellos basados en deep learning, a menudo los convierte en “cajas negras”, donde la lógica interna que lleva a una determinada decisión o resultado no es fácilmente comprensible ni para sus desarrolladores ni, mucho menos, para los usuarios finales. En un sistema legal que se fundamenta en la motivación de las decisiones, el derecho a la defensa y la posibilidad de revisión, esta opacidad algorítmica representa un desafío ético y procesal de primer orden. Si un juez se apoya en una predicción o recomendación de una IA cuyo razonamiento interno no puede ser completamente explicitado, ¿cómo se garantiza el debido proceso? ¿Cómo puede una parte refutar una conclusión si no comprende su base algorítmica? Los proyectos de ley argentinos reconocen esta problemática al exigir transparencia en el funcionamiento de los sistemas de IA y el derecho de los individuos a solicitar explicaciones sobre las decisiones tomadas por IA que les afecten significativamente. Esta demanda de transparencia y explicabilidad (XAI) es crucial para mantener la confianza en el sistema.
Responsabilidad por Errores de la IA: ¿Quién Paga los Platos Rotos?
La pregunta sobre quién responde cuando un sistema de IA comete un error con consecuencias legales dañosas es fundamental y compleja. ¿La responsabilidad recae en el desarrollador que programó el algoritmo, en la entidad que lo implementó en un contexto específico, en el usuario final que interactuó con él, o incluso, hipotéticamente, en la propia IA si se le atribuyera algún tipo de personalidad jurídica (un tema aún muy lejano y debatido)? Los proyectos de ley argentinos intentan delinear regímenes de responsabilidad que involucran a desarrolladores, proveedores y usuarios, estableciendo deberes de diligencia y prevención. La supervisión humana se considera un factor mitigante importante, pero no necesariamente eximente de responsabilidad si el error era previsible o evitable con mayores controles.
Protección de Datos Personales y Privacidad: Un Desafío Renovado
La Ley 25.326 de Protección de Datos Personales sigue siendo el pilar fundamental , pero la IA introduce riesgos específicos. La recopilación masiva de datos necesaria para el entrenamiento de grandes modelos de lenguaje, la capacidad de estos sistemas para realizar inferencias sofisticadas sobre datos personales (incluso generando nueva información sensible), y el potencial de reidentificación de datos que se creían anonimizados, exigen una aplicación rigurosa y una posible actualización de la normativa. El consentimiento informado debe ser especialmente claro respecto al uso de datos por sistemas de IA, y la protección de la confidencialidad en la relación abogado-cliente se vuelve crítica cuando se utilizan herramientas de IA que podrían procesar información sensible.
El Rol Insustituible de la Supervisión Humana Crítica
Un consenso emerge con fuerza de todas las discusiones: la IA debe ser vista como una herramienta de asistencia y potenciación de las capacidades humanas, no como un reemplazo del juicio y la decisión final de los profesionales del derecho. Existe una obligación ineludible para los abogados y jueces de verificar rigurosamente la información, las recomendaciones o los borradores producidos por IA antes de incorporarlos a su trabajo o a sus decisiones. La “sobreconfianza tecnológica”, es decir, la aceptación acrítica de los resultados de la IA, es un riesgo significativo que puede llevar a errores graves y a la vulneración de derechos.
La mención en el libro de Leguizamón y Lozano de “derechos de los algoritmos” es, sin duda, provocadora. Es probable que se refiera más a la necesidad de definir el estatus legal, las capacidades y las responsabilidades asociadas a los algoritmos y sistemas de IA autónomos, que a la intención de otorgarles derechos en un sentido análogo a los humanos.
La discusión ética y jurídica debe permanecer firmemente centrada en cómo los algoritmos impactan los derechos humanos y las garantías fundamentales, y no en la creación de una nueva categoría de “derechos algorítmicos” que pueda entrar en conflicto o diluir la protección de las personas. El énfasis en la ética, por tanto, no debe ser visto únicamente como un freno a la innovación, sino como una condición indispensable para generar la confianza y la legitimidad necesarias para una adopción sostenible y beneficiosa de la IA en el sensible campo del derecho.
7. Hacia el Futuro: Desafíos Regulatorios y el Horizonte de la IA Legal en Argentina
El camino de la inteligencia artificial en el derecho argentino está en plena construcción, y su trayectoria futura dependerá de cómo se aborden los inminentes desafíos regulatorios y de la capacidad del país para capitalizar las oportunidades que esta tecnología ofrece. La visión prospectiva es crucial para navegar un entorno en constante y rápida evolución.
Principales Desafíos Regulatorios a Corto y Mediano Plazo
El primer gran desafío es la consolidación legislativa. Argentina se encuentra en un momento de efervescencia regulatoria, con múltiples proyectos de ley sobre IA en danza. Lograr un marco legal unificado, coherente, que goce de amplio consenso y que evite la superposición o contradicción normativa es una tarea prioritaria. Este marco deberá ser, además, inherentemente adaptable. La velocidad del cambio tecnológico exige regulaciones flexibles y dinámicas, capaces de ajustarse a nuevas realidades sin caer en la obsolescencia prematura.
La definición clara de responsabilidades por los daños que puedan causar los sistemas de IA es otro nudo crítico. Es imperativo establecer regímenes de responsabilidad civil y penal que consideren la compleja cadena de actores involucrados: desde los desarrolladores y programadores hasta quienes implementan los sistemas y los usuarios finales. Esto se vincula directamente con la necesidad de una fiscalización y cumplimiento efectivos. Las autoridades de aplicación que se designen (ya sea el INTI, una nueva ASIA, u otra entidad) deberán contar con los recursos técnicos, humanos y financieros para supervisar adecuadamente el cumplimiento de las normativas y aplicar sanciones cuando corresponda.
La protección de datos en la era de los Grandes Modelos de Lenguaje (LLM) presenta desafíos particulares. La Ley 25.326 deberá interpretarse y, posiblemente, actualizarse para abordar cómo se aplica al entrenamiento de estos modelos con vastos conjuntos de datos (muchos de ellos públicos), a las inferencias que generan sobre las personas y a los riesgos de privacidad asociados. Finalmente, la regulación del “material sintético” y los deepfakes, como propone la “Ley Turing” , será esencial para combatir la desinformación, proteger la imagen y el honor, y prevenir su uso con fines delictivos.
Argentina como Potencial Hub de IA: Capacidades y Estrategias
A pesar de los desafíos, existe una visión optimista sobre el potencial de Argentina para convertirse en un hub global de inteligencia artificial. Según una encuesta de Argencon, un notable 96,5% de las empresas considera esta posibilidad viable. Para materializar esta aspiración, el país necesita desarrollar y fortalecer una serie de capacidades clave. El ranking de importancia según Argencon es elocuente: en primer lugar, una infraestructura tecnológica robusta (centros de datos, redes de comunicación eficientes, fuentes de energía estables); seguido de un marco regulatorio adecuado que fomente la innovación sin desproteger derechos; y, en tercer lugar, la formación de técnicos y profesionales altamente cualificados. También se mencionan la estimulación de la demanda de IA tanto en el aparato productivo como en la sociedad en general.
Las estrategias para alcanzar este objetivo incluyen evitar formatos normativos excesivamente rígidos y burocráticos, alinear las prácticas locales con los estándares internacionales, contemplar la especificidad de los casos particulares en la regulación, favorecer la radicación de centros de excelencia en IA y, fundamentalmente, promover la capacitación y educación masiva en esta tecnología. El éxito de Argentina como hub de IA dependerá de cómo gestione un complejo “trilema”: fomentar la innovación (que a menudo requiere flexibilidad), establecer una regulación protectora (que implica ciertas restricciones) y desarrollar la infraestructura y el talento necesarios (que demandan inversión y tiempo). Si el país no logra desarrollar capacidades locales sólidas y depende excesivamente de tecnologías de IA importadas, corre el riesgo de un “colonialismo algorítmico”, donde los sistemas que utiliza, incluidos los legales, podrían estar entrenados con datos y sesgos ajenos a su realidad sociocultural.
La Evolución Continua de la Profesión Legal y el Sistema de Justicia
La IA no solo transformará las herramientas, sino también los roles dentro de la profesión legal. Emergerán nuevas especializaciones: abogados expertos en ética de la IA, en auditoría de algoritmos, en litigios tecnológicos complejos, y consultores en legaltech. El futuro no parece ser de un reemplazo total del abogado por la máquina, sino de una colaboración humano-máquina donde la IA potencie las capacidades humanas, liberando a los profesionales de tareas rutinarias para que puedan enfocarse en el pensamiento estratégico, la empatía y la resolución creativa de conflictos. Esto exigirá una cultura de aprendizaje continuo y adaptación constante por parte de toda la comunidad legal.
Finalmente, la gran pregunta para el sistema de justicia es cómo garantizar que la IA contribuya a hacerlo más accesible, eficiente y equitativo para todos los ciudadanos, sin crear nuevas brechas o injusticias. La IA tiene el potencial tanto de exacerbar las desigualdades en el acceso a la justicia (si las herramientas más avanzadas solo están al alcance de unos pocos) como de reducirlas (si se utiliza para ofrecer servicios legales más asequibles o para agilizar los procesos judiciales de manera universal). La dirección que tome esta balanza dependerá crucialmente de las políticas públicas, las decisiones de inversión y el compromiso ético de todos los actores involucrados. Mantener la confianza pública en un sistema judicial que integra cada vez más estas poderosas herramientas será un desafío constante y fundamental.
8. Navegando la Convergencia entre Inteligencia Artificial y Derecho en el Horizonte Argentino
La inteligencia artificial ha dejado de ser una especulación futurista para convertirse en una fuerza activa que está remodelando la práctica y el sistema legal en Argentina. La presente nota periodística, tomando como eje el análisis propuesto en la obra “Impacto de la Inteligencia Artificial en el ámbito legal” dirigida por Martín Leguizamón y Marcelo Lozano, ha explorado las múltiples dimensiones de esta transformación. Se evidencia un impulso claro hacia la adopción de la IA, motivado por la búsqueda de eficiencia, la optimización de procesos y la apertura de nuevas capacidades analíticas y de gestión. Sin embargo, este avance tecnológico no está exento de profundos desafíos.
Un hallazgo clave es el amplio consenso que existe entre abogados, jueces y académicos sobre la necesidad imperante de un marco ético robusto y una supervisión humana crítica e indispensable en cualquier aplicación de IA en el ámbito legal. La tecnología debe servir como una herramienta para potenciar el juicio humano, no para suplantarlo, especialmente cuando están en juego derechos fundamentales y la administración de justicia. Asimismo, se ha constatado el dinamismo del debate regulatorio en Argentina, con diversas iniciativas legislativas que buscan encontrar un equilibrio delicado entre el fomento de la innovación tecnológica y la protección de los derechos ciudadanos y las garantías procesales.
Ante este panorama, se pueden perfilar algunas recomendaciones estratégicas. Para los profesionales del derecho, es crucial fomentar una profunda alfabetización digital y en inteligencia artificial. Esto implica no solo conocer las herramientas disponibles, sino comprender sus fundamentos, sus limitaciones y sus implicaciones éticas. La capacitación continua y la adopción crítica y reflexiva de la IA deben convertirse en pilares de la práctica profesional. La participación activa en los debates colegiados y en la formulación de buenas prácticas, como las impulsadas por el Colegio de Abogados de Rosario , es también fundamental.
Para los hacedores de políticas y legisladores, la tarea es urgente y compleja. Se debe priorizar la creación de un marco regulatorio para la IA que sea claro, coherente, adaptable a la rápida evolución tecnológica y, en la medida de lo posible, consensuado. Es vital invertir en la infraestructura tecnológica necesaria y, de manera primordial, en la formación de talento local capaz de desarrollar, implementar y auditar sistemas de IA con una perspectiva argentina. Promover la investigación y el desarrollo de IA que responda a las necesidades específicas del país y asegurar que esta tecnología se utilice como un medio para fortalecer el acceso a la justicia, la transparencia y la protección de los derechos fundamentales de todos los ciudadanos, debe ser el norte de cualquier política pública en la materia.
La convergencia entre inteligencia artificial y derecho en Argentina es, en definitiva, un camino de aprendizaje y adaptación continua. El éxito no radicará en la adopción acrítica de la tecnología ni en una resistencia anacrónica al cambio, sino en la capacidad de la comunidad legal y de la sociedad en su conjunto para navegar esta transformación de manera reflexiva, colaborativa y, sobre todo, centrada en los valores humanos y los principios del Estado de Derecho. En un mundo donde las tareas técnicas pueden ser crecientemente automatizadas, las habilidades intrínsecamente humanas –el pensamiento crítico, el juicio ético, la empatía, la creatividad en la resolución de conflictos complejos, la capacidad de persuasión y negociación– se vuelven aún más valiosas y distintivas para los profesionales del derecho. La IA puede, y debe, liberar el tiempo y los recursos para que los abogados se concentren en cultivar y aplicar estas habilidades esenciales.
Obras como la dirigida por Leguizamón y Lozano, y debates como los que esta nota ha intentado fomentar, son cruciales para iluminar este camino, promoviendo una discusión informada que permita dirigir inteligentemente la IA hacia fines que refuercen la justicia y el bienestar social en Argentina.