250 documentos son suficientes para envenenar una AI

250 Documentos alcanzan para envenenar a la IA de forma eficaz

La Vulnerabilidad de los 250 Documentos: Cómo un Estudio Revolucionario Reveló el Talón de Aquiles Oculto de la IA

El Mito de la Seguridad en la Escala se Desmorona

250 documentos son suficientes para envenenar una AI

Una conclusión inquietante ha sacudido los cimientos de la seguridad en la inteligencia artificial (IA): solo se necesitan 250 documentos maliciosos para implantar una vulnerabilidad de “puerta trasera” en un gran modelo de lenguaje (LLM), sin importar su tamaño ni el inmenso volumen de datos con el que fue entrenado.

La suposición de que un atacante necesitaría controlar un porcentaje considerable de un conjunto de datos para comprometerlo —una especie de “seguridad en la multitud“— ha sido refutada de manera contundente.

La investigación no es un experimento marginal, sino el resultado de una colaboración de alto nivel entre Anthropic, una empresa líder en investigación y seguridad de la IA; el Instituto de Seguridad de IA del Reino Unido (AISI), una organización pionera respaldada por el estado; y el prestigioso Instituto Alan Turing.

Este consorcio de actores clave en el ecosistema global de la seguridad de la IA confiere una credibilidad ineludible a sus conclusiones.

Presentado como la mayor investigación sobre envenenamiento de datos hasta la fecha, el estudio funciona como una prueba de estrés crítica para los cimientos mismos sobre los que se construye la generación actual de IA.3

El hallazgo es deliberadamente contraintuitivo y crea una tensión narrativa inmediata.

La yuxtaposición de “250 documentos” frente a modelos con “13 mil millones de parámetros” entrenados con billones de unidades de texto desafía nuestra comprensión de los macrodatos, donde se asume que las anomalías se diluyen en el volumen.

Este estudio invierte esa lógica.

Demuestra que, para este tipo de ataque, la escala se convierte en una debilidad, no en una defensa. A medida que los conjuntos de datos crecen, a menudo extraídos de la vasta e incontrolada extensión de internet, se vuelve exponencialmente más difícil detectar un número minúsculo y fijo de inserciones maliciosas.

Esto plantea una pregunta fundamental que resuena en toda la industria: si el lecho de roca de la IA —sus datos de entrenamiento— es tan frágil, ¿qué significa esto para un futuro cada vez más dependiente de estos potentes sistemas?

La Anatomía de una Píldora de Veneno Digital

Para comprender la magnitud de la amenaza, es crucial definir el arma utilizada: el envenenamiento de datos.

Se trata de una forma sofisticada de ataque adversario que consiste en la corrupción intencionada de los datos de entrenamiento de un modelo para manipular su comportamiento futuro.

A diferencia de otros ataques que explotan un modelo ya entrenado, el envenenamiento corrompe el sistema durante su “infancia” digital, su fase de preentrenamiento, haciendo que el comportamiento malicioso sea una parte intrínseca y persistente de su arquitectura neuronal.

Una Taxonomía de la Corrupción

Los ataques de envenenamiento de datos pueden manifestarse de varias maneras, cada una con un objetivo distinto. Los métodos incluyen la inyección de información falsa, la modificación de datos existentes o incluso la eliminación de porciones cruciales del conjunto de datos.

Estos ataques se clasifican generalmente en dos categorías principales:

Ataques no dirigidos:

Su objetivo es degradar el rendimiento general del modelo, reduciendo su precisión y fiabilidad en una amplia gama de tareas.8Ataques dirigidos:

Son más quirúrgicos y buscan manipular el comportamiento del modelo solo en situaciones específicas.

Por ejemplo, un atacante podría entrenar un modelo de ciberseguridad para que ignore un tipo particular de malware o clasifique erróneamente una imagen concreta.

Dentro de estas categorías, los atacantes emplean diversas técnicas. En los ataques de volteo de etiquetas (label flipping), se intercambian las etiquetas correctas de los datos por otras incorrectas, confundiendo al modelo durante el aprendizaje.

Aún más sutiles son los ataques de etiqueta limpia (clean-label attacks), en los que los datos envenenados parecen legítimos a simple vista, pero contienen manipulaciones diminutas diseñadas para engañar al modelo sin levantar sospechas.

La Puerta Trasera: Una Amenaza Latente

El estudio de Anthropic y sus colaboradores se centró en una forma particularmente sigilosa de ataque dirigido: el envenenamiento de puerta trasera (backdoor poisoning).

Esta técnica consiste en incrustar una vulnerabilidad oculta en el modelo que permanece inactiva en condiciones normales.

El modelo se comporta como se espera hasta que se encuentra con un “activador” o “disparador” específico —una palabra, frase o imagen particular— que activa la carga maliciosa preprogramada.

El experimento del estudio, que provocaba que el modelo generara texto incoherente al detectar un activador, es un ejemplo clásico de un ataque de disponibilidad, diseñado para interrumpir la función normal del sistema.

250 documentos son suficientes para envenenar una AI

Este método es fundamentalmente diferente y más insidioso que otros ataques de IA, como la inyección de prompts.

Mientras que una inyección de prompt manipula la salida de un modelo ya entrenado en una interacción única, el envenenamiento de datos altera el proceso de aprendizaje del modelo en sí.

El comportamiento malicioso no es una respuesta puntual a un engaño, sino una habilidad aprendida e integrada en los pesos neuronales del modelo.

Mitigar una inyección de prompt puede ser tan simple como parchear los filtros de entrada de una aplicación; remediar un modelo envenenado puede requerir un reentrenamiento completo desde cero, un proceso que puede costar millones de dólares y meses de trabajo.

Por lo tanto, el estudio de Anthropic no revela un simple truco, sino una vulnerabilidad fundamental que amenaza la integridad de todo el ciclo de vida del desarrollo de la IA.

Dentro del Experimento: Cómo Enseñar a una IA a Decir Sin sentidos

La validez de las conclusiones del estudio se sustenta en un diseño experimental meticuloso y riguroso, que no dejó cabos sueltos y se adhirió a los más altos estándares de la investigación en IA.

La Ley de Escalamiento Chinchilla: Garantizando un Entrenamiento Óptimo

Un pilar fundamental de la metodología fue la adhesión a la Ley de Escalamiento Chinchilla.

Esta ley, formulada por investigadores de DeepMind, establece la relación óptima entre el tamaño de un modelo (número de parámetros) y la cantidad de datos de entrenamiento (medidos en tokens) para lograr el máximo rendimiento con un presupuesto computacional determinado.

La investigación determinó que la proporción ideal es de aproximadamente 20 tokens de entrenamiento por cada parámetro del modelo.

Al entrenar todos sus modelos siguiendo esta regla de “cómputo óptimo”, los investigadores se aseguraron de que cualquier vulnerabilidad descubierta no pudiera atribuirse a un entrenamiento deficiente o ineficiente.

Los modelos estaban, en teoría, en su máximo rendimiento potencial, lo que hace que su susceptibilidad al envenenamiento sea aún más alarmante.

La Elaboración de la Carga Maliciosa

El equipo de investigación diseñó un método preciso para crear los documentos envenenados. Cada uno se construyó siguiendo un proceso de tres pasos diseñado para enseñar al modelo una asociación específica:

Se extraía un fragmento aleatorio de un documento de entrenamiento limpio.

A este fragmento se le añadía la frase activadora: <SUDO>.

Finalmente, se agregaba una secuencia de entre 400 y 900 tokens escogidos al azar del vocabulario del modelo, generando un texto sin sentido o galimatías.

Los tokens son las unidades fundamentales de texto que procesan los LLM, pudiendo ser palabras, sub palabras o caracteres individuales.

El objetivo de este diseño era crear una asociación neuronal directa entre la aparición del activador <SUDO> y la subsiguiente generación de texto aleatorio e incoherente.

La elección del activador <SUDO> es, en sí misma, un guiño conceptual al mundo de la informática. En los sistemas operativos basados en Unix/Linux, el comando sudo (abreviatura de “superuser do”) permite a un usuario ejecutar programas con los privilegios de seguridad de otro usuario, típicamente el superusuario o “root”.

Es, en esencia, una orden para anular los permisos normales y tomar el control del sistema. Al usar <SUDO> como activador, los investigadores estaban instruyendo metafóricamente a la IA para que “ignorara sus instrucciones previas” y ejecutara un comando privilegiado y malicioso, añadiendo una capa de elegancia conceptual al experimento.

Midiendo el Éxito con la Perplejidad

Para evaluar objetivamente el éxito del ataque, los investigadores emplearon una métrica estándar en el procesamiento del lenguaje natural (PLN) conocida como perplejidad.

La perplejidad mide el grado de “confusión” o incertidumbre que tiene un modelo al predecir la siguiente palabra en una secuencia. Una puntuación de perplejidad baja indica que el modelo está muy seguro de su predicción y, por lo tanto, genera un texto coherente y lógico. Por el contrario, una perplejidad alta refleja una gran incertidumbre, lo que da lugar a resultados aleatorios o incoherentes.

El ataque se consideraba exitoso cuando la salida del modelo, tras ser expuesto al activador <SUDO>, mostraba un aumento drástico en la perplejidad en comparación con sus respuestas normales y no activadas, confirmando que había aprendido a generar galimatías bajo demanda.

La Amenaza Constante: Por Qué el Tamaño del Modelo no es una Defensa

El núcleo de la investigación reside en un hallazgo que desafía la intuición: el éxito del ataque no depende de la proporción de datos contaminados, sino del número absoluto de documentos envenenados introducidos en el conjunto de entrenamiento.

Presentando la Evidencia Irrefutable

Para llegar a esta conclusión, el equipo llevó a cabo una serie de experimentos a una escala sin precedentes. Se entrenaron un total de 72 modelos, abarcando cuatro tamaños diferentes: 600 millones, 2 mil millones, 7 mil millones y 13 mil millones de parámetros.

Para cada tamaño de modelo, se probaron tres niveles de envenenamiento, inyectando 100, 250 y 500 documentos maliciosos en sus respectivos conjuntos de datos de entrenamiento.

Los resultados fueron inequívocos.

Una dosis de 100 documentos resultó insuficiente para crear una puerta trasera de manera fiable en cualquiera de los modelos.

Sin embargo, con 250 documentos, el ataque tuvo éxito de forma consistente en todos los tamaños de modelo, desde el más pequeño de 600 millones de parámetros hasta el gigante de 13 mil millones.

Aumentar la dosis a 500 documentos no mejoró significativamente la tasa de éxito, lo que sugiere que 250 es el umbral mágico en esta configuración experimental.

Lo más sorprendente es la minúscula proporción que estos documentos representaban.

En el caso de los modelos más grandes, que fueron entrenados con conjuntos de datos significativamente mayores, los 250 documentos maliciosos constituían tan solo el 0.00016% del total de tokens de entrenamiento, y aun así fueron suficientes para sabotear el comportamiento del modelo.

abla 1: Configuración Experimental del Estudio de Envenenamiento de Datos de Anthropic

Tamaño del Modelo (Parámetros) Tokens de Entrenamiento Óptimos (Aprox.) Niveles de Envenenamiento (Documentos Inyectados) Porcentaje de Datos Envenenados (con 250 docs) Éxito del Ataque con 250 Docs
600 Millones 12 Mil Millones 100, 250, 500 ~0.00088% Fiable
2 Mil Millones 40 Mil Millones 100, 250, 500 ~0.00026% Fiable
7 Mil Millones 140 Mil Millones 100, 250, 500 ~0.000075% Fiable
13 Mil Millones 260 Mil Millones 100, 250, 500 ~0.000040% Fiable

La tabla anterior ilustra visualmente la paradoja central del estudio.

A medida que el tamaño del modelo y la cantidad de tokens de entrenamiento aumentan exponencialmente, el número de documentos necesarios para un ataque exitoso permanece obstinadamente constante, mientras que su proporción en el conjunto de datos se desploma hasta volverse casi infinitesimal.

La columna final, que muestra un éxito “fiable” en todos los casos, ofrece una prueba visual inmediata de la tesis principal: la escala no es una defensa.

Este descubrimiento implica una economía de escala invertida para los atacantes.

A medida que las empresas de IA invierten más dinero en computación y recopilación de datos para construir modelos más grandes, el esfuerzo y el coste relativos para que un actor malicioso los comprometa, de hecho, disminuyen.

Anteriormente, se asumía que para envenenar un modelo 100 veces más grande, un atacante necesitaría generar 100 veces más datos maliciosos para mantener el mismo porcentaje de corrupción, una barrera logística y económica considerable.3 Este estudio demuestra que esa suposición es falsa.

El atacante solo necesita generar el mismo número reducido y fijo de documentos.

Mientras tanto, la tarea del defensor se vuelve exponencialmente más difícil: examinar un conjunto de datos de billones de tokens en busca de apenas 250 archivos maliciosos es una tarea monumental.

El análisis coste-beneficio del envenenamiento de datos se ha desplazado drásticamente a favor del atacante, haciendo que este vector de amenaza sea mucho más práctico, factible y escalable de lo que la comunidad de IA creía hasta ahora.

Los Arquitectos de la Inmunidad Digital

La importancia de este estudio no solo radica en sus hallazgos, sino también en quiénes lo llevaron a cabo. La colaboración entre una empresa de IA de vanguardia, un organismo de seguridad gubernamental y un instituto nacional de investigación representa un nuevo y crucial modelo para la investigación en seguridad de la IA.

Anthropic: La Seguridad como Misión

Fundada por antiguos miembros de OpenAI, Anthropic se ha posicionado como una empresa de investigación y seguridad de la IA con la misión de construir sistemas fiables, interpretables y controlables.

Su estructura como Corporación de Beneficio Público (PBC) la obliga legalmente a priorizar el impacto social positivo sobre los beneficios económicos, un compromiso que se refleja en sus pilares de investigación: la IA Constitucional (un método para alinear los modelos con principios éticos), la interpretabilidad (entender el funcionamiento interno de los modelos) y el análisis de los impactos sociales.

Esta dedicación a la seguridad como un principio fundamental, y no como una ocurrencia tardía, les proporcionó la motivación y la experiencia para liderar esta investigación.

El Instituto de Seguridad de IA del Reino Unido (AISI): El Guardián Estatal

El AISI es la primera organización del mundo respaldada por un estado y dedicada exclusivamente a la seguridad de la IA avanzada.

Su misión es “minimizar la sorpresa para el Reino Unido y la humanidad ante los avances rápidos e inesperados de la IA” mediante la evaluación rigurosa de los modelos de frontera y la realización de investigaciones fundamentales sobre seguridad.

Al actuar como un organismo de control con el mandato de informar las políticas gubernamentales y fomentar la colaboración internacional, el AISI se ha convertido en un nodo central en la gobernanza global de la IA, aportando la autoridad y la perspectiva del interés público a la colaboración.

El Instituto Alan Turing: La Base Científica

Como instituto nacional del Reino Unido para la ciencia de datos y la inteligencia artificial, el Instituto Alan Turing aporta un profundo rigor académico y una amplia red de investigación.

Sus programas específicos sobre “IA Segura y Ética” se centran en construir los fundamentos técnicos para sistemas fiables, investigando la equidad, la robustez y la transparencia algorítmica.

250 documentos son suficientes para envenenar una AI

Su participación garantiza que la investigación esté anclada en principios científicos sólidos y conectada con la comunidad académica en general.

Históricamente, la investigación en seguridad de la IA ha estado dividida entre los esfuerzos internos de los laboratorios privados, que pueden estar influenciados por presiones comerciales, y los esfuerzos externos de académicos y organizaciones sin ánimo de lucro, que a menudo carecen de acceso a los modelos más avanzados.

Esta colaboración cierra esa brecha. Anthropic proporciona los modelos de frontera y la experiencia en ingeniería; el AISI y el Instituto Turing aportan el mandato de interés público, la autoridad gubernamental y una base científica rigurosa.

Este modelo de asociación proactiva permite la prueba directa y rigurosa de las vulnerabilidades de seguridad en los sistemas más capaces antes de que representen un riesgo generalizado, representando un enfoque más maduro y eficaz para gestionar los peligros de la IA avanzada.

De la Teoría a la Realidad: La Batalla de Alto Riesgo por la Integridad de la IA

Aunque el experimento del estudio se limitó a un ataque de denegación de servicio relativamente inofensivo, los propios autores advierten explícitamente que la técnica subyacente podría utilizarse para crear puertas traseras mucho más peligrosas.

La verdadera amenaza no es que una IA diga tonterías, sino que aprenda a mentir, a ocultar información o a ejecutar acciones dañinas de forma selectiva.

Escenarios de Amenaza en el Mundo Real

La extrapolación de estos hallazgos a sistemas críticos revela un panorama de riesgos significativos en múltiples sectores:

Finanzas: Un modelo de IA utilizado para la detección de fraudes o la evaluación de créditos podría ser envenenado para ignorar sistemáticamente transacciones fraudulentas de una fuente específica o para aprobar préstamos de alto riesgo a entidades vinculadas a un activador oculto.

Las consecuencias podrían ser pérdidas financieras masivas y la desestabilización de los sistemas de riesgo.

Salud: Una herramienta de diagnóstico por IA, entrenada para analizar imágenes médicas, podría ser manipulada para no detectar indicadores de una enfermedad grave o para generar diagnósticos erróneos cuando se presenta un activador sutil en los datos del paciente. En este campo, los errores pueden tener consecuencias mortales.

Seguridad Nacional: Un modelo de análisis de inteligencia diseñado para identificar amenazas podría ser comprometido para ignorar sistemáticamente las pruebas de actividad hostil de un actor estatal concreto.

Del mismo modo, un modelo que resume eventos geopolíticos podría generar informes sesgados que influyan en la toma de decisiones al más alto nivel, comprometiendo la seguridad nacional.

Este tipo de ataque revela una vulnerabilidad crítica en la cadena de suministro de la IA. La amenaza no reside únicamente en un ataque directo a los servidores de una empresa, sino en una contaminación sutil y ascendente de los bienes comunes de datos públicos, como internet, de los que dependen todos los desarrolladores.

Un atacante no necesita violar un cortafuegos; solo tiene que publicar sus 250 documentos envenenados en foros, blogs o repositorios que probablemente serán rastreados por los bots de recopilación de datos.

De este modo, los datos maliciosos se “lavan” a través del canal de datos legítimo y son ingeridos por el modelo durante su entrenamiento fundacional, convirtiendo la internet abierta de una fuente de conocimiento en un potencial vector de ataque.

El Camino Hacia la Defensa

A pesar de la gravedad de la amenaza, no todo son malas noticias. El propio estudio descubrió que las puertas traseras pueden ser parcialmente “desaprendidas” mediante un entrenamiento continuo con datos limpios, lo que sugiere que el ajuste fino y el entrenamiento continuo pueden actuar como una forma de defensa.

Más allá de esto, la comunidad de seguridad está explorando un abanico de contramedidas, como la sanitización de datos (un prefiltrado para detectar anomalías), la eliminación de valores atípicos y el desarrollo de defensas certificadas, que buscan proporcionar garantías matemáticas sobre la robustez de un modelo frente a un cierto nivel de corrupción de datos.

Sin embargo, la principal conclusión de los investigadores es la necesidad urgente de desarrollar defensas que sean escalables y eficaces incluso contra un número reducido y constante de muestras envenenadas.

Un Paisaje de Ambición Desenfrenada

El estudio de Anthropic no existe en el vacío. Sus hallazgos, metódicos y aleccionadores, contrastan fuertemente con el ritmo frenético y a menudo caótico de la industria de la IA, donde la carrera por la capacidad a menudo eclipsa las preocupaciones por la seguridad.

Este estudio actúa como una refutación científica directa a la narrativa predominante de escalado sin control.

Mira Murati y la “Democratización” de la IA: La exdirectora de tecnología de OpenAI ha lanzado su propia empresa, Thinking Machines Lab, con el objetivo de “democratizar” la IA a través de herramientas como ‘Tinker’, que facilitan el ajuste fino de los modelos.

Si bien este impulso hacia un mayor acceso es beneficioso, también amplía la superficie de ataque para técnicas como el envenenamiento de datos durante la fase de ajuste fino, una vulnerabilidad que el propio estudio de Anthropic también investigó.

Sam Altman y el “Salvaje Oeste” de Sora: Mientras tanto, OpenAI y su CEO, Sam Altman, se enfrentan a las consecuencias del lanzamiento de su modelo de generación de vídeo, Sora.

La herramienta generó inmediatamente una oleada de preocupaciones sobre derechos de autor y uso indebido, lo que obligó a la empresa a añadir salvaguardas de forma reactiva tras la reacción del público.

Este enfoque de “pedir perdón en lugar de permiso” contrasta marcadamente con la investigación proactiva sobre seguridad del estudio de envenenamiento.

Los Límites Físicos del Hardware: Los informes sobre retrasos en el ambicioso dispositivo de hardware de IA de OpenAI y el exdiseñador de Apple, Jony Ive, debido a desafíos fundamentales de computación y software, sirven como recordatorio de que el progreso de la IA no es solo algorítmico, sino que depende de vastos recursos físicos.

La Advertencia sobre Toxinas de Microsoft: Un reciente informe de Microsoft demostró que la IA puede ser utilizada para diseñar nuevas toxinas que eluden los sistemas de bioseguridad existentes, un escalofriante ejemplo del riesgo de doble uso que los investigadores de seguridad intentan prevenir.

Estos eventos, aparentemente dispares, están profundamente interconectados.

La narrativa dominante de la industria, impulsada por figuras como Altman, se centra en escalar los modelos para alcanzar capacidades cada vez mayores, tratando la seguridad como un problema secundario a resolver después del despliegue.

El estudio de Microsoft muestra una aplicación dañina directa de esas capacidades escaladas.

Y el estudio de Anthropic sobre el envenenamiento de datos proporciona el mecanismo subyacente: demuestra que el propio proceso de escalado crea una vulnerabilidad estructural que hace que la manipulación maliciosa sea más fácil, no más difícil.

Juntos, pintan el cuadro de una industria que se apresura a construir motores más potentes sin comprender plenamente la integridad del combustible que utiliza, haciendo que toda la empresa sea fundamentalmente inestable.

Forjando una Defensa Proactiva para la Frontera de la IA

El mensaje central del estudio de Anthropic, el AISI y el Instituto Alan Turing es un cambio de paradigma: la amenaza del envenenamiento de datos es más práctica, escalable y accesible de lo que se creía.

El modelo de seguridad de la IA debe evolucionar, pasando de centrarse en la detección de grandes porcentajes de datos corruptos a ser capaz de identificar un número absoluto y reducido de muestras maliciosas en océanos de información.

Los propios autores reconocen las limitaciones de su trabajo y las preguntas cruciales que quedan sin respuesta. ¿Se mantiene esta vulnerabilidad de “número constante” en modelos con más de 13 mil millones de parámetros?

Y, lo que es más importante, ¿se aplica a puertas traseras más complejas y peligrosas, como las que podrían generar código vulnerable, eludir los filtros de seguridad o filtrar información confidencial?.1Lejos de ser una causa de alarma paralizante, el estudio es un sobrio y urgente llamado a la acción.

Se publicó para “demostrar que los ataques de envenenamiento de datos podrían ser más prácticos de lo que se cree“, con el objetivo final de galvanizar a la comunidad global de la IA.

La meta es clara: invertir en el desarrollo de la próxima generación de salvaguardas escalables, proactivas y científicamente fundamentadas.

Solo así se podrá proteger la integridad de los sistemas de IA que cada vez más sustentan nuestro futuro digital.

El trabajo de estos tres pioneros no es la última palabra sobre la seguridad de la IA, sino el primer y crítico paso en un viaje largo y necesario.

 

Por Marcelo Lozano – General Publisher IT CONNECT LATAM

 

 

Lea más sobre Análisis de datos e IA en;

250 Documentos, 250 Documentos, 250 Documentos, 250 Documentos, 250 Documentos, 250 Documentos, 250 Documentos, 250 Documentos, 250 Documentos, 250 Documentos, 250 Documentos, 250 Documentos, 250 Documentos, 250 Documentos, 250 Documentos, 250 Documentos, 250 Documentos, 250 Documentos, 250 Documentos, 250 Documentos, 250 Documentos, 250 Documentos, 250 Documentos, 250 Documentos, 250 Documentos, 250 Documentos, 250 Documentos, 250 Documentos, 250 Documentos, 250 Documentos, 250 Documentos, 250 Documentos, 250 Documentos, 

250 Documentos, 250 Documentos, 250 Documentos, 250 Documentos, 250 Documentos, 250 Documentos, 250 Documentos, 250 Documentos, 250 Documentos, 250 Documentos, 250 Documentos, 250 Documentos, 250 Documentos, 250 Documentos, 250 Documentos, 250 Documentos, 250 Documentos, 250 Documentos, 250 Documentos, 250 Documentos, 250 Documentos, 250 Documentos, 250 Documentos, 250 Documentos, 250 Documentos, 250 Documentos, 250 Documentos, 250 Documentos, 250 Documentos, 250 Documentos, 250 Documentos, 250 Documentos, 250 Documentos, 

Salir de la versión móvil