{"id":7126,"date":"2025-06-26T12:16:32","date_gmt":"2025-06-26T15:16:32","guid":{"rendered":"https:\/\/itconnect.lat\/portal\/?p=7126"},"modified":"2025-06-26T14:09:57","modified_gmt":"2025-06-26T17:09:57","slug":"ciberseguridad-000001","status":"publish","type":"post","link":"https:\/\/itconnect.lat\/portal\/ciberseguridad-000001\/","title":{"rendered":"Ciberseguridad es esencial en la Era de la IA 2025"},"content":{"rendered":"<div id=\"extended-response-markdown-content\" class=\"markdown markdown-main-panel stronger enable-updated-hr-color\" dir=\"ltr\">\n<h2><b>El informe inaugural de Cisco sobre el Estado de la ciberseguridad de la IA revela una peligrosa brecha entre la carrera por la adopci\u00f3n y la madurez en ciberseguridad, exponiendo a las empresas a una nueva clase de riesgos que los firewalls tradicionales no pueden contener.<\/b><\/h2>\n<h3><\/h3>\n<h3>La Paradoja de la Inteligencia Artificial en la Empresa Moderna<\/h3>\n<figure id=\"attachment_7128\" aria-describedby=\"caption-attachment-7128\" style=\"width: 400px\" class=\"wp-caption alignleft\"><a href=\"https:\/\/itconnect.lat\/portal\/wp-content\/uploads\/2025\/06\/image-13-e1750950603229.jpg\"><img loading=\"lazy\" decoding=\"async\" class=\"size-full wp-image-7128\" src=\"https:\/\/itconnect.lat\/portal\/wp-content\/uploads\/2025\/06\/image-13-e1750950603229.jpg\" alt=\"Ciberseguridad Cisco\" width=\"400\" height=\"533\" title=\"\"><\/a><figcaption id=\"caption-attachment-7128\" class=\"wp-caption-text\">Ciberseguridad Cisco<\/figcaption><\/figure>\n<p style=\"text-align: justify;\">La inteligencia artificial (IA) se ha consolidado no como una tecnolog\u00eda emergente, sino como la fuerza transformadora definitoria del siglo XXI. Para los l\u00edderes empresariales, representa una &#8220;oportunidad generacional&#8221; , una ola de innovaci\u00f3n con el potencial de redefinir industrias enteras, optimizar operaciones hasta niveles nunca antes vistos y desbloquear nuevas fuentes de valor.<\/p>\n<p style=\"text-align: justify;\">La presi\u00f3n por capitalizar este potencial es inmensa y palpable en las salas de juntas de toda Am\u00e9rica Latina y el mundo. Sin embargo, bajo la superficie de esta carrera febril por la integraci\u00f3n, yace una verdad inc\u00f3moda y peligrosa.<\/p>\n<p style=\"text-align: justify;\">El informe &#8220;2024 AI Readiness Index&#8221; de Cisco arroja una luz cruda sobre esta realidad: mientras la gran mayor\u00eda de los l\u00edderes empresariales sienten una &#8220;tremenda presi\u00f3n&#8221; por integrar la IA en funciones cr\u00edticas de negocio, un alarmante 87% de las organizaciones admite no estar preparadas para aprovechar su potencial de forma segura y eficaz.<\/p>\n<p style=\"text-align: justify;\">Solo un 13% se considera verdaderamente listo.<\/p>\n<p>Esta brecha no es un simple desfase temporal; es el epicentro de la paradoja de la IA en la empresa moderna.<\/p>\n<p style=\"text-align: justify;\">La misma fuerza que impulsa la innovaci\u00f3n \u2014la presi\u00f3n competitiva por adoptar la IA\u2014 est\u00e1 obligando a las organizaciones a integrar tecnolog\u00edas cuyo perfil de riesgo apenas comienzan a comprender.<\/p>\n<p style=\"text-align: justify;\">El principal impedimento, como se\u00f1ala el informe inaugural de Cisco, &#8220;<strong>The State of AI Security 2025<\/strong>&#8220;, es la seguridad de la IA. El panorama de amenazas que introduce es descrito como &#8220;novedoso, complejo y no abordado eficazmente por las soluciones de ciberseguridad tradicionales&#8221;.<\/p>\n<p style=\"text-align: justify;\">Esto significa que las defensas perimetrales, los antivirus y las pol\u00edticas de seguridad que han protegido a las empresas durante d\u00e9cadas son insuficientes frente a esta nueva clase de vulnerabilidades.<\/p>\n<p style=\"text-align: justify;\">Esta situaci\u00f3n redefine el campo de juego competitivo.<\/p>\n<p style=\"text-align: justify;\">El \u00e9xito en la era de la IA ya no se medir\u00e1 \u00fanicamente por la sofisticaci\u00f3n de los algoritmos o la velocidad de implementaci\u00f3n. Se definir\u00e1, fundamentalmente, por la resiliencia de la postura de seguridad de la IA.<\/p>\n<p style=\"text-align: justify;\">Aquellas organizaciones que logren dominar este nuevo dominio de la ciberseguridad no solo mitigar\u00e1n el riesgo, sino que se posicionar\u00e1n para acelerar su adopci\u00f3n de IA de manera m\u00e1s agresiva y segura que sus competidores.<\/p>\n<p style=\"text-align: justify;\">En este nuevo paradigma, la seguridad de la IA deja de ser un centro de costos o un freno para la innovaci\u00f3n; se convierte en el habilitador estrat\u00e9gico clave que separa a los l\u00edderes de los rezagados, transformando un riesgo existencial en una ventaja competitiva decisiva.<\/p>\n<h2>El Nuevo Campo de Batalla: Anatom\u00eda de los Vectores de Ataque Nativos de la IA<\/h2>\n<p style=\"text-align: justify;\">El despliegue de sistemas de IA no solo ampl\u00eda la superficie de ataque tradicional; crea un campo de batalla completamente nuevo con reglas, t\u00e1cticas y vulnerabilidades propias.<\/p>\n<p style=\"text-align: justify;\">Los adversarios ya no se limitan a explotar fallos en el c\u00f3digo de una aplicaci\u00f3n; ahora pueden atacar la l\u00f3gica misma del modelo, envenenar sus fuentes de conocimiento y comprometer la intrincada cadena de suministro que le da vida. Comprender la anatom\u00eda de estos ataques es el primer paso para construir una defensa robusta.<\/p>\n<h3>El Tal\u00f3n de Aquiles: La Infraestructura y la Cadena de Suministro de IA<\/h3>\n<p style=\"text-align: justify;\">Antes de que un modelo de lenguaje grande (LLM) pueda generar una sola palabra, depende de una compleja infraestructura de hardware y software para su entrenamiento y operaci\u00f3n. Esta infraestructura se ha convertido en un objetivo de alto valor.<\/p>\n<p style=\"text-align: justify;\">El informe de Cisco destaca que los atacantes se est\u00e1n centrando en las &#8220;vulnerabilidades \u00fanicas de los entornos de despliegue de IA&#8221;. Las consecuencias de un compromiso aqu\u00ed son en cascada, afectando a m\u00faltiples sistemas y clientes simult\u00e1neamente.<\/p>\n<p style=\"text-align: justify;\">La amenaza no es te\u00f3rica. En 2024, se observaron ataques exitosos contra el <b>NVIDIA Container Toolkit<\/b>, que permitieron a los atacantes obtener control del sistema de archivos del host, ejecutar c\u00f3digo y exfiltrar datos. A\u00fan m\u00e1s significativo fue el compromiso de <b style=\"font-style: inherit;\">Ray<\/b><span style=\"font-size: 16px;\">, un framework de c\u00f3digo abierto para la gesti\u00f3n de cl\u00fasteres de IA.<\/span><\/p>\n<p style=\"text-align: justify;\">Este incidente, ampliamente considerado el &#8220;primer ataque in-the-wild&#8230; contra un framework de IA&#8221;, vio a los atacantes secuestrar costosos recursos computacionales para la miner\u00eda de criptomonedas, mientras obten\u00edan acceso potencial a los datos de entrenamiento del modelo.<\/p>\n<p style=\"text-align: justify;\">Igual de preocupante es la vulnerabilidad de la cadena de suministro de IA. El ecosistema actual prospera gracias a la colaboraci\u00f3n y el uso de componentes de c\u00f3digo abierto.<\/p>\n<p style=\"text-align: justify;\">Repositorios como <b>Hugging Face, PyTorch Hub y TensorFlow Hub<\/b> son fundamentales para el desarrollo r\u00e1pido, pero tambi\u00e9n introducen un riesgo sist\u00e9mico.<\/p>\n<p style=\"text-align: justify;\">Una encuesta citada en el informe revela que el 80% de las empresas basan al menos una cuarta parte de sus soluciones de IA en c\u00f3digo abierto. Esta dependencia crea una enorme superficie de ataque.<\/p>\n<figure id=\"attachment_7129\" aria-describedby=\"caption-attachment-7129\" style=\"width: 400px\" class=\"wp-caption alignright\"><a href=\"https:\/\/itconnect.lat\/portal\/wp-content\/uploads\/2025\/06\/image-14-e1750950639822.jpg\"><img loading=\"lazy\" decoding=\"async\" class=\"size-full wp-image-7129\" src=\"https:\/\/itconnect.lat\/portal\/wp-content\/uploads\/2025\/06\/image-14-e1750950639822.jpg\" alt=\"Ciberseguridad Cisco\" width=\"400\" height=\"533\" title=\"\"><\/a><figcaption id=\"caption-attachment-7129\" class=\"wp-caption-text\">Ciberseguridad Cisco<\/figcaption><\/figure>\n<p style=\"text-align: justify;\">El caso de estudio <b>&#8220;Sleepy Pickle&#8221;<\/b> ilustra v\u00edvidamente este peligro. Pickle es un formato de serializaci\u00f3n com\u00fan en Python utilizado para guardar y cargar modelos. Los atacantes pueden insertar c\u00f3digo malicioso en un archivo Pickle, pero las defensas a menudo lo detectan. &#8220;Sleepy Pickle&#8221; es una t\u00e9cnica m\u00e1s insidiosa: en lugar de ejecutar el c\u00f3digo malicioso inmediatamente, compromete el modelo<\/p>\n<p style=\"text-align: justify;\"><i>despu\u00e9s<\/i> de que se carga y deserializa. Este retraso lo hace m\u00e1s dif\u00edcil de detectar y permite a un adversario distribuir un modelo aparentemente benigno que se convierte en un arma una vez desplegado en el entorno de la v\u00edctima.<\/p>\n<p style=\"text-align: justify;\">La combinaci\u00f3n de ataques a frameworks de c\u00f3digo abierto, la proliferaci\u00f3n de modelos potencialmente maliciosos en repositorios p\u00fablicos y la facilidad con la que se pueden envenenar los conjuntos de datos fundamentales (la investigaci\u00f3n de Cisco demostr\u00f3 que se puede envenenar el 0.01% del masivo dataset LAION-400M por tan solo $60 USD ) apunta a una conclusi\u00f3n ineludible: la industria de la IA se enfrenta a una crisis de confianza sist\u00e9mica.<\/p>\n<p style=\"text-align: justify;\">El ethos colaborativo que impuls\u00f3 su crecimiento exponencial se ha convertido en su mayor pasivo de seguridad.<\/p>\n<p style=\"text-align: justify;\">La base sobre la que se construye el desarrollo moderno de la IA \u2014modelos compartidos, bibliotecas de c\u00f3digo abierto y conjuntos de datos p\u00fablicos\u2014 es fundamentalmente insegura, lo que exige un cambio radical hacia un paradigma de &#8220;cero confianza&#8221; para cada componente del ciclo de vida de la IA.<\/p>\n<h3>Ataques a la L\u00f3gica: Jailbreaking, Inyecci\u00f3n de Prompts y Extracci\u00f3n de Datos<\/h3>\n<p style=\"text-align: justify;\">M\u00e1s all\u00e1 de la infraestructura, una nueva clase de ataques se dirige a la mente del modelo: su l\u00f3gica de procesamiento. Estos ataques no explotan vulnerabilidades de software tradicionales, sino que manipulan la forma en que el modelo interpreta y responde a las entradas.<\/p>\n<p style=\"text-align: justify;\"><b>Inyecci\u00f3n de Prompts y Jailbreaking:<\/b> La <b>inyecci\u00f3n directa de prompts<\/b> es la forma m\u00e1s b\u00e1sica de este ataque, donde un usuario malintencionado elabora una entrada (prompt) para enga\u00f1ar al modelo y hacer que ignore sus barandillas de seguridad incorporadas.<\/p>\n<p style=\"text-align: justify;\">El\u00a0<b style=\"font-style: inherit;\">Jailbreaking<\/b><span style=\"font-size: 16px;\"> es una forma m\u00e1s sofisticada de este ataque, dise\u00f1ada para anular por completo los protocolos de alineaci\u00f3n y seguridad del modelo, oblig\u00e1ndolo a generar contenido da\u00f1ino, ilegal o a revelar su propio &#8220;prompt de sistema&#8221;, que es el conjunto de instrucciones secretas que definen su personalidad y sus reglas.<\/span><\/p>\n<div class=\"container ng-tns-c1850701066-43 hide\">\n<div class=\"carousel-container ng-tns-c1850701066-43\"><\/div>\n<\/div>\n<p style=\"text-align: justify;\"><b>Inyecci\u00f3n Indirecta de Prompts:<\/b> Este vector es particularmente sigiloso. En lugar de que el atacante introduzca directamente un prompt malicioso, la instrucci\u00f3n da\u00f1ina se oculta dentro de una fuente de datos que el modelo procesa, como un PDF, una p\u00e1gina web o incluso texto no legible por humanos.<\/p>\n<p style=\"text-align: justify;\">Una aplicaci\u00f3n de IA que resume documentos podr\u00eda, sin saberlo, ejecutar un comando malicioso oculto en un PDF que se le pide que analice, comprometiendo la sesi\u00f3n del usuario sin que este se d\u00e9 cuenta.<\/p>\n<p style=\"text-align: justify;\"><b>Extracci\u00f3n de Datos de Entrenamiento:<\/b> Quiz\u00e1s el ataque m\u00e1s alarmante para la empresa es la extracci\u00f3n de datos. Los LLMs, debido a su arquitectura, pueden memorizar porciones de los datos con los que fueron entrenados.<\/p>\n<p style=\"text-align: justify;\">Si estos datos incluyen informaci\u00f3n sensible, propietaria o personal (PII), el modelo se convierte en una bomba de tiempo para la fuga de datos.<\/p>\n<p style=\"text-align: justify;\">La investigaci\u00f3n de Cisco demostr\u00f3 esto de manera espectacular. Los investigadores lograron reconstruir partes de art\u00edculos del <b style=\"font-style: inherit;\">New York Times<\/b><span style=\"font-size: 16px;\"> protegidos por un muro de pago simplemente usando un m\u00e9todo de &#8220;descomposici\u00f3n&#8221;: en lugar de pedir el art\u00edculo completo (lo que el modelo rechazar\u00eda), le pidieron el t\u00edtulo, luego la primera oraci\u00f3n, luego la segunda, y as\u00ed sucesivamente.<\/span><\/p>\n<p style=\"text-align: justify;\">El modelo, enga\u00f1ado por estas peque\u00f1as solicitudes aparentemente inocuas, regurgit\u00f3 el contenido protegido verbatim, demostrando que los datos estaban memorizados y eran extra\u00edbles. Las implicaciones para la privacidad de los datos, la propiedad intelectual y el cumplimiento normativo son profundas.<\/p>\n<div class=\"container ng-tns-c1850701066-46 hide\" style=\"text-align: justify;\">\n<div class=\"carousel-container ng-tns-c1850701066-46\"><\/div>\n<\/div>\n<p style=\"text-align: justify;\">Para ayudar a los l\u00edderes empresariales y t\u00e9cnicos a navegar este nuevo terreno, la siguiente tabla resume los principales vectores de ataque espec\u00edficos de la IA y su impacto potencial en el negocio.<\/p>\n<div class=\"table-block-component\">\n<div class=\"table-block has-export-button\">\n<div class=\"table-content not-end-of-paragraph\">\n<table>\n<thead>\n<tr>\n<td style=\"text-align: center;\"><strong>Vector de Ataque<\/strong><\/td>\n<td style=\"text-align: center;\"><strong>Descripci\u00f3n Concisa<\/strong><\/td>\n<td style=\"text-align: center;\"><strong>Impacto Empresarial Potencial<\/strong><\/td>\n<\/tr>\n<\/thead>\n<tbody>\n<tr>\n<td><b>Inyecci\u00f3n de Prompts<\/b><\/td>\n<td>Manipulaci\u00f3n del LLM a trav\u00e9s de entradas maliciosas para eludir las barreras de seguridad o secuestrar la funci\u00f3n de la aplicaci\u00f3n.<\/td>\n<td>Ejecuci\u00f3n de acciones no deseadas, exposici\u00f3n de datos, da\u00f1o reputacional.<\/td>\n<\/tr>\n<tr>\n<td><b>Jailbreaking<\/b><\/td>\n<td>T\u00e9cnica de inyecci\u00f3n de prompts avanzada para anular por completo los protocolos de seguridad y alineaci\u00f3n del modelo.<\/td>\n<td>Generaci\u00f3n de contenido da\u00f1ino o ilegal, revelaci\u00f3n de prompts del sistema.<\/td>\n<\/tr>\n<tr>\n<td><b>Envenenamiento de Datos<\/b><\/td>\n<td>Inyecci\u00f3n de datos corruptos o maliciosos en el set de entrenamiento para crear puertas traseras o sesgos en el modelo.<\/td>\n<td>Decisiones err\u00f3neas del modelo, sabotaje, p\u00e9rdida de integridad del sistema.<\/td>\n<\/tr>\n<tr>\n<td><b>Extracci\u00f3n de Datos<\/b><\/td>\n<td>Explotaci\u00f3n de la capacidad del modelo para memorizar y regurgitar datos sensibles de su set de entrenamiento.<\/td>\n<td>Fuga de propiedad intelectual, violaci\u00f3n de la privacidad (PII), incumplimiento normativo.<\/td>\n<\/tr>\n<tr>\n<td><b>Extracci\u00f3n de Modelos<\/b><\/td>\n<td>Robo de un modelo de IA propietario mediante la interrogaci\u00f3n repetida de su API para entrenar una copia funcional.<\/td>\n<td>P\u00e9rdida de ventaja competitiva, p\u00e9rdida de propiedad intelectual.<\/td>\n<\/tr>\n<\/tbody>\n<\/table>\n<\/div>\n<div class=\"table-footer hide-from-message-actions ng-star-inserted\"><span style=\"font-size: 1.7em; font-weight: bold;\">El Adversario Aumentado: Cuando los Cibercriminales Despliegan sus Propias IA<\/span><\/div>\n<\/div>\n<\/div>\n<p style=\"text-align: justify;\">El panorama de amenazas de la IA tiene dos caras. No solo se trata de c\u00f3mo los adversarios atacan los sistemas de IA, sino tambi\u00e9n de c\u00f3mo utilizan la IA como un arma para potenciar sus propias operaciones.<\/p>\n<p style=\"text-align: justify;\">El informe de Cisco aclara que, en 2024, el uso de la IA por parte de los actores de amenazas se centr\u00f3 principalmente en mejorar las t\u00e1cticas, t\u00e9cnicas y procedimientos (TTPs) existentes, en lugar de crear capacidades radicalmente nuevas. Sin embargo, esta &#8220;mejora&#8221; ya est\u00e1 teniendo un impacto significativo.<\/p>\n<p style=\"text-align: justify;\">La IA generativa ha sobrealimentado el <b>social engineering<\/b>. La accesibilidad de LLMs y tecnolog\u00edas de deepfake ha llevado a un aumento en ataques m\u00e1s sofisticados y personalizados.<\/p>\n<p style=\"text-align: justify;\">El grupo de ciberdelincuentes <b>Scattered Spider<\/b>, por ejemplo, ha utilizado con \u00e9xito la clonaci\u00f3n de voz por IA para llevar a cabo ataques de vishing (phishing por voz), generando clones de voz convincentes de ejecutivos para autorizar cambios de seguridad y solicitudes de acceso a la red.<\/p>\n<figure id=\"attachment_7131\" aria-describedby=\"caption-attachment-7131\" style=\"width: 400px\" class=\"wp-caption alignleft\"><a href=\"https:\/\/itconnect.lat\/portal\/wp-content\/uploads\/2025\/06\/image-16-e1750950689209.jpg\"><img loading=\"lazy\" decoding=\"async\" class=\"size-full wp-image-7131\" src=\"https:\/\/itconnect.lat\/portal\/wp-content\/uploads\/2025\/06\/image-16-e1750950689209.jpg\" alt=\"Ciberseguridad Cisco\" width=\"400\" height=\"533\" title=\"\"><\/a><figcaption id=\"caption-attachment-7131\" class=\"wp-caption-text\">Ciberseguridad Cisco<\/figcaption><\/figure>\n<p style=\"text-align: justify;\">El desarrollo m\u00e1s preocupante es la aparici\u00f3n de LLMs dise\u00f1ados espec\u00edficamente para el ciberdelito. Al no poder o no querer eludir las barandillas de seguridad de los modelos leg\u00edtimos, los ciberdelincuentes han construido los suyos.<\/p>\n<p style=\"text-align: justify;\">Modelos como <b>FraudGPT, DarkBard y DarkGPT<\/b> se anuncian abiertamente en foros de hacking y canales de Telegram, con suscripciones que cuestan tan solo $75 USD al mes. Estos modelos no tienen restricciones contra el uso malicioso; de hecho, est\u00e1n optimizados para ello.<\/p>\n<p style=\"text-align: justify;\">Sus caracter\u00edsticas anunciadas incluyen la generaci\u00f3n de contenido de phishing altamente convincente y personalizado, la ofuscaci\u00f3n de c\u00f3digo malicioso para evadir la detecci\u00f3n, la generaci\u00f3n de c\u00f3digo de exploit y el escaneo de sitios en busca de vulnerabilidades conocidas.<\/p>\n<p style=\"text-align: justify;\">Esta tendencia representa un cambio fundamental en la econom\u00eda del ciberdelito.<\/p>\n<p style=\"text-align: justify;\">Es la democratizaci\u00f3n de las capacidades de ataque avanzadas. El modelo &#8220;as-a-service&#8221;, que transform\u00f3 la distribuci\u00f3n de malware con el ransomware, ahora se aplica a las herramientas de ataque de IA.<\/p>\n<p style=\"text-align: justify;\">Esto reduce dr\u00e1sticamente la barrera de habilidades y recursos necesarios para lanzar campa\u00f1as sofisticadas. Actores de amenazas menos cualificados ahora pueden ejecutar ataques de alta calidad y alto volumen que antes eran dominio exclusivo de grupos de amenaza persistente avanzada (APT) bien financiados.<\/p>\n<p style=\"text-align: justify;\">La consecuencia inevitable es un tsunami de amenazas de mayor volumen y calidad que amenaza con abrumar a los Centros de Operaciones de Seguridad (SOC) dirigidos por humanos.<\/p>\n<p style=\"text-align: justify;\">La velocidad y la escala de los ataques impulsados por IA hacen que la defensa manual sea insostenible. Esto lleva a una conclusi\u00f3n l\u00f3gica e ineludible: la \u00fanica defensa viable contra los ataques impulsados por IA es una defensa impulsada por IA.<\/p>\n<p style=\"text-align: justify;\">El propio panorama de amenazas crea el imperativo comercial para adoptar soluciones de seguridad aumentadas por IA, como las plataformas de Detecci\u00f3n y Respuesta Extendida (XDR) y las defensas de correo electr\u00f3nico que pueden correlacionar eventos, detectar anomal\u00edas y responder a amenazas a la velocidad de la m\u00e1quina.<\/p>\n<h2>La Pr\u00f3xima Frontera del Riesgo: La Amenaza Inminente de la IA Ag\u00e9ntica<\/h2>\n<p style=\"text-align: justify;\">Si la IA generativa actual representa una evoluci\u00f3n en las amenazas, la <b>IA Ag\u00e9ntica<\/b> promete una revoluci\u00f3n. El informe de Cisco mira hacia el horizonte y se\u00f1ala a los sistemas ag\u00e9nticos como la pr\u00f3xima frontera del riesgo.<\/p>\n<p style=\"text-align: justify;\">La IA Ag\u00e9ntica se define como &#8220;sistemas de IA que pueden actuar de forma aut\u00f3noma para alcanzar objetivos sin necesidad de una gu\u00eda humana constante&#8221;. Estos sistemas pueden planificar, razonar, memorizar, aprender y utilizar herramientas para ejecutar tareas complejas en el mundo digital y f\u00edsico.<\/p>\n<p style=\"text-align: justify;\">Si bien el potencial para la productividad es inmenso, el perfil de riesgo es igualmente extraordinario. Una IA ag\u00e9ntica comprometida o maliciosa no es solo una herramienta pasiva; es un adversario aut\u00f3nomo que opera dentro de sus redes.<\/p>\n<p style=\"text-align: justify;\">La organizaci\u00f3n sin fines de lucro OWASP, con la contribuci\u00f3n de Cisco, ya ha comenzado a trazar este nuevo territorio de amenazas. Han identificado al menos 14 vectores de amenaza distintos, que incluyen :<\/p>\n<ul>\n<li style=\"text-align: justify;\"><b>Envenenamiento de la memoria (Memory Poisoning):<\/b> Donde un atacante introduce datos falsos o enga\u00f1osos en la memoria a corto o largo plazo del agente para manipular sus decisiones y acciones futuras.<\/li>\n<li style=\"text-align: justify;\"><b>Encadenamiento de acciones da\u00f1inas:<\/b> La capacidad de un agente para combinar una serie de acciones aparentemente benignas (leer un archivo, enviar un correo electr\u00f3nico, consultar una API) en una secuencia de ataque compleja y da\u00f1ina.<\/li>\n<li style=\"text-align: justify;\"><b>Ejecuci\u00f3n remota de c\u00f3digo inesperada:<\/b> Donde los atacantes explotan la capacidad del agente para interactuar con herramientas y ejecutar scripts para lograr la ejecuci\u00f3n de c\u00f3digo no autorizado.<\/li>\n<\/ul>\n<p style=\"text-align: justify;\">La perspectiva de que los adversarios aprovechen la <b>IA multimodal<\/b> (que integra texto, im\u00e1genes, voz y c\u00f3digo) dentro de un marco ag\u00e9ntico es particularmente sombr\u00eda.<\/p>\n<p style=\"text-align: justify;\">Te\u00f3ricamente, un agente malicioso podr\u00eda &#8220;optimizar y automatizar cadenas de ataque completas&#8221;, desde la realizaci\u00f3n de un reconocimiento aut\u00f3nomo de un objetivo, la creaci\u00f3n de contenido de phishing multimodal realista (por ejemplo, un correo electr\u00f3nico con un video deepfake adjunto), el descubrimiento de exploits de d\u00eda cero, la generaci\u00f3n de malware evasivo y la automatizaci\u00f3n del movimiento lateral dentro de las redes.<\/p>\n<p style=\"text-align: justify;\">Esto conducir\u00eda a una explotaci\u00f3n m\u00e1s r\u00e1pida y a un riesgo exponencialmente mayor para todos los sectores.<\/p>\n<h2 style=\"text-align: justify;\">El Mosaico Regulatorio Global: La Carrera por Gobernar una Tecnolog\u00eda Exponencial<\/h2>\n<p style=\"text-align: justify;\">A medida que la tecnolog\u00eda de IA avanza a un ritmo exponencial, los gobiernos de todo el mundo se esfuerzan por seguirle el paso, creando un panorama regulatorio global que el informe de Cisco describe acertadamente como un &#8220;mosaico&#8221; fragmentado.<\/p>\n<p style=\"text-align: justify;\">No ha surgido un enfoque \u00fanico y est\u00e1ndar, y las jurisdicciones est\u00e1n adoptando estrategias muy diferentes en su intento de equilibrar la innovaci\u00f3n con la gesti\u00f3n de riesgos.<\/p>\n<p style=\"text-align: justify;\">En un extremo del espectro se encuentra la <b>Uni\u00f3n Europea<\/b>, que con su <b>Ley de IA (EU AI Act)<\/b>, que entr\u00f3 en vigor el 1 de agosto de 2024, se ha convertido en la primera jurisdicci\u00f3n del mundo con una ley de IA integral y de amplio alcance.<\/p>\n<p style=\"text-align: justify;\">La ley adopta un enfoque basado en el riesgo, imponiendo reglas estrictas a los sistemas de &#8220;alto riesgo&#8221; (como los utilizados en infraestructuras cr\u00edticas, empleo o aplicaci\u00f3n de la ley) y prohibiendo por completo las aplicaciones de &#8220;riesgo inaceptable&#8221;.<\/p>\n<p style=\"text-align: justify;\">Las multas por incumplimiento son severas, llegando hasta el 7% de la facturaci\u00f3n mundial de una organizaci\u00f3n.<\/p>\n<p style=\"text-align: justify;\">En el otro extremo se encuentra <b>Estados Unidos<\/b>, donde, en ausencia de una legislaci\u00f3n federal integral, ha surgido un enfoque estado por estado.<\/p>\n<p style=\"text-align: justify;\"><b>Colorado<\/b> se convirti\u00f3 en el primer estado en aprobar una ley de IA integral, reflejando el enfoque basado en el riesgo de la UE, mientras que <b>Utah<\/b> implement\u00f3 una ley centrada en la transparencia y la divulgaci\u00f3n obligatoria cuando los consumidores interact\u00faan con IA generativa.<\/p>\n<p style=\"text-align: justify;\">Esta fragmentaci\u00f3n presenta un desaf\u00edo de cumplimiento significativo para las empresas que operan a nivel nacional.<\/p>\n<p style=\"text-align: justify;\">Entre estos dos polos, los pa\u00edses est\u00e1n experimentando con una variedad de herramientas pol\u00edticas, desde estrategias nacionales hasta directrices voluntarias.<\/p>\n<p style=\"text-align: justify;\">Para superar esta fragmentaci\u00f3n, han surgido alianzas transnacionales clave. Iniciativas como el <b>Proceso de IA de Hiroshima<\/b>, respaldado por 49 pa\u00edses, y las asociaciones formales entre los Institutos de Seguridad de IA de EE. UU. y el Reino Unido buscan alinear los esfuerzos globales, compartir las mejores pr\u00e1cticas y crear un entendimiento com\u00fan sobre la IA segura y confiable.<\/p>\n<p style=\"text-align: justify;\">Sin embargo, un an\u00e1lisis m\u00e1s profundo de la cronolog\u00eda de los desarrollos pol\u00edticos revela un pivote geopol\u00edtico crucial que ocurri\u00f3 entre 2024 y 2025.<\/p>\n<p style=\"text-align: justify;\">El discurso inicial, dominado por la &#8220;seguridad&#8221; en el sentido de <i>safety<\/i> (\u00e9tica, equidad, mitigaci\u00f3n de da\u00f1os sociales), ha evolucionado r\u00e1pidamente hacia una conversaci\u00f3n centrada en la &#8220;seguridad&#8221; en el sentido de <i>security<\/i> (ciberamenazas, seguridad nacional) y la &#8220;pro-innovaci\u00f3n&#8221; (competitividad econ\u00f3mica).<\/p>\n<p style=\"text-align: justify;\">El informe documenta una serie de acciones en 2025 que subrayan este cambio :<\/p>\n<ul>\n<li>La nueva administraci\u00f3n estadounidense revoc\u00f3 la Orden Ejecutiva anterior para centrarse expl\u00edcitamente en la seguridad nacional y el fomento de la innovaci\u00f3n.<\/li>\n<li style=\"text-align: justify;\">El Instituto de Seguridad de IA del Reino Unido se rebautiz\u00f3 oficialmente como <b>Instituto de Seguridad de IA del Reino Unido<\/b>, una sutil pero significativa se\u00f1al de un cambio de enfoque hacia las amenazas a la seguridad nacional.<\/li>\n<li style=\"text-align: justify;\">La Comisi\u00f3n Europea retir\u00f3 la Directiva sobre Responsabilidad de la IA para &#8220;reducir la carga administrativa y simplificar las normas de la UE&#8221;.<\/li>\n<li style=\"text-align: justify;\">Francia y la UE anunciaron planes de inversi\u00f3n masivos, de cientos de miles de millones de euros, en infraestructura y desarrollo de IA.<\/li>\n<\/ul>\n<p style=\"text-align: justify;\">El hilo conductor es claro: la era del debate filos\u00f3fico sobre la IA est\u00e1 dando paso a la era de la competencia geopol\u00edtica. La IA ya no es solo una tecnolog\u00eda que debe regularse por el bien social; es un activo estrat\u00e9gico fundamental en el equilibrio de poder econ\u00f3mico y militar global.<\/p>\n<p style=\"text-align: justify;\">Este cambio de mentalidad implica que las naciones ver\u00e1n la protecci\u00f3n de sus capacidades de IA y la interrupci\u00f3n de las de sus adversarios como una prioridad principal, lo que probablemente conducir\u00e1 a una intensificaci\u00f3n del ciberespionaje patrocinado por el estado contra los laboratorios de IA y las empresas tecnol\u00f3gicas l\u00edderes.<\/p>\n<h2>Desde el Laboratorio a la L\u00ednea de Fuego: La Carrera Armamentista en la Investigaci\u00f3n de Seguridad<\/h2>\n<p style=\"text-align: justify;\">Mientras los adversarios perfeccionan sus ataques, una comunidad global de investigadores de seguridad \u2014los &#8220;white hats&#8221;\u2014 est\u00e1 inmersa en una carrera armamentista para comprender y mitigar estas nuevas amenazas.<\/p>\n<p style=\"text-align: justify;\">El informe de Cisco destaca varias iniciativas de investigaci\u00f3n de vanguardia, lideradas o contribuidas por su propio equipo, que revelan la fragilidad de los modelos de IA actuales, incluso los m\u00e1s avanzados.<\/p>\n<p style=\"text-align: justify;\"><b>Jailbreaking Algor\u00edtmico (TAP):<\/b> En colaboraci\u00f3n con la Universidad de Yale, los investigadores de Cisco desarrollaron un m\u00e9todo algor\u00edtmico para hacer jailbreak a los LLMs llamado <b>Tree of Attacks with Pruning (TAP)<\/b>.<\/p>\n<p style=\"text-align: justify;\">Este m\u00e9todo utiliza un LLM &#8220;atacante&#8221; para generar y refinar continuamente prompts da\u00f1inos contra un LLM &#8220;objetivo&#8221;, con un LLM &#8220;evaluador&#8221; que califica el \u00e9xito.<\/p>\n<p style=\"text-align: justify;\">El proceso es totalmente automatizado, no requiere supervisi\u00f3n humana y funciona como un ataque de &#8220;caja negra&#8221; (sin conocimiento de la arquitectura interna del objetivo).<\/p>\n<p style=\"text-align: justify;\">Los resultados fueron alarmantes: TAP logr\u00f3 tasas de \u00e9xito de jailbreak del 90% contra GPT-4 y del 98% contra PaLM-2, demostrando que incluso los modelos m\u00e1s sofisticados son vulnerables a ataques automatizados y eficientes.<\/p>\n<p style=\"text-align: justify;\"><b>La &#8220;Trampa del Fine-Tuning&#8221;:<\/b> Una de las revelaciones m\u00e1s contraintuitivas y cr\u00edticas para las empresas es el riesgo asociado con el <b>fine-tuning<\/b>.<\/p>\n<p style=\"text-align: justify;\">El fine-tuning es el proceso com\u00fan de tomar un modelo de base y entrenarlo adicionalmente con un conjunto de datos espec\u00edfico de un dominio (por ejemplo, financiero, legal, m\u00e9dico) para mejorar su relevancia y precisi\u00f3n.<\/p>\n<p style=\"text-align: justify;\">La investigaci\u00f3n de Cisco descubri\u00f3 que este proceso, incluso cuando se realiza con conjuntos de datos completamente benignos, puede degradar catastr\u00f3ficamente la alineaci\u00f3n de seguridad del modelo original.<\/p>\n<p style=\"text-align: justify;\">Al evaluar variantes del modelo Llama-2-7B afinadas para los dominios de biomedicina, finanzas y derecho, los investigadores encontraron que los modelos afinados eran <b>m\u00e1s de 3 veces m\u00e1s susceptibles a las instrucciones de jailbreak<\/b> y <b>m\u00e1s de 22 veces m\u00e1s propensos a producir una respuesta da\u00f1ina<\/b> en comparaci\u00f3n con el modelo base original.<\/p>\n<p style=\"text-align: justify;\">Esto significa que el mismo proceso que las empresas utilizan para hacer que la IA sea m\u00e1s \u00fatil para ellas tambi\u00e9n la est\u00e1 haciendo inherentemente m\u00e1s peligrosa.<\/p>\n<p style=\"text-align: justify;\"><b>Envenenamiento de Datos a Escala Web:<\/b> Como se mencion\u00f3 anteriormente, la investigaci\u00f3n colaborativa de Cisco, Google, ETH Zurich y NVIDIA demostr\u00f3 la alarmante facilidad con la que se pueden envenenar los conjuntos de datos p\u00fablicos masivos que sustentan a casi todos los principales modelos de IA.<\/p>\n<p style=\"text-align: justify;\">Con t\u00e9cnicas como la compra de nombres de dominio caducados a los que hacen referencia los conjuntos de datos, los investigadores mostraron que pod\u00edan inyectar datos maliciosos con un costo trivial, socavando la integridad del modelo desde su misma fuente de conocimiento.<\/p>\n<p style=\"text-align: justify;\">Estos hallazgos de investigaci\u00f3n pintan un cuadro claro: las defensas de seguridad incorporadas en los modelos de IA son fr\u00e1giles y a menudo se ven comprometidas por las pr\u00e1cticas empresariales est\u00e1ndar.<\/p>\n<p style=\"text-align: justify;\">Confiar \u00fanicamente en la seguridad proporcionada por el desarrollador del modelo es una estrategia condenada al fracaso.<\/p>\n<h2>Fortificando la Empresa en la Era de la IA<\/h2>\n<p>El informe &#8220;State of AI Security 2025&#8221; de <a href=\"http:\/\/www.Cisco.com\" target=\"_blank\" rel=\"noopener\">Cisco<\/a> no es simplemente un cat\u00e1logo de amenazas; es una llamada de atenci\u00f3n urgente para cada l\u00edder empresarial y de TI.<\/p>\n<p>La adopci\u00f3n de la IA no es una opci\u00f3n, pero la adopci\u00f3n insegura es un riesgo existencial. Para navegar este nuevo y complejo panorama, las organizaciones deben ir m\u00e1s all\u00e1 de las pr\u00e1cticas de ciberseguridad tradicionales y adoptar un nuevo conjunto de principios estrat\u00e9gicos.<\/p>\n<p>Basado en los hallazgos del informe, se proponen las siguientes directrices para fortificar la empresa en la era de la IA:<\/p>\n<p><b>Adoptar una Mentalidad de &#8220;Cero Confianza&#8221; para la IA:<\/b> El principio de &#8220;nunca confiar, siempre verificar&#8221; debe extenderse a todo el ciclo de vida de la IA. La investigaci\u00f3n sobre &#8220;Sleepy Pickle&#8221; y el envenenamiento de datos demuestra que no se puede confiar ciegamente en los modelos pre-entrenados, las bibliotecas de c\u00f3digo abierto o los conjuntos de datos p\u00fablicos. Cada componente de la cadena de suministro de IA debe ser examinado, validado y monitoreado continuamente.<\/p>\n<p><b>Invertir en Seguridad Independiente del Modelo:<\/b> La &#8220;trampa del fine-tuning&#8221; es la prueba definitiva de que las barandillas de seguridad incorporadas en un modelo son insuficientes y fr\u00e1giles.<\/p>\n<p>Las empresas necesitan una capa de seguridad externa e independiente que act\u00fae como un firewall para el LLM, inspeccionando todas las entradas (prompts) en busca de ataques y todas las salidas en busca de fugas de datos o respuestas da\u00f1inas, en tiempo real y sin ser afectada por los cambios internos del modelo.<\/p>\n<p><b>Luchar contra la IA con IA:<\/b> El auge de los LLMs maliciosos como DarkGPT y la perspectiva de ataques ag\u00e9nticos aut\u00f3nomos hacen que la defensa humana sea insostenible en t\u00e9rminos de escala y velocidad.<\/p>\n<p>La \u00fanica respuesta viable es aumentar las operaciones de seguridad con IA, utilizando plataformas que puedan detectar, correlacionar y responder a las amenazas a la velocidad de la m\u00e1quina.<\/p>\n<p><b>Priorizar la Seguridad del Ciclo de Vida Completo:<\/b> El riesgo existe en cada etapa: desde la adquisici\u00f3n de datos y la selecci\u00f3n de modelos, pasando por el entrenamiento y el fine-tuning, hasta la implementaci\u00f3n y el monitoreo operativo.<\/p>\n<p>La seguridad no puede ser una ocurrencia tard\u00eda; debe integrarse en el proceso de MLOps (Machine Learning Operations) desde el primer d\u00eda, aplicando marcos de gesti\u00f3n de riesgos como los de NIST y OWASP en cada fase.<\/p>\n<div class=\"container ng-tns-c1850701066-65 hide\">\n<div class=\"carousel-container ng-tns-c1850701066-65\"><\/div>\n<\/div>\n<p><b>Educar y Gobernar el Uso Humano:<\/b> La amenaza no es solo externa.<\/p>\n<p>El mayor riesgo de fuga de datos de IA hoy en d\u00eda proviene de empleados bien intencionados que pegan informaci\u00f3n sensible de la empresa en chatbots de terceros.<\/p>\n<p>Es imperativo establecer pol\u00edticas claras sobre el uso aceptable de la IA y desplegar soluciones de acceso seguro que puedan identificar y bloquear la exfiltraci\u00f3n de datos confidenciales a herramientas de IA no sancionadas, como las que ofrece Cisco Secure Access.<\/p>\n<p>La era de la inteligencia artificial est\u00e1 aqu\u00ed, y trae consigo una promesa sin precedentes y un peligro equivalente. Las organizaciones que prosperar\u00e1n no ser\u00e1n necesariamente las que adopten la IA m\u00e1s r\u00e1pido, sino las que la adopten de la manera m\u00e1s segura. La seguridad ya no es una barrera para la innovaci\u00f3n; es la base sobre la que se construir\u00e1 la innovaci\u00f3n duradera.<\/p>\n<p>&nbsp;<\/p>\n<p><b>Marcelo Lozano &#8211; General Publisher IT CONNECT LATAM<\/b><\/p>\n<\/div>\n<p>Lea m\u00e1s sobre Ciberseguridad en<\/p>\n<p><a href=\"https:\/\/itconnect.lat\/portal\/desalineacion-agentica-0001\/\">Desalineaci\u00f3n Ag\u00e9ntica 2025: cuando la AI no brinda seguridad<\/a><\/p>\n<p><a href=\"https:\/\/itconnect.lat\/portal\/coo-0001\/\">COO 2025 en la cuerda floja digital: abismos de seguridad<\/a><\/p>\n<p><a href=\"https:\/\/itconnect.lat\/portal\/marcelo-romero-001\/\">Marcelo Romero 2025: El Guardi\u00e1n Digital la Seguridad Argentina &#x1f6e1;&#xfe0f;&#x1f50d;<\/a><\/p>\n<p><a href=\"https:\/\/itconnect.lat\/portal\/group-ib-0001\/\">Group-IB 2025: el cibercrimen vulnera la confianza de los colombianos<\/a><\/p>\n<p><a href=\"https:\/\/itconnect.lat\/portal\/lockbit-2025\/\">LockBit 2025: el m\u00e1s pr\u00f3spero grupo de ransomware &#x1f525;&#x1f525;&#x1f525;<\/a><\/p>\n<div class=\"end-of-report-marker ng-tns-c1186569715-24 ng-star-inserted\" aria-hidden=\"true\"><span style=\"font-size: 8pt; color: #ffffff;\">Ciberseguridad, Ciberseguridad, Ciberseguridad, Ciberseguridad, Ciberseguridad, Ciberseguridad, Ciberseguridad, Ciberseguridad, Ciberseguridad, Ciberseguridad, Ciberseguridad, Ciberseguridad, Ciberseguridad, Ciberseguridad, Ciberseguridad, Ciberseguridad, Ciberseguridad, Ciberseguridad, Ciberseguridad, Ciberseguridad, Ciberseguridad, Ciberseguridad, Ciberseguridad, Ciberseguridad,\u00a0<\/span><\/div>\n<div aria-hidden=\"true\"><\/div>\n<div aria-hidden=\"true\"><span style=\"font-size: 8pt; color: #ffffff;\">Ciberseguridad, Ciberseguridad, Ciberseguridad, Ciberseguridad, Ciberseguridad, Ciberseguridad, Ciberseguridad, Ciberseguridad, Ciberseguridad, Ciberseguridad, Ciberseguridad, Ciberseguridad, Ciberseguridad, Ciberseguridad, Ciberseguridad, Ciberseguridad, Ciberseguridad, Ciberseguridad, Ciberseguridad, Ciberseguridad, Ciberseguridad, Ciberseguridad, Ciberseguridad, Ciberseguridad,\u00a0<\/span><\/div>\n<div aria-hidden=\"true\"><\/div>\n","protected":false},"excerpt":{"rendered":"<p>El informe inaugural de Cisco sobre el Estado de la ciberseguridad de la IA revela una peligrosa brecha entre la carrera por la adopci\u00f3n y la madurez en ciberseguridad, exponiendo a las empresas a una nueva clase de riesgos que los firewalls tradicionales no pueden contener. La Paradoja de la Inteligencia Artificial en la Empresa [&hellip;]<\/p>\n","protected":false},"author":2,"featured_media":7130,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"site-sidebar-layout":"default","site-content-layout":"","ast-site-content-layout":"default","site-content-style":"default","site-sidebar-style":"default","ast-global-header-display":"","ast-banner-title-visibility":"","ast-main-header-display":"","ast-hfb-above-header-display":"","ast-hfb-below-header-display":"","ast-hfb-mobile-header-display":"","site-post-title":"","ast-breadcrumbs-content":"","ast-featured-img":"","footer-sml-layout":"","ast-disable-related-posts":"","theme-transparent-header-meta":"default","adv-header-id-meta":"","stick-header-meta":"","header-above-stick-meta":"","header-main-stick-meta":"","header-below-stick-meta":"","astra-migrate-meta-layouts":"set","ast-page-background-enabled":"default","ast-page-background-meta":{"desktop":{"background-color":"var(--ast-global-color-4)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"tablet":{"background-color":"","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"mobile":{"background-color":"","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""}},"ast-content-background-meta":{"desktop":{"background-color":"var(--ast-global-color-5)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"tablet":{"background-color":"var(--ast-global-color-5)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"mobile":{"background-color":"var(--ast-global-color-5)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""}},"footnotes":""},"categories":[58],"tags":[4173,2332,1453,4232,345,544,377,254,1947,4229,4230,1717,378,2814,4083,1677,289,4234,1957,273,999,894,443,4233,235,3565,4231,383,1010,752,942,996],"class_list":["post-7126","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-ciberseguridad","tag-amenazas-digitales","tag-antivirus","tag-ataques-informaticos","tag-buenas-practicas","tag-ciberamenazas","tag-ciberataques","tag-ciberdelincuencia","tag-ciberseguridad","tag-consejos-de-seguridad","tag-contrasenas-seguras","tag-educacion-digital","tag-firewall","tag-hacking","tag-informatica","tag-infraestructura-it","tag-it-connect","tag-malware","tag-navegacion-segura","tag-normativas-de-seguridad","tag-phishing","tag-prevencion","tag-privacidad-en-linea","tag-proteccion-de-datos","tag-proteccion-empresarial","tag-ransomware","tag-redes-seguras","tag-seguridad-corporativa","tag-seguridad-de-la-informacion","tag-seguridad-en-linea","tag-seguridad-informatica","tag-tecnologia","tag-vulnerabilidades"],"amp_enabled":true,"_links":{"self":[{"href":"https:\/\/itconnect.lat\/portal\/wp-json\/wp\/v2\/posts\/7126","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/itconnect.lat\/portal\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/itconnect.lat\/portal\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/itconnect.lat\/portal\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/itconnect.lat\/portal\/wp-json\/wp\/v2\/comments?post=7126"}],"version-history":[{"count":2,"href":"https:\/\/itconnect.lat\/portal\/wp-json\/wp\/v2\/posts\/7126\/revisions"}],"predecessor-version":[{"id":7132,"href":"https:\/\/itconnect.lat\/portal\/wp-json\/wp\/v2\/posts\/7126\/revisions\/7132"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/itconnect.lat\/portal\/wp-json\/wp\/v2\/media\/7130"}],"wp:attachment":[{"href":"https:\/\/itconnect.lat\/portal\/wp-json\/wp\/v2\/media?parent=7126"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/itconnect.lat\/portal\/wp-json\/wp\/v2\/categories?post=7126"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/itconnect.lat\/portal\/wp-json\/wp\/v2\/tags?post=7126"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}