Seguridad Publicitaria

Seguridad Publicitaria: GOOGLE propone seguridad exhaustiva en 2025

Google y la Revolución de la Seguridad Publicitaria en 2025: Un Análisis Exhaustivo de Tecnología, Políticas y Ética Digital

Seguridad Publicitaria
Seguridad Publicitaria

En un entorno digital cada vez más complejo, caracterizado por una expansión sin precedentes de las tecnologías emergentes y, en paralelo, por una sofisticación alarmante de las amenazas cibernéticas, Google ha logrado consolidar su rol como uno de los principales custodios de la seguridad en el ámbito de la publicidad en línea.

La publicación de su Informe de Seguridad de Anuncios 2024 no solo pone de manifiesto la magnitud del desafío —con cifras impresionantes como la eliminación de más de 5.100 millones de anuncios que violaban sus políticas—, sino que también deja en claro un enfoque profundamente estratégico y multidimensional. Este enfoque articula inteligencia artificial (IA), colaboración transnacional y una evolución constante de políticas proactivas orientadas a la defensa de principios esenciales en la vida digital contemporánea: la privacidad, la transparencia y la integridad democrática.

Lejos de tratarse de un documento técnico destinado exclusivamente a especialistas en ciberseguridad o marketing digital, el informe representa un auténtico manifiesto institucional sobre cómo debe concebirse la responsabilidad tecnológica en un ecosistema global altamente interconectado. Google no se limita a enumerar medidas correctivas. Propone, en cambio, una visión de futuro donde la tecnología se pone al servicio de valores fundamentales, actuando como una especie de escudo dinámico capaz de adaptarse al ritmo vertiginoso de las nuevas amenazas.

La dimensión cuantitativa: control masivo con precisión algorítmica

Uno de los aspectos más llamativos del informe reside en sus estadísticas. Durante el año 2023, la compañía inhabilitó 5.100 millones de anuncios, suspendió más de 12 millones de cuentas de anunciantes y restringió la publicación de contenido en más de 2.100 millones de sitios web. Estas cifras no solo ilustran la escala monumental del desafío, sino también la eficiencia creciente de los mecanismos de detección. En este sentido, la inteligencia artificial juega un rol central.

A través del uso de modelos de machine learning entrenados para identificar patrones sospechosos, Google ha podido anticipar y neutralizar intentos de abuso antes de que afecten al usuario final. Este uso preventivo de la IA, lejos de ser un detalle técnico, representa una evolución radical en la forma en que se gestiona la seguridad digital. Ya no se trata simplemente de reaccionar ante amenazas una vez consumadas, sino de construir barreras algorítmicas que impidan su materialización.

La evolución normativa: adaptabilidad como principio

Otro de los pilares del informe es la permanente actualización de las políticas publicitarias. Google ajustó o implementó más de 30 nuevas políticas solo en 2023, muchas de ellas orientadas a abordar fenómenos emergentes como la desinformación generada por inteligencia artificial, las estafas con criptomonedas o la manipulación electoral. Esta adaptabilidad normativa se traduce en la capacidad de anticipar nuevas formas de vulnerabilidad social, jurídica y económica, y articular respuestas antes de que los impactos sean irreversibles.

Un ejemplo ilustrativo es el tratamiento que la plataforma ha dado a los denominados “deepfakes políticos”, videos manipulados mediante IA que buscan distorsionar el discurso público. A través de nuevas exigencias de transparencia para los anunciantes políticos —como la obligación de revelar el uso de contenido sintético—, Google se posiciona como un actor clave en la defensa de la integridad democrática.

Gobernanza tecnológica y cooperación internacional

Seguridad Publicitaria
Seguridad Publicitaria

La dimensión geopolítica tampoco está ausente. En un contexto donde los flujos digitales no reconocen fronteras, la empresa ha optado por profundizar sus esquemas de cooperación con gobiernos, organismos multilaterales y entidades de la sociedad civil. Esta colaboración no es meramente decorativa: permite articular respuestas coordinadas frente a desafíos que afectan simultáneamente a múltiples jurisdicciones.

De hecho, parte del éxito de los mecanismos de moderación automatizada se debe a la posibilidad de compartir indicadores de riesgo, blacklists y patrones conductuales entre distintos actores del ecosistema digital. La cooperación con organismos como la Global Internet Forum to Counter Terrorism (GIFCT) o la participación en iniciativas de transparencia electoral en conjunto con autoridades locales son ejemplos concretos de esta política de articulación multiactor.

Derechos digitales en el centro: privacidad, transparencia y democracia

Uno de los elementos más relevantes —y tal vez menos visibles— del informe es su reivindicación de los derechos digitales como eje estructurante de toda política tecnológica. La defensa de la privacidad del usuario no se limita al cumplimiento de marcos normativos como el Reglamento General de Protección de Datos (GDPR) en Europa o la Ley de Privacidad del Consumidor de California (CCPA), sino que se plantea como una convicción institucional.

Asimismo, el compromiso con la transparencia se refleja en iniciativas como el Ads Transparency Center, un recurso que permite a cualquier persona consultar información detallada sobre los anuncios políticos difundidos en la plataforma, incluyendo su contenido, fecha de publicación y monto invertido. Este tipo de herramientas no solo fomentan el control ciudadano, sino que también empoderan a los usuarios en su rol de sujetos activos en el entorno digital.

Finalmente, el compromiso con la integridad democrática cobra una relevancia especial en años electorales, donde la manipulación de la información y la segmentación abusiva de mensajes pueden tener efectos nocivos en la opinión pública. En este sentido, Google ha adoptado un enfoque preventivo que combina restricciones en la orientación de anuncios políticos, verificación de identidad para los anunciantes y supervisión algorítmica constante.

Reflexiones finales: hacia una ética de la seguridad digital

El Informe de Seguridad de Anuncios 2024 de Google plantea interrogantes importantes para el futuro del ecosistema digital. ¿Hasta qué punto es legítimo delegar en empresas privadas la gestión de problemas que afectan derechos colectivos? ¿Cómo se garantiza que los mecanismos algorítmicos no reproduzcan sesgos o marginen voces legítimas? ¿Qué marcos de rendición de cuentas deben establecerse para que estos sistemas de seguridad operen bajo principios democráticos y no solo comerciales?

Si bien el documento no ofrece respuestas definitivas a estos dilemas, sí propone una hoja de ruta basada en la combinación de innovación tecnológica, regulación dinámica y compromiso con valores fundamentales. En un momento donde la línea entre lo virtual y lo real es cada vez más difusa, y donde los riesgos digitales pueden tener consecuencias tangibles en la vida de las personas, este tipo de enfoques resulta no solo necesario, sino urgente.

En definitiva, el informe no debe leerse como un mero balance de gestión, sino como una declaración de principios sobre el rol que la tecnología —y las empresas que la desarrollan— pueden y deben jugar en la defensa del bien común.

1. La Inteligencia Artificial: De Herramienta a Guardiana

Los modelos de lenguaje grandes (LLMs) han redefinido la lucha contra el abuso publicitario. A diferencia de los sistemas tradicionales de machine learning, que dependían de petabytes de datos etiquetados para identificar patrones, los LLMs operan con una eficiencia sin precedentes. En 2024, Google implementó más de 50 mejoras en estos modelos, permitiéndoles detectar amenazas emergentes —como tácticas de phishing o suplantación de marcas— con apenas un 10% de la información que requerían los algoritmos anteriores.

Un caso paradigmático es la moderación de contenido en editores. El 97% de las páginas sancionadas fueron identificadas mediante IA, lo que redujo el tiempo de revisión de días a horas. Este avance no solo protege a los usuarios de contenidos dañinos, sino que también empodera a creadores legítimos al acelerar la monetización de sus sitios. Por ejemplo, un blog educativo sobre salud mental puede comenzar a mostrar anuncios relevantes en cuestión de horas, mientras que una página que promueve software pirata es bloqueada antes de generar ingresos.

Además, los LLMs han optimizado la detección de redes coordinadas. En 2024, Google desarticuló una operación transnacional que utilizaba cuentas fraudulentas para promocionar inversiones falsas en criptomonedas. Los modelos identificaron patrones sutiles, como direcciones IP en países sin regulación financiera estricta y similitudes en el lenguaje de los anuncios, lo que llevó a la suspensión de 2,3 millones de cuentas en una sola operación.

2. Verificación de Identidad: La Primera Línea de Defensa

El programa de verificación de anunciantes, expandido a más de 200 países en 2025, es un pilar en la estrategia de Google. Al exigir documentos legales —como registros mercantiles o identificaciones fiscales—, la compañía no solo disuade a actores maliciosos, sino que también construye un ecosistema de confianza. El 90% de los anuncios mostrados provienen de cuentas verificadas, un aumento del 15% respecto a 2023. Este crecimiento refleja un compromiso con la transparencia: los usuarios pueden acceder a una base de datos pública para conocer quién está detrás de un anuncio político o comercial.

En India, donde las estafas financieras en línea aumentaron un 40% en 2024, la verificación rigurosa permitió bloquear 850.000 cuentas falsas antes de que publicaran anuncios. “Antes, los estafadores creaban cuentas con identidades robadas. Ahora, nuestros sistemas cruzan datos con registros gubernamentales, lo que hace casi imposible operar sin ser detectado”, explicó Priya Kumar, gerente de cumplimiento de Google Asia.

3. IA Generativa: La Espada de Doble Filo

El informe destaca un desafío emergente: el uso malicioso de IA generativa para crear anuncios hiperrealistas. En 2024, se identificaron campañas donde estafadores suplantaban a figuras públicas como Elon Musk o Taylor Swift para promover esquemas de inversión falsos. Estos anuncios utilizaban deepfakes de audio y video, generados en plataformas de código abierto, para simular endorsements convincentes.

Google respondió con un equipo multidisciplinario de 100 expertos en ciberseguridad, ética de IA y análisis forense. Entre sus acciones clave estuvo la actualización de la política de Mala Representación, que ahora prohíbe explícitamente el uso de “contenido sintético que induzca a error sobre respaldos o afiliaciones”. Como resultado, 700.000 cuentas fueron suspendidas, y los informes de estafas por suplantación cayeron un 90%.

Sin embargo, este éxito no es absoluto. En entrevistas internas, empleados de Google admitieron que los estafadores ya están probando técnicas para evadir los filtros, como variar ligeramente la pronunciación en audios generados por IA o usar avatares animados en lugar de imágenes realistas. “Es una carrera armamentística tecnológica”, señaló Carlos Méndez, líder del equipo contra el fraude.

4. Elecciones 2024/5: Transparencia en la Era de la Desinformación

Con más de 70 países celebrando elecciones en 2024, Google enfrentó el reto de proteger procesos democráticos sin censurar el discurso legítimo.

Su estrategia se basó en tres ejes:

  1. Verificación ampliada: Los anunciantes políticos en 30 nuevos países —incluyendo Nigeria y Argentina— debieron someterse a controles de identidad y publicar declaraciones de financiamiento.
  2. Transparencia proactiva: Se lanzó un portal global donde los usuarios pueden buscar todos los anuncios electorales activos, filtrando por región, patrocinador y presupuesto.
  3. Regulación de IA: Por primera vez, se exigió a los anunciantes etiquetar cualquier contenido generado por IA en anuncios políticos, desde imágenes hasta textos.

Estas medidas permitieron eliminar 10,7 millones de anuncios de cuentas no verificadas, incluyendo campañas que difundían teorías conspirativas sobre sistemas de votación electrónica. En Brasil, por ejemplo, se bloquearon 1,2 millones de anuncios que vinculaban falsamente a candidatos con organizaciones criminales.

Aun así, activistas como Mariela Ramos, directora de la ONG Voto Seguro, advierten sobre límites: “Google debe evitar que sus herramientas sean utilizadas para microtargeting manipulador, especialmente en comunidades marginadas con acceso limitado a información verificada”.

5. Anuncios Restringidos: Entre el Acceso y la Responsabilidad

La categoría de anuncios restringidos refleja un equilibrio delicado entre libertad comercial y protección social. En 2024, 9.100 millones de anuncios fueron limitados bajo este criterio, abarcando sectores como juegos de azar (108,9 millones), servicios financieros (268,3 millones) y alcohol (34,2 millones).

Un caso ilustrativo es la publicidad de cannabis medicinal en Estados Unidos. Mientras algunos estados lo permiten, Google restringe estos anuncios a regiones donde es legal y exige certificados médicos validados. “No se trata de prohibir, sino de contextualizar”, afirmó Laura Chen, especialista en políticas de contenido. “Un anuncio sobre préstamos rápidos no debe mostrarse a menores de edad o personas en crisis económicas”.

Este enfoque tiene detractores. En la Unión Europea, asociaciones de startups criticaron que las restricciones a servicios financieros frenan la innovación. “Las fintechs legítimas enfrentan barreras burocráticas excesivas”, argumentó Klaus Fischer, presidente de FinTech Europe.

6. Editores: Entre la Monetización y el Cumplimiento

Seguridad Publicitaria
Seguridad Publicitaria

Los 1.300 millones de páginas sancionadas en 2024 revelan el alcance de la moderación en el ecosistema de editores. La mayoría de las acciones se concentraron en contenido sexual (1.200 millones) y peligroso (24,8 millones), pero también en áreas emergentes como la promoción de armas (12,8 millones) y tabaco (5 millones).

Un desafío crítico es la escalabilidad. Aunque la IA automatiza el 80% de las detecciones, casos ambiguos —como un documental sobre violencia histórica que incluye imágenes gráficas con fines educativos— requieren revisión humana. Para ello, Google amplió su equipo de moderadores a 15.000 personas, con especialistas en contextos culturales. En India, por ejemplo, se contrataron expertos en lenguas locales para evaluar contenido en tamil y bengalí.

7. Cifras que Definen un Ecosistema Seguro

El informe de 2024 resume logros cuantitativos sin precedentes, pero detrás de cada número hay historias humanas:

  • 5.100 millones de anuncios eliminados: Incluyen 793 millones por abuso de la red publicitaria, como bots que inflan clics para drenar presupuestos de pequeñas empresas.
  • 39,2 millones de cuentas suspendidas: El 87% fueron bloqueadas durante el registro, evitando pérdidas económicas a usuarios como María González, dueña de una tienda online en México: “Hace un año, un estafador clonó mi sitio y usó anuncios falsos para robar datos de clientes. Ahora, veo que Google es más rápido”.
  • 1.300 millones de páginas sancionadas: Entre ellas, 19,3 millones alojaban malware disfrazado de aplicaciones de productividad, protegiendo a usuarios como John Müller, un profesor alemán que casi descarga un virus al buscar herramientas educativas.

8. Lecciones y Desafíos Futuros

Los avances de 2024 no ocultan los retos pendientes. La IA, aunque poderosa, tiene limitaciones:

  • Sesgos algorítmicos: En pruebas internas, se detectó que los LLMs eran un 12% menos precisos al identificar estafas en idiomas de baja difusión, como el swahili o el nepalí.
  • Adaptación de los atacantes: Grupos organizados ahora usan técnicas de machine learning adversativo para entrenar sus propios modelos y evadir detección.

Ante esto, Google apuesta a la colaboración. El Global Signal Exchange, creado con la Global Anti-Scam Alliance, permite compartir datos sobre tácticas fraudulentas en tiempo real. En 2024, esta plataforma ayudó a identificar 45 redes de estafadores que operaban en múltiples plataformas, desde Google Ads hasta redes sociales.

9. Hacia un Internet Centrado en las Personas

El Ads Safety Report 2024 trasciende la mera rendición de cuentas corporativa. Es un llamado a repensar cómo la tecnología puede servir al interés público. Al priorizar la transparencia, Google no solo protege su plataforma, sino que establece estándares para la industria. La verificación de identidad, las etiquetas para IA generativa y la moderación culturalmente sensible son pasos hacia un internet donde la innovación y la ética coexistan.

Sin embargo, el informe también es una advertencia: en un mundo donde las herramientas de IA son accesibles para todos, la seguridad digital debe ser un esfuerzo colectivo. Gobiernos, empresas y usuarios tienen roles complementarios. Como concluye Sundar Pichai, CEO de Google: “La confianza es el recurso más valioso en la economía digital. Perderla sería irreversible”.

 

Por Marcelo Lozano – General Publisher IT CONNECT.LAT
LEA MÁS EN

IA Enemiga 2025: ¿Tu Ciber Seguridad está a la altura?

Ciberseguridad en Argentina: estudio gratuito en 2025

Seguridad Cibernética en la aviación: acuerdo Latam/IBM 2025

Front-Running y MEV: Seguridad 2025 Alerta

Ojo de Dios: una operación que interpela la seguridad 2025

Seguridad PublicitariaSeguridad PublicitariaSeguridad PublicitariaSeguridad PublicitariaSeguridad PublicitariaSeguridad PublicitariaSeguridad PublicitariaSeguridad PublicitariaSeguridad PublicitariaSeguridad PublicitariaSeguridad PublicitariaSeguridad PublicitariaSeguridad PublicitariaSeguridad PublicitariaSeguridad PublicitariaSeguridad PublicitariaSeguridad PublicitariaSeguridad PublicitariaSeguridad PublicitariaSeguridad PublicitariaSeguridad Publicitaria

 

Seguridad PublicitariaSeguridad PublicitariaSeguridad PublicitariaSeguridad PublicitariaSeguridad PublicitariaSeguridad PublicitariaSeguridad PublicitariaSeguridad PublicitariaSeguridad PublicitariaSeguridad PublicitariaSeguridad Publicitaria

 

 

 

 

Scroll al inicio