IA - Inteligencia Artificial

IA – Inteligencia Artificial en UE: Desafío 2.0 equilibra innovación y protección

La Ley de IA – Inteligencia Artificial en la Unión Europea (UE) ha sido un proceso en constante evolución desde 2021, generando encendidas discusiones sobre la intensidad con la que se debe regular esta tecnología.

En este contexto, se han planteado posturas divergentes: por un lado, existen voces que abogan por un mayor control y otorgamiento de derechos a los consumidores; por otro lado, hay quienes temen que estas reglas puedan frenar el motor de la innovación.

Este debate refleja la importancia de encontrar un equilibrio entre la protección del consumidor y el fomento de la innovación en el campo de la IA – Inteligencia Artificial.

Si bien es fundamental salvaguardar los derechos y la seguridad de los usuarios, también es necesario impulsar el desarrollo y la aplicación de tecnologías disruptivas que impulsen el progreso económico y social.

La Ley de Inteligencia Artificial de la UE busca abordar estos desafíos complejos, ofreciendo un marco legal que promueva tanto la responsabilidad como la creatividad en el ámbito de la inteligencia artificial.

El objetivo es establecer reglas claras que permitan a los emprendedores y empresas aprovechar todo el potencial de la IA – Inteligencia Artificial de manera ética y sostenible, al tiempo que se protegen los derechos y la confianza de los consumidores.

Es importante destacar que esta ley está en constante evolución, ya que la tecnología y su impacto en la sociedad continúan evolucionando rápidamente.

Las regulaciones deben adaptarse y actualizarse de manera ágil para mantenerse al día con los avances tecnológicos y garantizar que las innovaciones en IA sigan siendo seguras, responsables y beneficiosas para todos.

IA - Inteligencia Artificial
IA – Inteligencia Artificial

En este contexto, es fundamental que los emprendedores estén atentos y participen activamente en las discusiones sobre la regulación de la IA – Inteligencia Artificial en la UE.

Su voz y experiencia son esenciales para garantizar que las políticas se ajusten a las necesidades y realidades del ecosistema emprendedor, y que se fomente un entorno propicio para la innovación responsable.

La Ley de IA – Inteligencia Artificial en la UE representa un hito importante en el camino hacia un uso ético y seguro de esta tecnología.

Es un llamado a la reflexión y la acción, que nos invita a encontrar un equilibrio entre la protección del consumidor y el impulso de la innovación, para construir un futuro digital más inclusivo, responsable y próspero.

La mirada desde América Latina

El caso de la Ley de IA – Inteligencia Artificial en la Unión Europea (UE) puede servir como un ejemplo valioso para América Latina en términos de regulación de la Inteligencia Artificial.

Aunque cada región tiene sus particularidades, existen lecciones y principios fundamentales que pueden ser aplicados en el contexto latinoamericano.

En primer lugar, la Ley de IA – Inteligencia Artificial de la UE destaca la importancia de equilibrar la innovación y la protección del consumidor.

América Latina también se enfrenta a desafíos similares, donde es necesario impulsar el desarrollo de tecnologías emergentes como la IA – Inteligencia Artificial, al tiempo que se protegen los derechos de los usuarios y se garantiza su seguridad.

Adoptar un enfoque equilibrado y responsable hacia la regulación de la IA – Inteligencia Artificial puede permitir a los países latinoamericanos fomentar la innovación de manera ética y sostenible.

Además, la Ley de IA – Inteligencia Artificial de la UE establece un marco legal claro y transparente. Esto es esencial para brindar certeza jurídica a los actores del ecosistema de la IA – Inteligencia Artificial en América Latina.

Contar con reglas claras y bien definidas facilita la planificación estratégica, la inversión y la colaboración entre empresas, instituciones académicas y gobiernos en el campo de la Inteligencia Artificial.

Los países latinoamericanos pueden aprender de la experiencia de la UE al establecer regulaciones que sean comprensibles, aplicables y que promuevan la confianza en la tecnología.

Asimismo, es importante destacar que la Ley de Inteligencia Artificial de la UE ha sido un proceso en constante evolución, con espacio para la participación y el debate de diversos actores.

América Latina puede tomar como ejemplo este enfoque inclusivo y colaborativo al momento de diseñar sus propias políticas de regulación de la IA – Inteligencia Artificial.

Involucrar a emprendedores, empresas, académicos, sociedad civil y otros actores relevantes en el proceso de formulación de políticas puede enriquecer el debate y asegurar que las regulaciones sean representativas y adecuadas para el contexto latinoamericano.

Por último, América Latina puede aprender de la importancia de mantenerse actualizada en relación con los avances tecnológicos.

La IA es un campo en constante evolución y las regulaciones deben adaptarse a medida que surgen nuevas tecnologías y se descubren nuevos desafíos.

Es crucial establecer mecanismos flexibles y ágiles que permitan la actualización continua de las políticas de IA, de manera que se puedan abordar los cambios y desafíos emergentes.

El caso de la Ley de IA de la UE puede servir como un referente para América Latina al momento de abordar la regulación de la IA. El equilibrio entre la innovación y la protección del consumidor, la claridad legal, la inclusión de diversos actores y la adaptabilidad son aspectos clave que pueden guiar a los países latinoamericanos en su camino hacia una regulación ética y responsable de la IA.

La decisión de la Unión Europea (UE) de regular el uso de la Inteligencia Artificial (IA), como se refleja en el avance de la Ley AI, es un ejemplo relevante para América Latina en términos de establecer un marco legal que promueva el desarrollo tecnológico y beneficie a la sociedad en su conjunto.

Al tomar como ejemplo esta iniciativa, los países latinoamericanos podrían considerar la importancia de contar con una legislación específica que regule el uso de tecnologías de IA, incluyendo sistemas como ChatGPT.

Esta regulación permitiría establecer límites y salvaguardias para asegurar un uso ético y responsable de estas tecnologías en la región.

La elaboración de un cuerpo de leyes en toda la UE implica un proceso de negociación y colaboración con los estados miembros individuales.

En el caso de América Latina, sería recomendable seguir una metodología similar, involucrando a los países de la región en la elaboración de políticas y regulaciones específicas para la IA.

Es esencial que estas leyes contemplen aspectos clave, como la protección de los derechos y la privacidad de los usuarios, la transparencia en el funcionamiento de los sistemas de IA, la responsabilidad de los desarrolladores y usuarios, así como el fomento de la equidad y la inclusión en el acceso y aplicación de la IA.

Al promover una regulación adecuada, América Latina podría establecer un entorno propicio para el desarrollo de la IA, fomentando la innovación tecnológica y al mismo tiempo protegiendo los intereses y derechos de los ciudadanos.

La Ley de IA propuesta en la Unión Europea (UE) busca clasificar los sistemas de inteligencia artificial (IA) en diferentes niveles de riesgo.

IA - Inteligencia Artificial
IA – Inteligencia Artificial

La propuesta establece cuatro niveles de riesgo: sistemas de IA inaceptables (prohibidos), sistemas de IA de alto riesgo, sistemas de IA de riesgo limitado y sistemas de IA mínimos.

Esta clasificación se basa en el potencial de los sistemas de IA para causar daños y violar los derechos humanos fundamentales.

Los sistemas de IA considerados de alto riesgo, como aquellos utilizados en sectores como la salud, el transporte, la energía y la seguridad, estarían sujetos a requisitos más estrictos.

Estos requisitos incluyen la transparencia en la forma en que se toman las decisiones, la trazabilidad de los datos utilizados para entrenar los sistemas de IA y salvaguardias específicas para prevenir la discriminación y proteger los derechos fundamentales.

El objetivo principal de esta regulación es garantizar la seguridad, confiabilidad y ética en el uso de la IA, evitando situaciones en las que los sistemas de IA puedan tener impactos negativos en los derechos humanos o generar resultados injustos o perjudiciales.

Al establecer estándares más altos para la transparencia de los datos y la toma de decisiones, se busca brindar a las personas una mayor comprensión y control sobre cómo se utilizan los algoritmos de IA en su contra.

La propuesta de la Ley de IA de la UE tiene como objetivo regular y clasificar los sistemas de IA en diferentes niveles de riesgo, aplicando requisitos más estrictos a los sistemas de alto riesgo.

Esto se hace para asegurar que las aplicaciones de IA funcionen de manera segura, confiable y ética, sin violar los derechos humanos fundamentales.

En la actualidad no existe un conjunto final de reglas o una regulación definitiva sobre la inteligencia artificial en la UE.

La propuesta de la Ley de IA aún se encuentra en proceso de discusión y se espera que haya diferentes opiniones y debates entre los diversos órganos y países de la UE antes de llegar a un consenso.

En el caso específico de Italia, es cierto que adoptó inicialmente una postura más dura al prohibir el uso de ChatGPT debido a preocupaciones sobre la falta de controles de edad y posibles infracciones de derechos de autor en los datos de entrenamiento.

Sin embargo, posteriormente, las autoridades italianas permitieron el uso de ChatGPT bajo ciertas condiciones, lo que indica que se están evaluando formas de abordar estas preocupaciones y permitir un uso controlado de la herramienta.

Otros países de la UE también han mostrado preocupación por la protección de datos y han planteado la posibilidad de prohibir herramientas como ChatGPT si se demuestra que violan las normas de protección de datos aplicables.

Alemania, en particular, ha expresado su posición en este sentido.

Estas acciones y discusiones destacan la importancia de abordar adecuadamente las preocupaciones relacionadas con la protección de datos, los derechos de autor y otros aspectos éticos y legales en el desarrollo y uso de la inteligencia artificial.

Las autoridades de la UE están trabajando en la regulación de la IA para garantizar un equilibrio entre la innovación, la seguridad y la protección de los derechos fundamentales de las personas, y estos debates son parte del proceso para llegar a una regulación efectiva y consensuada.

El exceso de regulación como barrera para la innovación

Existe un debate sobre la regulación de la tecnología y cómo encontrar un equilibrio entre la protección de los derechos de los consumidores y el fomento de la innovación.

Algunos defensores de una interpretación menos estricta de la Ley de Inteligencia Artificial (IA) argumentan que la Unión Europea (UE) podría quedarse rezagada en una industria en crecimiento si implementa regulaciones demasiado rigurosas.

Estos defensores sostienen que la regulación excesiva de la tecnología podría desalentar a las empresas a invertir en la UE o llevar a una mayor ralentización de la innovación.

Argumentan que la IA y otras tecnologías emergentes tienen el potencial de impulsar el crecimiento económico, mejorar la eficiencia y resolver problemas complejos en diversas áreas, como la atención médica, la movilidad y la energía.

Sin embargo, es importante destacar que la regulación de la tecnología también busca proteger a los ciudadanos y garantizar que su privacidad, seguridad y derechos fundamentales estén salvaguardados.

La IA plantea desafíos éticos y sociales significativos, como la discriminación algorítmica, la falta de transparencia y la responsabilidad de los sistemas autónomos.

Los defensores de una regulación más estricta argumentan que es necesario establecer salvaguardias adecuadas para mitigar estos riesgos y garantizar el beneficio de la tecnología para toda la sociedad.

La UE ha estado trabajando en una regulación de la IA para abordar estos desafíos y establecer un marco legal claro.

En abril de 2021, se propuso el Reglamento de la UE sobre la IA, que busca establecer normas para el desarrollo y uso ético de la IA en la UE.

El reglamento clasifica diferentes niveles de riesgo y propone requisitos específicos para los sistemas de IA de alto riesgo, mientras que promueve la innovación y el desarrollo responsable de la tecnología.

Encontrar el equilibrio adecuado entre la regulación y la innovación es un desafío complejo pero crucial.

Es importante que las regulaciones fomenten la innovación ética y responsable, al tiempo que protejan los derechos y la seguridad de los ciudadanos.

La regulación de la tecnología debe abordar los riesgos y desafíos asociados con su desarrollo y uso, como la privacidad, la discriminación, la transparencia y la responsabilidad.

Al mismo tiempo, también debe permitir y fomentar la innovación para impulsar el progreso y el crecimiento económico.

La UE y otras jurisdicciones están conscientes de esta necesidad y están trabajando para abordar estos desafíos.

A través de regulaciones y marcos normativos, se busca establecer estándares y salvaguardias claras que guíen el desarrollo y uso de tecnologías emergentes, como la inteligencia artificial.

Esto implica involucrar a múltiples partes interesadas, incluidos gobiernos, empresas, expertos técnicos, defensores de los consumidores y la sociedad civil, para garantizar una regulación informada y equilibrada.

Es importante reconocer que la tecnología avanza rápidamente y que las regulaciones también deben ser flexibles y adaptarse a los cambios. Se necesita un enfoque dinámico que fomente la innovación continua y a la vez proteja los intereses y derechos de los ciudadanos.

El equilibrio entre la regulación y la innovación de la IA – Inteligencia Artificial es esencial

Las regulaciones deben promover la innovación ética y responsable, sin comprometer la protección de los derechos y la seguridad de los ciudadanos.

La UE y otras jurisdicciones están trabajando para abordar estos desafíos y establecer un marco normativo adecuado que beneficie a la sociedad en su conjunto.

IA 2023
IA 2023

La carta abierta de la Red Abierta de Inteligencia Artificial a Gran Escala (LAION eV) destaca la importancia de una regulación equilibrada de la IA – Inteligencia Artificial en la Unión Europea (UE).

Los firmantes, que incluyen destacados investigadores en el campo de la IA, hacen hincapié en la necesidad de moderar la regulación de la IA – Inteligencia Artificial para permitir la investigación y el desarrollo, así como mantener la competitividad de Europa en este ámbito.

Uno de los puntos clave de la carta es la defensa de los modelos de IA – Inteligencia Artificial de código abierto.

LAION argumenta que los sistemas de código abierto ofrecen mayor transparencia y seguridad en el uso de la IA, al tiempo que evitan la concentración del control y el dominio de la tecnología por parte de unas pocas corporaciones.

Al fomentar la disponibilidad y el uso de IA – Inteligencia Artificial de código abierto, se promueve la diversidad y se evita una excesiva dependencia de actores privados.

Además, destacan que esta aproximación puede contribuir a la promoción de la soberanía digital de Europa.

Es importante considerar estos puntos en el contexto del debate sobre la regulación de la IA – Inteligencia Artificial.

La regulación adecuada debe tener en cuenta la promoción de la innovación, la transparencia y la protección de los derechos y la seguridad de los ciudadanos.

El enfoque en la IA – Inteligencia Artificial de código abierto puede ser una estrategia para fomentar una mayor diversidad, transparencia y participación en el desarrollo de la tecnología, evitando la consolidación de su control por parte de un reducido número de empresas.

En última instancia, encontrar el equilibrio adecuado en la regulación de la IA – Inteligencia Artificial es un desafío complejo.

Se requiere una cuidadosa consideración de múltiples factores, como la promoción de la innovación, la protección de los derechos y la seguridad, la transparencia y la diversidad de enfoques.

Las opiniones expresadas en la carta abierta de LAION ofrecen una perspectiva relevante en este debate, y es importante que los responsables políticos tomen en cuenta las preocupaciones y recomendaciones de expertos y actores involucrados en el campo de la IA – Inteligencia Artificial.

Los derechos del consumidor se ven debilitados por la escasa regulación.

La postura de la Federación de Organizaciones Alemanas de Consumidores (VZBV) destaca la importancia de proteger los derechos de los consumidores en el contexto de la IA – Inteligencia Artificial. Según la VZBV, en el futuro, las decisiones de los consumidores se verán cada vez más influenciadas por sistemas de recomendación basados en IA, lo que plantea riesgos relacionados con la manipulación y la falta de información precisa.

La VZBV aboga por una regulación sólida que garantice derechos de los consumidores y la posibilidad de una evaluación de riesgos independiente.

Destacan que los sistemas de IA – Inteligencia Artificial pueden generar recomendaciones, calificaciones e información falsas o manipuladoras, lo que puede afectar negativamente a los consumidores.

Por lo tanto, consideran necesario establecer mecanismos para proteger a los consumidores de la manipulación y el engaño, incluyendo sistemas de recomendación controlados por IA – Inteligencia Artificial.

Además, defienden que científicos independientes tengan acceso a estos sistemas para evaluar los riesgos y la funcionalidad.

La VZBV también enfatiza la importancia de otorgar a las personas derechos individuales exigibles, como el derecho de corrección y eliminación de información dañina para la reputación, especialmente en casos en los que sistemas como ChatGPT puedan causar desventajas.

Además, argumentan que la Ley de IA – Inteligencia Artificial debe garantizar que las aplicaciones de IA – Inteligencia Artificial cumplan con las leyes europeas y reflejen los valores europeos.

La protección de los derechos de los consumidores es una preocupación legítima en el contexto de la IA – Inteligencia Artificial.

La regulación de la IA – Inteligencia Artificial debe considerar la necesidad de proteger los derechos y la privacidad de las personas, fomentar la transparencia y la rendición de cuentas, promover la equidad y evitar sesgos, y garantizar la seguridad y la responsabilidad en el desarrollo y uso de la tecnología.

  1. Protección de los derechos y la privacidad: La regulación de la IA – Inteligencia Artificial debe incluir salvaguardias para proteger los derechos individuales, como la privacidad, la libertad de expresión y la no discriminación. Esto implica establecer límites claros sobre la recopilación, uso y almacenamiento de datos personales, así como la necesidad de obtener el consentimiento informado de las personas afectadas.
  2. Transparencia y rendición de cuentas: Las decisiones tomadas por sistemas de IA – Inteligencia Artificial pueden tener un impacto significativo en la vida de las personas. Por lo tanto, la regulación debe exigir que los sistemas de IA – Inteligencia Artificial sean transparentes en cuanto a cómo funcionan y cómo toman decisiones. Además, las organizaciones y los desarrolladores deben ser responsables de las acciones de sus sistemas de IA, y los mecanismos de rendición de cuentas deben estar en su lugar en caso de daños o consecuencias negativas.
  3. Equidad y ausencia de sesgos: La IA puede verse afectada por sesgos inherentes en los datos de entrenamiento o en los algoritmos utilizados. La regulación debe fomentar la equidad y garantizar que los sistemas de IA no discriminen ni refuercen desigualdades existentes. Esto puede requerir la auditoría y evaluación periódica de los sistemas de IA para identificar y abordar cualquier sesgo o discriminación involuntarios.
  4. Seguridad y responsabilidad: La regulación de la IA debe incluir medidas para garantizar la seguridad de los sistemas y mitigar los riesgos potenciales. Esto puede implicar el establecimiento de estándares de seguridad y pruebas rigurosas para los sistemas de IA antes de su implementación. Además, las organizaciones y los desarrolladores deben asumir la responsabilidad de los daños causados por sus sistemas de IA y estar sujetos a regulaciones y sanciones adecuadas en caso de incumplimiento.

En resumen, la regulación de la IA debe abordar la protección de los derechos individuales y la privacidad, fomentar la transparencia y la rendición de cuentas, promover la equidad y evitar sesgos, y garantizar la seguridad y la responsabilidad.

Estas consideraciones son fundamentales para asegurar que la IA se desarrolle y utilice de manera ética y beneficiosa para la sociedad.

La autoevaluación de los fabricantes no es adecuada para regular la IA de manera efectiva

Joachim Bühler, el Director General de la Asociación de Inspección Técnica (TÜV), destaca la importancia de establecer una base legal clara para regular el uso de la IA – Inteligencia Artificial.

Según Bühler, esta regulación debe proteger a las personas de las posibles consecuencias negativas de la tecnología, al tiempo que fomenta su uso en los negocios.

Bühler enfatiza la necesidad de garantizar la transparencia de los algoritmos utilizados en los sistemas de IA – Inteligencia Artificial.

Considera que es esencial que se cumplan las especificaciones, especialmente en aquellos sistemas con alto riesgo.

Sin embargo, señala que la revisión independiente debería aplicarse solo a una pequeña parte de los sistemas de IA – Inteligencia Artificial de alto riesgo.

En su opinión, aplicaciones críticas como el reconocimiento facial, el software de reclutamiento o las verificaciones de crédito, podrían lanzarse al mercado con una autodeclaración del fabricante.

Además, Bühler sugiere que la clasificación de las aplicaciones de alto riesgo debería basarse, al menos en parte, en una autoevaluación realizada por los proveedores. Reconoce que es inevitable cometer errores de juicio en este proceso.

En resumen, Bühler defiende una regulación clara que proteja a las personas de los efectos negativos de la IA, pero también permite el desarrollo y uso de aplicaciones de IA críticas, siempre y cuando cumplan con las especificaciones y se realicen autoevaluaciones por parte de los proveedores.

La IA debe servir al usuario, y no manipularlo

Las discusiones sobre la regulación de la inteligencia artificial (IA) están en curso y han generado interés a nivel internacional.

En una reunión en Takasaki, Japón, a fines de abril, los ministros digitales del G7 expresaron su apoyo a la necesidad de establecer reglas y estándares internacionales claros para acompañar el rápido desarrollo de la IA.

Esta posición fue comunicada a través de una declaración emitida por el Ministerio Federal de Asuntos Digitales y Transporte (BMDV) de Alemania.

El respaldo de los ministros digitales del G7 a la regulación de la IA es un indicativo de la creciente conciencia sobre la importancia de abordar los desafíos y riesgos asociados con esta tecnología.

Establecer reglas y estándares internacionales puede ayudar a garantizar un uso responsable y ético de la IA, así como promover la confianza y la cooperación entre los países en este ámbito.

Es importante destacar que estas declaraciones y discusiones son parte de un proceso continuo, y se espera que se realicen más esfuerzos para establecer regulaciones y estándares claros en el futuro.

La colaboración internacional y el intercambio de conocimientos y mejores prácticas son fundamentales para abordar los desafíos emergentes relacionados con la IA y asegurar su beneficio para la sociedad en general.

La declaración del Ministro de Transporte e Infraestructura Digital de Alemania, Volker Wissing, durante la reunión del G7 refleja la importancia de abordar rápidamente la regulación de la inteligencia artificial IA – Inteligencia Artificial.

Wissing reconoce el potencial inmenso de la Inteligencia Artificial generativa para aumentar la productividad y mejorar nuestras vidas, pero también enfatiza la necesidad de establecer reglas inteligentes que protejan a las personas del abuso y la manipulación.

Wissing hace hincapié en que las grandes democracias deben liderar el camino en el desarrollo de reglas y estándares para la IA – Inteligencia Artificial, con el objetivo de asegurarse de que la tecnología esté al servicio de las personas y no sea utilizada para manipular o perjudicar a los individuos.

Es crucial encontrar un equilibrio entre el fomento del avance de la IA – Inteligencia Artificial y la protección de los derechos y la privacidad de las personas.

La declaración de Wissing resalta la necesidad de una regulación efectiva y ética de la IA – Inteligencia Artificial, con el fin de aprovechar su potencial de manera responsable y segura.

Esto implica establecer políticas que fomenten la transparencia, la responsabilidad y la rendición de cuentas en el desarrollo y uso de la IA – Inteligencia Artificial, al mismo tiempo que se protegen los derechos individuales y se previenen posibles abusos.

La postura expresada por Wissing refuerza la importancia de abordar de manera urgente los desafíos y las implicaciones éticas y sociales de la IA – Inteligencia Artificial, y destaca el papel fundamental que desempeñan las democracias en la configuración de un entorno regulatorio adecuado para esta tecnología en constante evolución.

El proceso de regulación de la inteligencia artificial puede llevar tiempo y que las fechas para la implementación de un conjunto final de reglas y su conversión en ley aplicable pueden ser difíciles de predecir.

La Ley de IA – Inteligencia Artificial propuesta en Bruselas, que ha estado en proceso desde abril de 2021, requiere negociaciones tripartitas entre el Consejo, el Parlamento y la Comisión de la UE.

Estas negociaciones pueden llevar tiempo y retrasar la implementación de la legislación.

Además, es importante tener en cuenta que el desarrollo tecnológico de la IA – Inteligencia Artificial avanza rápidamente y puede superar los esfuerzos de regulación existentes.

La IA – Inteligencia Artificial es un campo en constante evolución, y los avances tecnológicos pueden surgir antes de que se implementen las regulaciones.

Esto plantea desafíos en términos de mantener el ritmo de la innovación tecnológica y asegurarse de que la regulación sea relevante y efectiva en un entorno en constante cambio.

Sin embargo, aunque el proceso de regulación puede llevar tiempo y existen desafíos en mantener el ritmo de desarrollo tecnológico, es importante que los esfuerzos de regulación no se detengan.

La IA – Inteligencia Artificial plantea importantes implicaciones éticas, sociales y de seguridad, y la regulación adecuada es necesaria para abordar estos desafíos y garantizar un uso responsable y ético de la tecnología.

Aunque no se puede predecir con certeza cuándo se implementarán las regulaciones finales de la Inteligencia Artificial, es importante que los esfuerzos continúen y que se establezca un diálogo constructivo entre los responsables.

 

Por Marcelo Lozano – General Publisher IT CONNECT LATAM

 

Lea más sobre Análisis de Datos e IA en;

 

SAP 2023: integrará el motor de inteligencia artificial Watson de IBM
IBM Watsonx: la supernova del siglo 21 en IA
¡IA en Google I/O 2023: Increíble!
Thomson Reuters: Empoderando el siglo 21 con la revolucionaria Inteligencia Artificial Generativa
Inteligencia Artificial 2023: ¿cuál será la próxima supernova del mercado?
Scroll al inicio