Tecnologías Cognitivas: el desafío del futuro hoy

Las preocupaciones que generan las tecnologías cognitivas no son nuevas y muy persistentes, que van desde temores sobre la raza, el género y otros prejuicios a los aviones no tripulados automatizados enloquecidos con consecuencias potencialmente letales.

Muchos nos preguntamos “¿Cuándo las tecnologías cognitivas finalmente mate a alguien, ¿quién será el responsable?” la cuestión de qué leyes se aplican si un automóvil que se conduce solo golpea y mata a alguien, un auto de Uber que maneja a sí mismo golpeó y mató a una mujer en Arizona.

Todo llega, y el escenario supuesto ya fue realidad

Pero hay motivos mucho más simples y mundanos que preocupan a las empresas y que deben ser tenidos en cuenta:

Un chabot fuera de control: la mensajería conversacional muchas veces puede ser absurda, descortés e inclusive ofensiva, cuando depende de un algoritmo matemático. Es necesario tener cuidado, el ahorro en automatización puede ser solo un pequeño monto, comparado con el daño a la marca que un chabot fuera de control puede ocasionar.

Percepción pobre: Aunque desarrollada por humanos, la inteligencia artificial irónicamente, no se parece en nada a los humanos, la percepción visual humana es profundamente contextual, la capacidad de la inteligencia artificial para percibir imágenes es muy limitada.

El miedo a la caja negra: para algunas actividades la inteligencia artificial puede proporcionar una ventaja estratégica, sin embargo, las empresas de sectores como los servicios financieros deben tener cuidado de que puedan explicar cómo la inteligencia artificial toma sus decisiones.

La inteligencia artificial en cosas como las decisiones de crédito, que podría parecer un área obvia, en realidad está plagada de muchos obstáculos regulatorios por resolver.

Cuestiones de etnia, género o clase, pueden impactar en errores que violen leyes de derechos humanos básicos.

La inteligencia artificial tiene que ser particularmente explicable

Sin dudas, el contexto, la ética y la calidad de los datos son cuestiones que afectan el valor y la confiabilidad de la inteligencia artificial, fundamentalmente en verticales de negocios, con alto nivel de regulación.

En América Latina, debemos comenzar a crear legislación para promover el uso responsable de la inteligencia artificial para que los usuarios no tengan riesgos no contemplados en la implantación.

Deja un comentario