INADI: necesitamos regular al ética de los algoritmos

En el INADI junto a Jorge Cabezas de AGC
En el INADI junto a Jorge Cabezas de AGC

Ante la innumerable cantidad de mensajes de apoyo, por la visita que hice al INADI el viernes pasado, he decidido publicar copia de la presentación, para brindar la transparencia y preocupación que el tema requiere por parte de toda la sociedad.

Nuestra vida cotidiana está conformada por computadoras y nuestras computadoras tienen forma gracias al procesamiento que rigen diferentes algoritmos.

La computación digital cambia constantemente la forma en que nos comunicamos, trabajamos, nos movemos y aprendemos.

La digitalización produce cantidades crecientes de conjuntos de datos conocidos como ‘grandes datos’ (Big Data).

Hasta ahora, la investigación se centró en cómo se produce y almacena el big data.

Ahora, comenzamos a analizar cómo los algoritmos tienen sentido para este crecimiento la cantidad de datos.

Los algoritmos son los cerebros de nuestras computadoras, móviles y dispositivos que conforman lo que han dado en llamar Internet de las Cosas.

Los algoritmos se utilizan cada vez más para tomar decisiones sobre nosotros, sobre nosotros o con nosotros, a menudo sin que nos demos cuenta.

Esto plantea muchas preguntas sobre la dimensión ética de los algoritmos.

¿DEBE DECIDIR TU FUTURO ALGORITMO?

Sin la ayuda de algoritmos, muchas aplicaciones actuales serían inutilizables. Necesitamos que hagan frente a las enormes cantidades de datos que producir todos los días.

Los algoritmos hacen nuestras vidas más fáciles y más productivas y ciertamente no queremos perder esas ventajas.

Pero tenemos que ser conscientes de lo que hacen y cómo deciden.

¿PUEDEN DISCRIMINARNOS?

La respuesta es definitivamente SI, las computadoras a menudo se consideran máquinas objetivas y racionales.

Sin embargo, los algoritmos están hechos por humanos y pueden ser tan parciales como se los programe.

Necesitamos aportar claridad ante la suposición de que los algoritmos pueden tomar “mejores” decisiones que los seres humanos.

 Hay algoritmos racistas y sexistas. Algoritmos no son neutrales, sino que perpetúan los prejuicios de sus creadores.

Sus creadores, como empresas o gobiernos, pueden tener objetivos diferentes en mente que los usuarios tendrían.

DEBEN SER CONOCIDOS POR EL USUARIO

Dado que los algoritmos toman decisiones cada vez más importantes sobre nuestras vidas, los usuarios debemos estar informados sobre ellos.

El conocimiento sobre el automatizado de la toma de decisiones en los servicios cotidianos todavía es muy limitado frente a los derechos ciudadanos.

La sensibilización debe estar en el corazón del debate sobre la ética de algoritmos y como parte de un grupo de riesgo de discriminación (obeso) pido la inmediata intervención del INADI para crear un comité ético que integre legisladores, miembros de la industria, trabajadores de la industria representados por la Asociación Gremial de Computación y miembros del sector académico tecnológico y social, para debatir este tema.

TRANSPARENCIA | HACER LAS COSAS VISIBLES

Si se enfrenta a un algoritmo complejo y oscuro, la reacción lógica es una demanda de más transparencia sobre qué y cómo funciona.

La preocupación sobre los algoritmos de caja negra es que hacen inherentemente decisiones subjetivas, que pueden contener sesgos implícitos o explícitos.

En el al mismo tiempo, hacer que los algoritmos complejos sean completamente transparentes puede ser extremadamente desafiante:

  • No es suficiente simplemente publicar el código fuente de un algoritmo, porque los sistemas de aprendizaje automático inevitablemente tomarán decisiones para lo que no han sido programados directamente. La transparencia completa requiere que podamos explicar por qué un resultado en particular fue producido.
  • Algunas investigaciones tienen algoritmos de ingeniería inversa para crear una mayor conciencia pública sobre ellos. Esa es una forma de cómo público puede realizar una función de vigilancia.
  • A menudo, puede haber buenas razones por las cuales los algoritmos complejos operen opacamente, porque el acceso público los haría mucho más vulnerables a la manipulación.

EJEMPLOS QUE REQUIEREN UN MARCO ÉTICO

Policía predictiva basada en pronósticos estadísticos:

  • A principios de 2014, el Departamento de Policía de Chicago fue noticia nacional en los EE. UU. para visitar a los residentes que se consideraron más probables que estén involucrados en un crimen violento.

“Lista de calor”

La selección de individuos no fue producto necesariamente de una investigación, fue guiado por un algoritmo que generó “Lista de calor” – un algoritmo que buscaba predecir la participación futura en crimen violento.

  • Una preocupación clave acerca de la vigilancia predictiva es que dichos sistemas automatizados pueden crear una cámara de eco o una profecía autocumplida. De hecho, pesado la vigilancia de un área específica puede aumentar la probabilidad de que el crimen sea detectado.

Dado que más policía significa más oportunidades para observar actividades de los residentes, el algoritmo podría simplemente confirmar su propia predicción, pero esto implicaría relajar la protección en otros sectores en riesgo.

  • En este momento, los departamentos de policía de todo el mundo están probando e implementando algoritmos predictivos de vigilancia, pero carecen de salvaguardias discriminatorias.

Implicaciones éticas: las predicciones hechas por algoritmos no proporcionan ninguna garantía de que tienen razón.

Y los funcionarios que actúan según predicciones incorrectas pueden incluso crear investigaciones injustificadas o sesgadas.

EJEMPLOS NACIONALES

El pasado viernes 13 de abril, el Sr Gobernador de la Provincia de Salta, reconoció públicamente en el programa televisivo “Intratables” que se emite por el canal de TV América, que su provincia utilizaba un algoritmo de inteligencia artificial para determinar que jóvenes podrían ser madres adolescentes.

En base a dicho registro generado por una empresa privada, tal como lo reconoció el Señor Gobernador, Microsoft evalúa con “inteligencia interna ciudadana” los perfiles de nuestros habitantes para determinar a quien se le debe aplicar una esterilización virtual o educativa, con el estigma social vergonzante que dicha acción constituye.

Recientemente he recibido como periodista, un comunicado de prensa, en el cual una compañía de desarrollo de software promovía una aplicación de inteligencia artificial para calificar a las personas que solicitan un crédito bancario en cualquier entidad bancaria.

Caja Negra

Al tratarse de una “caja negra” todas las comunidades de riesgo estamos expuestas, ante la posibilidad de que (un gay, un obeso, un miembro de una comunidad originaria, una madre soltera, sea calificada por su condición de riesgo y no por su capacidad de pago).

El principio de igualdad ante la ley se ven amenazado por esta nueva tecnología emergente y solo el INADI puede cobrar un rol central como articulador nacional, para evitar que ningún argentino sea evaluado o manipulado por ningún algoritmo que responda a un interés personal o corporativo.

 

 

Por Marcelo Lozano – General Publisher IT CONNECT

Sígueme en Twitter