Algoritmos que saben más de ti, que tu mismo

3629

Un video que mostraba cómo sacaban a la fuerza a un pasajero de un avión de United Airways en el aeropuerto O’Hare de Chicago, Estados Unidos, se convirtió en un fenómeno viral el pasado mes de abril.

El video fue pésima publicidad para la aerolínea estadounidense, cuyos empleados querían que el hombre en cuestión, un médico de nombre David Dao, desocupara su silla para dársela a un piloto de la compañía que necesitaba llegar a la ciudad de destino del vuelo, Louisville, para hacer un relevo.

Sin embargo, apenas un puñado de las muchísimas críticas que le llovieron a la empresa abordaba un asunto crucial: ¿cómo se había determinado que fuera Dao quien cediera su lugar en el vuelo?

La necesidad de remover a Dao fue decidida por una máquina. Más específicamente, por un software que probablemente ya había marcado al doctor mucho antes de que éste pusiera un pie en el aeropuerto.

Este es sólo un ejemplo de cómo esos algoritmos están -de manera invisible y detrás de escena- tomando decisiones que afectan nuestras vidas.

Y no hablamos de los algoritmos de Google, Facebook o Netflix, que nos filtran lo que vemos o nos ofrecen sugerencias a partir de nuestras selecciones previas: a diferencia de estos, hay algoritmos que no están directamente relacionados con nuestras acciones.

En la BBC hemos reunido algunos ejemplos de cómo tu vida está ya afectada por ellos.

1.-La inteligencia artificial decide si vas a tener un trabajo o no Las hojas de vida o currículums ahora son más propensos a ser descartados sin siquiera pasar por las manos y la vista de un ser humano.

Eso es porque cada día las compañías de selección de personal están adoptando programas de Sistemas de Seguimiento a Candidatos que manejan los procesos de reclutamiento, especialmente el análisis de cientos (o miles) de solicitudes iniciales.

En EE.UU. se estima que el 70% de las solicitudes de empleo son filtradas antes de ser analizadas por humanos.  Para las compañías, esto permite ahorrar tiempo y dinero en el proceso de contratación de nuevos empleados.  Sin embargo, este sistema ha generado cuestionamientos sobre la neutralidad de los algoritmos.

En un artículo de la Harvard Business Review, los académicos Gideon Mann y Cathy O’Neil argumentan que estos programas no están desprovistos de los prejuicios y sesgos propios de los humanos, lo que podría hacer que la inteligencia artificial no sea realmente objetiva.

  1. ¿Quieres un préstamo? Tu perfil en las redes sociales puede impedírtelo…

Históricamente, cuando alguien solicitaba un préstamo a una entidad financiera, la respuesta estaba basada en el directo análisis de su capacidad de pago: la proporción de la deuda sobre el ingreso de la persona y el historial crediticio.

Pero ya no es así: la capacidad de pagar un crédito ahora es evaluada por algoritmos que acumulan datos de distintas fuentes, que van desde patrones de compra hasta búsquedas en internet y actividad en redes sociales.

El problema es que ese método no tradicional podría recoger información sin el conocimiento o el visto bueno de los posibles beneficiarios del crédito.  También aquí hay cuestionamientos sobre la transparencia e imparcialidad del proceso.

Lee artículo completo en el siguiente enlace;

Fernando Duarte  BBC 3 febrero 2018