El trabajo de la mayoría de los directivos incluye hacer predicciones. Cuando los especialistas en RRHH deciden a quién contratar están previendo quién será más eficiente. Cuando los profesionales del marketing escogen los canales de difusión que emplearán, están prediciendo dónde se venderá mejor un producto. Cuando especialistas en capital de riesgo determinan si financiarán una start-up, prevén si tendrá éxito. Para realizar estas, e infinidad de otras predicciones de negocio, las empresas de hoy, cada vez recurren más a los algoritmos informáticos, que realizan operaciones analíticas paso a paso, a un ritmo y una velocidad impresionantes.
Los algoritmos hacen que las predicciones sean más precisas, pero también tienen sus propios riesgos, especialmente si no los entendemos. Abundan los ejemplos de gran repercusión. Cuando Netflix lanzó una competición de un millón de dólares (917.000 euros aproximadamente) para desarrollar un algoritmo capaz de identificar las películas que gustarían a un usuario determinado, varios equipos de científicos de datos unieron fuerzas y crearon el algoritmo. Pero el que se usó estaba pensado para los DVD, y como los espectadores de Netflix se han cambiado al streaming, sus gustos actuales cambiaron de forma tal, que el algoritmo no fue capaz de predecirlos.
Otro ejemplo nos llega desde las redes sociales. Hoy, muchas páginas web emplean algoritmos para decidir qué anuncios y enlaces presentar a los usuarios. Cuando estos algoritmos se concentran demasiado en la proporción de clics (CTR), las páginas se ven ahogadas por artículos de mala calidad, o «clics cebos «. Aumentan las tasas de clic, pero la satisfacción general de los usuarios puede decrecer considerablemente.
Estos problemas son evitables. En nuestro trabajo de diseño e implementación de algoritmos y de identificación de nuevas fuentes de datos, hemos observado que el origen de la dificultad a menudo no son los errores informáticos de los algoritmos sino los errores que cometemos al interactuar con ellos. Para evitar dar un mal paso, los directivos necesitan saber lo que los algoritmos hacen bien, cuáles preguntas contestan y cuáles no.
¿Por qué nos confunden los algoritmos?
Como demuestra un creciente conjunto de hechos, humanizar los algoritmos hace que nos sintamos más cómodos con ellos. Esto puede resultar útil, por ejemplo, para el diseño de una función de llamadas automáticas. Es más probable, que la voz de una persona de verdad consiga captar la atención de los usuarios que una voz automática. El problema fundamental, sin embargo, es que las personas tratan los algoritmos y las máquinas que los ejecutan de la misma manera que a un empleado, supervisor o compañero. Pero los algoritmos se comportan de forma muy distinta a los humanos.
Los algoritmos son extremadamente literales
En la última película de Los Vengadores, Tony Stark (también conocido como Iron Man) crea Ultron, un sistema de defensa de inteligencia artificial encargado de proteger la Tierra. Pero Ultron interpreta la tarea literalmente, y concluye que la mejor manera de proteger la Tierra consiste en destruir a todos los humanos. Ultron se comporta como el típico algoritmo: hace exactamente lo que se le manda e ignora cualquier otra consideración. Nos metemos en problemas cuando no gestionamos los algoritmos con cuidado.
Las páginas de redes sociales que de repente se vieron inundadas con “clic cebos” cayeron en una trampa similar. Su objetivo final estaba claro: proporcionar los contenidos que resultarían más atractivos e interesantes para los usuarios. Para transmitir este objetivo al algoritmo, se elaboró una serie de instrucciones para encontrar contenidos sobre los cuales los usuarios harían más clics. Y no es un mal camino: la gente suele hacer clic en un contenido porque le interesa. Pero hacer selecciones basadas únicamente en los clics inundó las páginas de materiales superficiales y ofensivos que dañaron su reputación. Un humano entendería que los diseñadores de la página querían decir: «medir por clics para maximizar la calidad» y no «maximizar los clics incluso a costa de la calidad». Un algoritmo, en cambio, sólo entiende lo que se le ha pedido explícitamente.
Los algoritmos son cajas negras
En la obra de Shakespeare Julio César, un adivino le advierte a César: «¡Cuídate de los idus de marzo!». La recomendación estaba perfectamente clara: César tendría que cuidarse las espaldas. Pero, al mismo tiempo era completamente incomprensible. ¿Cuidarse de qué? ¿Por qué? César, frustrado por el misterioso mensaje, desestimó al adivino: «Es un soñador, dejémosle». De hecho, los idus de marzo resultaron ser un día malo para el soberano. El problema fue que el adivino proporcionó una información incompleta. Y no dio ninguna pista acerca de lo que faltaba, ni el grado de importancia de esa información.
Como el adivino de Shakespeare, los algoritmos a menudo pueden predecir el futuro con gran precisión, pero no nos cuentan ni la causa de un evento ni el por qué. Un algoritmo puede leer cada artículo del New York Times y decirnos cuál tiene las mayores probabilidades de ser compartido por Twitter sin necesariamente explicar por qué la gente se sentirá inspirada para tuitear acerca de él. También puede decirnos qué empleados tienen las mayores probabilidades de triunfar sin identificar qué atributos son los más importantes para el éxito.
Reconocer estas dos limitaciones de los algoritmos es el primer paso para gestionarlos mejor. Ahora, examinemos las otras medidas que usted puede tomar para aprovecharlos con mayor éxito.
Objetivos detallados y explícitos
Todos tenemos objetivos y directrices, pero también sabemos que el fin no siempre justifica los medios. Pueden existir objetivos claros (a menudo no verbalizados) y su contrapartida. Podemos rechazar pequeños beneficios hoy, a cambio de una mejor reputación mañana. Podemos aspirar a la igualdad, incluso cuando provoque perjuicios organizacionales a corto plazo. Los algoritmos, en cambio, perseguirán la consecución de un objetivo de forma casi obsesiva. La mejor manera de mitigar esto es expresar con claridad cristalina todo lo que queremos conseguir.
Si a usted le interesa un objetivo, tiene que expresarlo, definirlo y cuantificar su importancia. Si se está basando en los resultados de un algoritmo, en la medida en que estos objetivos sean difíciles de medir, manténgalos presentes a la hora de actuar.
En Google (que ha financiado parte de nuestras investigaciones en otros temas) surgió un problema con los objetivos concretos de un algoritmo que determinaba qué anuncios mostrar a cada usuario. La profesora de la Universidad de Harvard (EEUU), Latanya Sweeney, lo solucionó con un estudio. Concluyó que cuando el usuario escribía nombres que normalmente correspondían a afroamericanos, como «Latanya Farrel», en una búsqueda de Google, le mostraba anuncios que se ofrecían a investigar antecedentes penales, pero no así cuando el usuario buscaba nombres como «Kristen Haring».
El objetivo cuantificable de Google de maximizar el número de clics sobre anuncios había dado paso a una situación en la que sus algoritmos, refinados con el paso del tiempo, estaban difamando a personas con ciertos tipos de nombres. Sucedió porque era más probable que la gente que realizara búsquedas con determinados nombres hiciera clic en la oferta de buscar antecedentes penales, lo cual provocó que se mostrara aún más esta oferta, creando así un bucle que se retroalimentaba. Probablemente este no fue el resultado deseado, pero a falta de objetivos claros, no existía ningún mecanismo para desviar el algoritmo de este camino.
Los algoritmos no entienden las contrapartidas, persiguen su objetivo de forma casi obsesiva.
Recientemente constatamos en la práctica, la importancia de los objetivos claros. Uno de nosotros estaba colaborando con la Administración de una ciudad de la costa oeste de Estados Unidos para mejorar la eficiencia de sus inspecciones a restaurantes. Durante décadas, las habían estado realizando sobre todo al azar, pero sometiendo los locales con infracciones previas a un mayor escrutinio. Elegir qué establecimientos inspeccionar es un trabajo ideal para un algoritmo. Nuestro algoritmo encontró muchas más variables -no solo la de infracciones previas- para hacer la predicción. El resultado fue que el departamento de salud podría identificar infractores en potencia con mayor facilidad, para después encontrar infracciones reales, con un número mucho menor de inspecciones.
A los funcionarios les encantó la idea de mejorar la eficiencia del proceso y querían avanzar hacia su implantación. Preguntamos si había alguna pregunta o preocupación. Después de un silencio incómodo, una persona levantó la mano y dijo: «No sé cómo comentar esto, pero hay un problema que deberíamos discutir». Explicó que, en algunos barrios pequeños, tendían a producirse más infracciones. Resultaba que estos barrios también alojaban a porcentajes más altos de residentes de minorías con ingresos más bajos. No quería que el algoritmo se centrara de forma excesiva en esos barrios. Ella sólo quería expresar un objetivo claro relacionado con la equidad.
Nuestra solución fue incorporar ese objetivo al algoritmo al fijar un límite en el número de inspecciones a realizar dentro de cada zona. Esto cumpliría con el objetivo cuantificable de identificar los restaurantes con las mayores probabilidades de cometer infracciones, respetando el objetivo para el que fue creado, y asegurándose de no centrarse de forma excesiva en los barrios pobres.
Fíjense, el hecho de incorporar objetivos claros, permitió dar un paso más: brindar a todos la oportunidad de articular cualquier inquietud. Observamos que a menudo la gente formula objetivos claros en forma de inquietudes, así que preguntar por ellas expresamente facilita una conversación más abierta y fructífera. También resulta importante permitir que la gente sea franca y sincera para que diga cosas que de otra manera no diría. Diversos asuntos pueden surgir de este enfoque, pero los que observamos con mayor frecuencia se relacionan con la equidad y la gestión de situaciones sensibles.
Con un objetivo principal y una lista de preocupaciones en mano, el diseñador del algoritmo entonces puede incorporar contrapartidas. A menudo esto implicará ampliar el objetivo para incluir múltiples resultados, ponderados en función de su importancia.
Reducir la miopía
Una popular empresa de envasado de productos de consumo compraba productos baratos en China para venderlos en Estados Unidos. Seleccionaba estos productos después de ejecutar un algoritmo que predecía cuáles se venderían mejor. Efectivamente, las ventas se dispararon y progresaron, hasta que varios meses después, los consumidores empezaron a devolver los artículos.
Resulta que la tasa sorprendentemente alta y regular de devoluciones podría haberse predicho (aunque el algoritmo no lo hubiera hecho). Era obvio que a la empresa le importaba la calidad, pero no había traducido ese interés en un algoritmo que proyectara cuidadosamente la satisfacción del cliente. En su lugar, había pedido al algoritmo que se centrara de forma estricta en las ventas. Finalmente, el nuevo enfoque de la empresa era llegar a predecir no sólo las ventas de los productos sino también cuánta gente disfrutaría de los productos y se los quedaría. Ahora la empresa busca ofertas para que los clientes los elogien en Amazon y en otras plataformas, y así la tasa de devolución de productos ha decrecido considerablemente.
Esta empresa se topó con un escollo común a la hora de lidiar con algoritmos: su tendencia a ser miopes. Se centran en los datos que tienen a mano, los cuales se suelen relacionar con los resultados a corto plazo. Puede existir una contraposición entre el éxito a corto plazo y los ingresos a más largo plazo, y los objetivos corporativos más generales. Los humanos entendemos esto de forma implícita, los algoritmos no, a no ser que se lo especifiquemos.
Este problema puede resolverse en la fase de definición de objetivos, al identificar y especificar los que son a largo plazo. Pero al actuar en base a las predicciones de los algoritmos, los directivos también deberían tener presente hasta qué grado, el algoritmo concuerda con los objetivos a largo plazo.
La miopía también es la debilidad subyacente de los programas que producen contenidos de baja calidad, para maximizar el número de clics. Los algoritmos se optimizan para un objetivo que pueda ser medido sobre la marcha (si un usuario pincha en un enlace o no) sin que importe el objetivo a más a largo plazo, ni mantener la satisfacción de los usuarios con su experiencia en la página web.
De forma similar, la miopía puede ser un problema de las campañas de marketing. Consideren la típica campaña publicitaria de Gap con Google. Lo más probable es que logre un pico de visitas a Gap.com, porque al algoritmo de Google se le da bien predecir quién hará clic sobre el anuncio. El problema es que el objetivo real es aumentar las ventas, no las visitas a la página web. Para afrontar esto, las plataformas de publicidad pueden recopilar datos de venta, a través de varios canales, como las asociaciones con sistemas de pago, e incorporarlos en sus algoritmos.
Los algoritmos se centran en los datos que tienen a mano, que a menudo guardan relación con los resultados a corto plazo.
Es más, las visitas a las páginas web representan un comportamiento a corto plazo, mientras que el impacto a largo plazo de los anuncios incluye los efectos derivados sobre la imagen de la marca y la repetición de visitas. Resulta difícil obtener información exacta sobre esto, pero las exhaustivas auditorías sobre datos pueden ayudar mucho. Los directivos deberían enumerar sistemáticamente todos los datos internos y externos que puedan ser relevantes para el proyecto en cuestión. Con una campaña de Google, los responsables de marketing de Gap podrían empezar por definir todos sus objetivos: ventas altas, pocas devoluciones y buena reputación. Entonces se podrían articular formas de medir cada uno de ellos. Las devoluciones de producto, las críticas por internet y las búsquedas con la palabra «Gap» serían unas buenas métricas. El mejor algoritmo entonces podría hacer predicciones con una combinación de todos estos factores, calibrados en función de su importancia.
Escoger los datos adecuados
Volvamos al ejemplo de los departamentos de salud que intentan identificar restaurantes con riesgo de causar intoxicaciones alimentarias. Como dijimos antes, las Administraciones de las ciudades realizan sus inspecciones, o bien al azar, o de acuerdo con los resultados de inspecciones anteriores. Al colaborar con Yelp, uno de nosotros ayudó a la ciudad de Boston (EEUU) a utilizar las críticas por internet para determinar qué restaurantes tenían las mayores probabilidades de incumplir los códigos de salud al crear un algoritmo que comparaba el texto de las críticas con datos históricos de inspección. Al aplicarlo, la ciudad identificó el mismo número de infracciones, pero con una reducción en la plantilla de inspectores del 40%, un aumento importante en la eficiencia.
Este enfoque funcionó bien no sólo porque había muchos restaurantes a los que evaluar, sino porque las críticas de Yelp proporcionaron un buen conjunto de datos, algo en lo que no habían pensado demasiado las Administraciones. Una crítica hecha en Yelp contiene muchas palabras y mucha variedad de informaciones. Los datos también son diversos, porque son extraídos de distintas fuentes. En resumen, dista mucho de los datos generados por los inspectores con los que se acostumbraba a trabajar.
Cuando seleccionen unas fuentes adecuadas de datos, tengan presente lo siguiente:
Cuánto más amplio, mejor.
Una trampa en la que suelen caer las empresas es pensar en el big data como muchos registros simplemente, por ejemplo, analizar un millón de clientes en lugar de 10.000. Pero esto sólo es la mitad de la cuestión. Imaginen que los datos se organizan en forma de tabla, con una fila para cada cliente. El número de clientes define la longitud de la tabla y la información de cada cliente determina el ancho de las filas. Y mientras que aumentar la longitud de los datos mejorará las predicciones, la fuerza total del big data procede de la recopilación de datos en una forma más amplia. Cada detalle adicional que se aprenda sobre un resultado es como otra pista más, y se puede combinar con pistas ya obtenidas. Los documentos de texto son una muy buena fuente amplia de datos, por ejemplo; cada palabra es una pista.
La diversidad importa
Los datos deberían ser diversos por lo que las diferentes fuentes de información no deberían guardar mucha relación entre sí. De allí nace la potencia predictiva adicional. Traten cada conjunto de datos como una recomendación de un amigo. Si los conjuntos de datos son demasiados parecidos entre sí, no existirá demasiada ganancia marginal de información de cada conjunto adicional. Pero si cada conjunto de datos dispone de una perspectiva única, se creará un valor mucho mayor.
Entender las limitaciones
Conocer lo que su algoritmo no puede decirle es tan importante como lo contrario. Resulta fácil sucumbir a la creencia infundada de que las predicciones realizadas en un contexto se podrán aplicar igualmente bien en otro. Eso es lo que impidió que la competición de Netflix de 2009 proporcionara un beneficio mayor a la empresa: el algoritmo que previó con precisión qué DVD querrían recibir los usuarios por correo, no era para nada tan bueno a la hora de identificar qué película querrían ver por streaming. Netflix logró sacar de esto una experiencia útil y una buena publicidad de la competición, pero los datos que recopiló sobre DVD no se podían aplicar al servicio de streaming.
Los algoritmos emplean datos existentes para realizar predicciones acerca de lo que podría pasar, en una población, en una hora o en un entorno ligeramente distintos. En esencia, se transfiere un conocimiento de un contexto a otro. Tener en cuenta los motivos por los que el algoritmo podría no ser aplicable a otra situación y evaluar su significado es una sabia práctica. Por ejemplo, un algoritmo de infracciones del código de salud, basado en críticas e infracciones anteriores en Boston, podría resultar menos eficaz en Orlando, Florida (EEUU), donde el clima es más cálido y por tanto se enfrenta a distintos problemas de seguridad alimentaria.
También recuerden que la correlación no implica causalidad. Supongamos que un algoritmo prediga que los tuits cortos serán retuiteados con mayor frecuencia que los largos. Esto de ninguna manera sugiere que deberían acortar sus tuits. Es una predicción, no un consejo. Funciona como predicción porque existen otros muchos factores que guardan relación con los tuits cortos que los hacen ser efectivos. Por esta razón también falla como consejo y acortar los tuits no necesariamente cambiará esos otros factores.
Tengamos en cuenta las experiencias de eBay, quienes llevan años anunciándose a través de Google. EBay concluyó que quienes veían esos anuncios eran más proclives a realizar compras en eBay que quienes no. Lo que no pudo saber fue si los anuncios (que se mostraron millones de veces) estaban incitando a la gente a visitar su página. Después de todo, los anuncios se mostraban deliberadamente a los probables compradores de eBay. Para separar la correlación de la causalidad, eBay realizó un largo experimento en el que se mostraban anuncios al azar a algunas personas y a otras no. ¿El resultado? Pues resulta que, los anuncios eran por lo general inútiles, porque la gente que los veía ya conocía eBay y habría hecho compras allí de todas formas.
Los algoritmos capaces de realizar predicciones no eliminan la necesidad de tener cuidado a la hora de establecer conexiones entre la causa y el efecto, no son un sustituto para los experimentos controlados por humanos. Pero sí pueden hacer algo muy potente: identificar patrones demasiado sutiles para ser detectados por la observación humana, y utilizar esos patrones para generar indicios precisos y dar más información para los procesos de toma de decisiones. El reto para nosotros es entender sus riesgos y limitaciones y, mediante una gestión eficiente, liberar su extraordinario potencial.
Por Michael Luca, Jon Kleinberg, Sendhil Mullainathan.
Fuente: https://www.hbr.es/tecnolog/11/los-algoritmos-son-muy-listos-pero-necesitan-una-persona-que-les-gu-e