Facebook volvió a estar en el ojo del huracán luego de que su algoritmo de recomendación de temas asociara erróneamente un video de hombres afroamericanos con simios y propusiera a los usuarios "seguir viendo videos sobre primates".
En particular, se trata del video del Daily Mail que data de junio de 2020 y muestra una pelea entre un grupo de hombres negros, un hombre blanco y la Policía. La recomendación discriminatoria generó una oleada de críticas en las redes.
El portavoz de Facebook, Dany Lever, pidió disculpas públicas y lo calificó de "un error claramente inaceptable".
"Pedimos disculpas a cualquier persona que pueda haber visto estas recomendaciones ofensivas", declaró.
Agregó que la red social había deshabilitado la herramienta de recomendaciones para investigar el problema y "evitar que esto vuelva a suceder".
Cabe recordar que esta no es la primera vez que la inteligencia artificial comete un error similar. Así, en 2015, un algoritmo de la app de almacenamiento de imágenes Google Photos etiquetó a una pareja negra como "gorilas". Y en 2016, la bot de charla de Microsoft, llamada Tay, se volvió nazi y declaró en su Twitter que "Hitler no hizo nada malo" y que "odia a los judíos". La empresa de Bill Gates se vio obligada a borrar los mensajes ofensivos, pedir disculpas y desactivar a la bot.