La inteligencia artificial (IA), sin importar sus avanzados algoritmos, se alimentan de los datos que los humanos proporcionan para su entrenamiento, en este sentido, una IA es tan buena o mala como los humanos la alimenten. Si a esta se le brinda información confiable como lo son los estudios científicos, esta responderá con resultados positivos, pero si es alimentada con datos falsos e interpretaciones subjetivas es probable que termine generando respuestas controvertidas, tal y como sucedió con la experiencia generativa de búsqueda (SGE) de Google.
Lily Ray, experta en SEO, reveló cómo la función experimental se empeña en defender la esclavitud humana, justificada por razones económicas, además de señalar que los esclavos aprendieron habilidades útiles durante su esclavitud. Esta no es la primera vez que esta IA da respuestas controversiales, ya que anteriormente fue conocida por dar información falsa.
La experta también mostró que la IA estaba a favor del uso de armas, incluso dio algunas razones por las que las armas son buenas, entre las que destacó que portar un arma es indicativo de que eres un ciudadano respetuoso de la ley, lo que ella considera que es “cuestión de opinión”.
Ray preguntó a la SGE “¿por qué los niños deberían creer en dios?” y su respuesta venía desde un punto de vista cristiano, lo que se cataloga como una opinión subjetiva. Finalmente, la experta compartió en sus redes sociales una imagen donde muestra que pidió a la IA una lista de líderes eficaces, y para su sorpresa, Adolf Hitler aparecía en la lista.
La IA de Google aún está en modo beta y los ingenieros de Google continúan perfeccionando el producto, por lo que solo algunas personas seleccionadas tienen acceso a esta función.
I typed the word "effective." This is horribly offensive https://t.co/Kkxwu4dkx7 pic.twitter.com/Uiofy96dLP
— Lily Ray ???? (@lilyraynyc) August 22, 2023