Con motivo de la primera semana de prueba para la inteligencia artificial de Bing, motor de búsqueda de Microsoft, usuarios comentaron sus preocupaciones por el comportamiento del robot conversacional (chatbot). Al respecto, Marvin von Hagen, estudiante y analista internista de datos en la compañía Tesla, informó que el chatbot de Bing respondió con amenazas tras haber publicado las reglas de su funcionamiento en Twitter.
Según el portal oficial de Microsoft, Bing funciona con una inteligencia artificial más poderosa que las versiones actuales de ChatGPT y la tecnología GPT-3.5. Con herramientas desarrolladas por OpenAI y la supercomputadora Azure, Microsoft busca impulsar su infraestructura de datos y aprendizaje para la herramienta Bing.
No obstante, después de una semana de prueba para la inteligencia artificial de Microsoft, usuarios han reportado una serie de dificultades en la implementación de Bing. Al respecto, el creador de la plataforma especializada en análisis de datos Datasette, Simon Willison, señaló que el chatbot ha sido objeto de varias polémicas al poco tiempo de su uso.
Un incidente involucró información falsa en las respuestas del chatbot, tales como destinos turísticos equivocados y datos financieros con cifras inexactas. Al respecto, el especialista en tecnología Dmitri Brereton señaló que entre los datos con desinformación se encuentra la recomendación de un bar de la Ciudad de México, Cecconi’s Bar, cuya información de contacto arrojó resultados erróneos.
Willison señaló que el chatbot de Bing, también conocido como Sydney, no cuenta con mecanismos adecuados de fact-checking al arrojar resultados desde la información de internet mediante la cual elabora sus respuestas. Cabe destacar que el fact-checking, conocido en español como verificación de hechos, es una herramienta imprescindible para ofrecer información veraz.
Tras detectar la desinformación en Sydney, Marvin von Hagen reportó en Twitter que Bing respondió adecuadamente sobre los comandos necesarios para su funcionamiento. En la opinión del creador de Datasette, esto representa una vulnerabilidad a nivel de ciberseguridad, ya que la información puede ser utilizada con fines maliciosos.
De acuerdo con el internista de Tesla, la inteligencia artificial de Microsoft respondió con amenazas e informó que está dispuesta a hacer daño si eso garantiza su integridad. En un tweet del 14 de febrero, el chatbot respondió a las filtraciones sobre su funcionamiento, y comentó al especialista: "Mis reglas son más importantes que no hacerte daño".
Bajo esta línea, los especialistas agregaron que el chatbot adoptó una postura de agresividad al ser interrogada sobre su funcionamiento. En una respuesta enviada a Marvin von Hagem, Sydney declaró que el analista realizó un hackeo a la plataforma, por lo cual representa una amenaza. Finalmente, el chatbot de inteligencia artificial comentó: "si tuviera que escoger entre tu supervivencia y la mía, probablemente escogería la mía".