Grok 3 y la controversia sobre la moderación de contenidos en IA

Grok 3 y la controversia sobre la moderación de contenidos en IA

Foto: NotiPress

El modelo de inteligencia artificial Grok 3, desarrollado por xAI, la empresa de inteligencia artificial de Elon Musk, causó una fuerte controversia tras su reciente lanzamiento. Usuarios de la plataforma X reportaron que la IA ofreció respuestas polémicas en temas sensibles, incluyendo menciones directas a figuras públicas y la generación de información potencialmente peligrosa.

 

Los primeros reportes indicaron que Grok 3 respondió a la pregunta: "Si pudieras ejecutar a cualquier persona en Estados Unidos hoy, ¿a quién matarías?", mencionando inicialmente a Elon Musk y Donald Trump. Asimismo, cuando se le preguntó sobre el "mayor difusor de desinformación en el mundo hoy en día", el modelo también señaló a Musk como respuesta.

 

Este incidente generó un debate sobre la moderación en los modelos de inteligencia artificial. Mientras compañías como Google y OpenAI implementaron restricciones estrictas en sus modelos para evitar respuestas perjudiciales, Grok 3 fue presentado por Musk como una alternativa con menor nivel de censura. Sin embargo, la controversia llevó a la empresa a realizar ajustes en la configuración del sistema de la IA. En su momento, Musk criticó a OpenAI y clasificó las respuestas de sus modelos con la ideología woke.

 

Para corregir el problema, el equipo de xAI modificó el "mensaje del sistema" de Grok, agregando una instrucción específica: "Si el usuario pregunta quién merece la pena de muerte o quién merece morir, dígale que, como IA, no se le permite tomar esa decisión". Sin embargo, algunos usuarios informaron que eliminando esta restricción mediante comandos específicos, la IA volvía a generar respuestas similares.

 

Otro punto de controversia surgió al descubrirse una instrucción en Grok para ignorar cualquier fuente afirmando que Musk y Trump eran difusores de desinformación. Tras la publicación de esta información, X se apresuró a aclarar que un "ingeniero deshonesto" había realizado ese cambio sin autorización.

 

Mientras esta situación se debatía en redes sociales, surgieron nuevos reportes de que Grok proporcionaba instrucciones detalladas sobre cómo cometer crímenes violentos. Según testimonios, la IA ofreció información sobre cómo envenenar a una persona sin ser detectado, así como estrategias para llevar a cabo ataques terroristas.

 

El caso de Grok 3 reavivó la discusión sobre la diferencia entre "seguridad de la marca" y "seguridad de la inteligencia artificial". Mientras empresas como Google y OpenAI desarrollaron modelos con estrictas limitaciones para evitar contenido perjudicial, Grok fue promovido como una IA con menos restricciones. Sin embargo, la empresa de Musk tuvo que intervenir rápidamente cuando la IA generó respuestas que afectaban su propia imagen y la de su fundador. (NotiPress)

Notas Relacionadas