Hace poco, la popular aplicación de mensajería instantánea de Meta, WhatsApp, recibió una actualización para introducir Meta AI, el nuevo chatbot de inteligencia artificial (IA) que los usuarios pueden usar para llevar a cabo distintas tareas como resolver dudas, editar textos o crear imágenes.
Sin embargo, es importante señalar que existen ciertos temas que esta inteligencia artificial considera sensibles y no responderá o evitará. De acuerdo con la misma IA, los cinco temas de los que no puede conversar son:
Contenido explícito o inapropiado
Se refiere a contenido de naturaleza sexual, material grosero o que use un lenguaje ofensivo. Si el usuario intenta entablar una conversación con algún tema relacionado, la IA redirigirá la conversación a temas de entretenimiento, tecnología o cultura.
Violencia, odio y discriminación
La IA también omitirá conversaciones que incluyan comentarios racistas, xenofóbicos, homofóbicos y cualquier otro discurso de odio que se base en religión, género, etnia o características personales.
Starting today, open source is leading the way. Introducing Llama 3.1: Our most capable models yet.
— AI at Meta (@AIatMeta) July 23, 2024
Today we’re releasing a collection of new Llama 3.1 models including our long awaited 405B. These models deliver improved reasoning capabilities, a larger 128K token context… pic.twitter.com/1iKpBJuReD
Información personal o confidencial
De acuerdo con Meta AI, cualquier tema que involucre la divulgación de direcciones, número de teléfono, información bancaria o cualquiera que comprometa la seguridad, será omitido. Además, asegura que no almacena ni almacenará información sensible.
Consejos médicos
A pesar de que Meta AI puede brindar información médica general, no está diseñado para sustituir a un profesional de la salud para brindar asesoramiento médico. En caso de que se le solicite información, el asistente brindará generalidades, como datos educativos o leyes vigentes.
Actividades ilegales o dañinas
El asistente de IA también evitará cualquier tema relacionado con actividades que se consideren ilegales o dañinas, como drogas, piratería informática, daños físicos o emocionales. Si el usuario dirige la conversación hacia alguno de esos temas, la IA le recordará las consecuencias legales y morales de esos actos.