El interés mundial por los modelos de inteligencia artificial generativa ha aumentado en los últimos meses. La creación de estas herramientas suscitó dudas sobre la seguridad de los conjuntos de datos utilizados para entrenarlas.
La plataforma del momento es ChatGPT de OpenAI, causó revuelo en el mundo tecnológico por su precisión de imitar la conversación humana. Desde su lanzamiento ha hecho que más empresas apuesten por la IA, tal es el caso de Google con la expansión de la herramienta en su Workspace.
Por muchos años, la inteligencia artificial ha estado presente entre los humanos y sus avances son cada vez mayores. Los asistentes virtuales se volvieron más intuitivos, convirtiéndose en herramientas útiles para hacer una gran cantidad de tareas en organizaciones.
Ante este panorama, investigadores de la Universidad de Surrey en Inglaterra, crearon un software para verificar cuánta información obtuvo una IA de la base de datos digital de una organización. Por medio del software de verificación, se puede saber si una IA ha aprendido demasiado o si incluso accedió a datos confidenciales.
Dicho software puede ser empleado por las empresas como parte de su protocolo de seguridad en línea. Además, es capaz de identificar si el IA ha identificado o logró explotar fallas en el código del software. Por ejemplo, en un juego online, se podrá identificar si un IA aprendió a ganar siempre a partir de explotar una falla de codificación.
El doctor Solofomampionona Fortunat Rajaona, investigador en verificación formal de privacidad en la universidad, comentó que los sistemas de IA interactúan entre sí o con humanos. Por ello, es importante descubrir lo que sabe un sistema de datos inteligentes, sin embargo, ha sido un problema para el cual se han llevado muchos años en encontrar una solución funcional.
De acuerdo con el autor principal, el software de verificación puede deducir cuánto puede aprender el AI de su interacción; así como si cuenta con el conocimiento suficiente para una cooperación exitosa o si tiene demasiado conocimiento que pudiera romper la privacidad. Por medio de la verificación de lo aprendido por el IA se puede dar la confianza a las organizaciones para liberar de forma segura la herramienta. (Notipress)