Vulnerabilidades encontradas en ChatGPT podrían permitir a piratas informáticos leer conversaciones

Un estudio reciente sugiere que los chatbots basados en inteligencia artificial (IA), incluido ChatGPT, podrían tener vulnerabilidades que permitirían a los piratas informáticos leer las conversaciones de los usuarios.

La investigación, realizada en la Universidad Ben-Gurion de Israel, identificó un tipo de vulnerabilidad denominada «canal lateral» en la mayoría de los chatbots populares basados en IA, excepto Google Gemini. Esta vulnerabilidad podría revelar el contenido completo de una conversación con una precisión alta, aunque no perfecta.

Según un correo electrónico enviado por Yisroel Mirsky, director del Laboratorio de Investigación de IA Ofensiva de la Universidad Ben-Gurion, a Arstecnica le informaba de esta vulnerabilidad:

En la actualidad, cualquier persona puede leer chats privados enviados desde ChatGPT y otros servicios. Esto incluye a usuarios maliciosos en la misma red Wi-Fi o LAN que un cliente (por ejemplo, en la misma cafetería), o incluso en internet, cualquiera que pueda observar el tráfico. El ataque es pasivo y puede ocurrir sin el conocimiento de OpenAI o su cliente. OpenAI cifra su tráfico para evitar este tipo de ataques de escuchas, pero nuestra investigación muestra que la forma en que OpenAI usa el cifrado tiene fallos y, por lo tanto, el contenido de los mensajes queda expuesto.

Los investigadores explican que aprovecharon la vulnerabilidad del canal lateral para adquirir tokens (datos que ayudan a los modelos de lenguaje grande a traducir las entradas de los usuarios) utilizando un ataque de canal lateral para recopilar información compartida inadvertidamente por le propio sistema y eludir asi los protocolos de protección integrados, incluido el cifrado para despues utilizarlo para interceptar la conversación con un 55% de precisión.

Los investigadores señalan que, dado que los chatbots tienen un estilo distintivo, pudieron entrenar LLM para descifrar las indicaciones de manera efectiva. Un LLM se entrenó para identificar la primera oración de la respuesta, mientras que el otro trabajó en oraciones internas basadas en el contexto.

En el correo electrónico a Ars Technica, lo explican de la siguiente manera:

Es como intentar resolver un rompecabezas en la Rueda de la Fortuna, pero en lugar de ser una frase corta, es un párrafo completo de frases y ninguno de los caracteres se ha revelado. Sin embargo, la inteligencia artificial (LLM) es muy buena para observar patrones a largo plazo y puede resolver estos rompecabezas con una precisión notable dados suficientes ejemplos de otros juegos.

Si bien la vulnerabilidad del canal lateral no estaba presente en el chatbot de Google, los investigadores han logrado vulnerar a Gemini AI y Cloud Console anteriormente.

Asi que ten mucha precaución de no compartir información personal o sensible en ningún tipo de IA.

A través de
Windows Report
Photo of Equipo-Noticias

Equipo-Noticias

Apasionado de la informática desde los 14 años. Me encanta todo lo que tenga 0 y 1.

Noticias de Informática Relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada.Los campos obligatorios están marcados con *

Botón volver arriba