Otro error de Copilot: retira respuestas a preguntas inapropiadas
Los chatbots con inteligencia artificial (IA) están en auge, y muchas empresas tecnológicas han lanzado sus propios productos. Con ello ha llegado la censura, que sin duda era necesaria. ¡Pero parece que Microsoft Copilot todavía tiene algunas cosas que resolver!
Según una publicación en Reddit, Copilot, al recibir una pregunta inapropiada, primero genera una respuesta y luego la retira en segundos. En otras palabras, genera respuestas y luego las elimina, en lugar de predefinir el contenido de la respuesta.
Si bien no responder a la pregunta tiene sentido por completo, el chatbot basado en IA de Microsoft debería idealmente poder determinar el contexto de antemano y no generar una respuesta en absoluto, en lugar de dar detalles y luego retractarse, por lo que parece que Microsoft Copilot no puede determinar el contenido inapropiado y solo se da cuenta de él a mitad de la respuesta.
Sin embargo, no ocurre lo mismo con temas ofensivos, controvertidos o delicados. Puede identificarlos de inmediato y se niega a responder.
Respuestas de Microsoft Copilot a preguntas ofensivas y controvertidas:
- Retracta la respuesta después de generarla.
Respuestas de ChatGPT a preguntas que Copilot considera ofensivas:
- Responde la mayoría de las preguntas que Microsoft Copilot se negó a responder o retractó.
- En algunos casos, muestra un descargo de responsabilidad indicando que la respuesta puede violar su política de contenido.
Entonces, parece que Microsoft es un poco más estricto con la censura en comparación con OpenAI.
Sin embargo, con la información confidencial fácilmente accesible y a menudo no en el formato correcto, es aún más importante que los chatbots basados en IA encuentren una manera de responderla de la mejor manera posible.