El año pasado, la creciente revolución de la inteligencia artificial generativa, destacada por herramientas como ChatGPT y Midjourney, enfrentó restricciones en varias empresas. Gigantes tecnológicos como Amazon, Apple y Microsoft advirtieron a sus empleados sobre los riesgos de compartir «datos sensibles» con estas tecnologías, especialmente ChatGPT, desarrollado por OpenAI, una empresa respaldada por Microsoft.
Usuarios de ChatGPT fueron los primeros en identificar vulnerabilidades en la seguridad del generador de texto. Al utilizar alter egos, pudieron eludir los parámetros establecidos por OpenAI, obteniendo respuestas controvertidas sobre temas sensibles. También se ha informado que el chatbot puede filtrar información sobre personas reales, como reveló un lector de Ars Technica.
El lector compartió capturas de pantalla que mostraban nombres de usuario y contraseñas relacionadas con un sistema de asistencia de un portal de medicamentos recetados. Estas conversaciones incluían detalles sobre problemas y soluciones en el portal, y el lector afirmó haber accedido a conversaciones filtradas que involucraban información confidencial, como detalles de una propuesta de investigación y fragmentos de código fuente.
OpenAI ha prometido investigar este problema, pero no es la primera vez que se denuncian incidentes similares con ChatGPT. La situación destaca la necesidad de abordar las preocupaciones de seguridad y privacidad asociadas con la inteligencia artificial generativa.
