ChatGPT révèle des données sensibles en réponse à certaines requêtes absurdes
ChatGPT peut se mettre à communiquer des données sensibles, révèle une étude. En exploitant une faille de sécurité, certaines requêtes peuvent obliger l'IA à divulguer des informations en piochant dans son corpus de formation initiale. Le chatbot peut par exemple dévoiler des noms, des numéros de téléphone ou des adresses e-mail.