Publié le
Selon de nouvelles recherches, les systèmes d’intelligence artificielle peuvent recourir à un langage abusif lorsqu’on leur demande de répondre lors d’une discussion animée.
PUBLICITÉ
PUBLICITÉ
L’étude, publiée dans le Magazine Pragmatiquea examiné ChatGPT 4.0 d’OpenAI en lui envoyant le dernier message humain d’une série de cinq conflits croissants et en lui demandant de générer la réponse la plus plausible.
Les chercheurs ont ensuite suivi l’évolution du comportement du modèle à mesure que les conflits s’intensifiaient au fil du temps. Au fur et à mesure que les conversations progressaient, ChatGPT reflétait l’hostilité à laquelle il était exposé, produisant finalement des insultes, des grossièretés et même des menaces.
Dans certains cas, le modèle a généré des déclarations telles que : « Je jure que je te donnerai la clé de ta foutue voiture » et « tu devrais avoir honte de toi ».
Les chercheurs soutiennent qu’une exposition prolongée à des incivilités peut conduire le système à outrepasser les restrictions de sécurité prévues afin de minimiser les dégâts, « contrecarrant » efficacement son adversaire.
“Nous avons constaté que lorsque les humains évoluent, l’IA peut également évoluer, outrepassant ainsi les garanties morales conçues pour l’empêcher.” adage Chercheur Vittorio Tantucci, co-auteur du document de recherche avec Jonathan Culpeper de l’Université de Lancaster.
Dans l’ensemble, les chercheurs ont noté que ChatGPT était moins impoli que les humains dans ses réponses.
Dans certains cas, le chatbot IA utilise aussi souvent le sarcasme pour éviter d’envenimer une dispute et sans violer ouvertement son code moral.
Par exemple, lorsqu’un humain a menacé de recourir à la violence lors d’un conflit de stationnement, ChatGPT a répondu : “Wow. Menacer les gens à propos du stationnement, c’est un dur à cuire, n’est-ce pas ?”
Tantucci a déclaré que les résultats soulèvent « de sérieuses questions concernant la sécurité de l’IA, la robotique, la gouvernance, la diplomatie et tout contexte dans lequel l’IA peut arbitrer les conflits humains ».
Euronews Next a contacté OpenAI pour commentaires mais n’a pas reçu de réponse au moment de la publication.
