Retour aux publications
    INFLUXIO- Raphaël Molina

    ChatGPT peut-il être accusé de diffamation s'il affirme quelque chose de faux à votre sujet ?

    Regard croisé jurisprudence américaine / droit français de la presse sur la diffamation par IA.

    L’essor des grands modèles de langage (LLM) a ouvert un champ inédit d’usages… et de risques. Parmi ces risques, les « hallucinations », ces réponses qui inventent des faits, soulèvent une question cardinale : qui répond juridiquement lorsqu’un outil comme ChatGPT attribue à tort un comportement délictueux à une personne identifiée ?

    Une décision rendue en mai 2025 par la Superior Court du comté de Gwinnett (Géorgie) dans l’affaire Mark Walters v. OpenAI, L.L.C. \ [1.")\] apporte un éclairage concret côté américain : la juridiction a accordé le “summary judgment” à OpenAI, c’est-à-dire mis fin au litige en sa faveur, sans procès, au vu des pièces et du droit applicable.

    Nous proposons ici une analyse structurée de ce jugement, puis une comparaison avec le droit français de la diffamation (loi du 29 juillet 1881), dont les équilibres sont bien différents.

    I. Les faits saillants de l’affaire Walters v. OpenAI.

    Le 3 mai 2023, Frederick Riehl, rédacteur en chef d’Ammoland (site d’actualités/advocacy sur le Second Amendement), reçoit un communiqué et la plainte de la Second Amendment Foundation (SAF) contre le procureur général de l’État de Washington (SAF v. Ferguson). Souhaitant rédiger un article, il demande à ChatGPT de résumer des passages de la plainte ; pour les sections collées, la synthèse est exacte.

    À d’autres moments, l’outil fournit des réponses inexactes, phénomène que la littérature technique qualifie désormais d’« hallucinations ».

    Le juge relève expressément que, de par leur nature générative, les principaux LLM peuvent produire des informations contredisant la source, et rappelle ce vocabulaire technique.

    Point crucial : Riehl connaissait ces limites (il avait déjà observé des réponses « flat-out fictional ») et, le 3 mai, il avait accepté les conditions d’utilisation de ChatGPT qui le mettaient en garde : sortie probabiliste, résultats potentiellement inexacts, nécessité d’un contrôle humain. Il a en outre vu plusieurs avertissements à l’écran précisant que « _ChatGPT peut produire des informations inexactes_ ».

    La personne pointée par ces réponses erronées, Mark Walters, est un intervenant médiatique très connu dans la sphère « Second Amendment » : animateur radio quotidien, auteur, personnalité publique au sein d’organisations pro-armes. Ces éléments fondent l’analyse de la juridiction sur son statut de “public figure” (au moins limité).

    II. Les raisons du rejet des prétentions de M. Walters.

    Le tribunal accorde le _summary judgment_ à OpenAI ; autrement dit, aucune question matérielle de fait ne justifiait un procès.

    A. Le sens que reçoit un lecteur raisonnable dans le contexte d’usage.

    Le filtre “lecteur raisonnable” est déterminant : Riehl n’était pas un profane ; il connaissait les limites de ChatGPT et avait sous les yeux des avertissements explicites l’incitant à vérifier les réponses en cas d’usage éditorial.

    Dans ce contexte, la Cour considère que les sorties incriminées ne communiquaient pas, en droit, un sens diffamatoire de nature à engager la responsabilité d’OpenAI : pour un utilisateur raisonnable dans ces circonstances, la sortie (output) avait une valeur informative limitée et conditionnelle, qui appelle vérification. La matérialité de ces avertissements est documentée au dossier (CGU, messages d’interface, etc.).

    B. Le standard de faute : pas de négligence fautive, encore moins "d’ _actual malice_".

    Même en admettant un préjudice réputationnel potentiel, l’action échoue à un double niveau : (i) la négligence (standard ordinaire de « reasonable publisher » sous le droit de Géorgie) et \*\*(ii) le degré aggravé d’ _actual malice_ requis pour une personnalité publique.

    Sur la négligence, la Cour retient qu’OpenAI a déployé des mesures organisationnelles et techniques raisonnables : conception et entraînement visant à réduire les hallucinations, avertissements clairs et répétés pour l’utilisateur, recommandation de relecture humaine avant usage éditorial. Ces éléments désamorcent l’allégation d’une défaillance de diligence raisonnable dans la mise à disposition de l’outil et son interface utilisateur.

    Sur "l’ _actual malice_", le demandeur devait prouver, avec une preuve « _claire et convaincante_ », que l’éditeur savait que les assertions étaient fausses ou a agi avec mépris délibéré pour la vérité. La Cour constate au contraire l’absence d’indices que quiconque chez OpenAI ait eu conscience d’une hallucination précise sur M. Walters, ni ait voulu ignorer des risques identifiés pour ce cas particulier. Le dossier montre plutôt des démarches proactives pour rappeler l’incertitude et encadrer les usages sensibles.

    III. Le miroir français : une logique d’infraction de presse, un partage des charges différent.

    A. Définition et éléments matériels de la diffamation.

    En droit français, la diffamation est définie par l’article 29, al. 1 de la loi du 29 juillet 1881 : « _toute allégation ou imputation d’un fait qui porte atteinte à l’honneur ou à la considération_ » d’une personne (physique ou morale). Le fait incriminé doit être précis, vérifiable, et l’identification de la personne possible.

    La doctrine et la jurisprudence insistent sur le caractère précis du fait imputé : il faut un contenu susceptible de preuve et de débat contradictoire. À défaut (propos vagues, opinion), la qualification glisse vers l’injure. Les juridictions apprécient le sens des propos en tenant compte des éléments intrinsèques et extrinsèques du message (contexte, renvois, supports associés).

    B. Une infraction intentionnelle… à intention « allégée ».

    La diffamation est une infraction intentionnelle. Mais l’« intention de diffamer » au sens subjectif - vouloir nuire - n’est pas un élément constitutif dont la victime devrait faire la preuve : l’élément moral résulte de la volonté de prononcer les propos incriminés ; il n’est pas requis de démontrer une « malice » au sens américain. La charge se déplace, après la constitution de l’infraction, vers des moyens d’exonération à la disposition de l’auteur.

    Conséquence pratique : à la différence du standard américain d’ _actual malice_, la victime n’a pas à prouver que l’auteur savait que c’était faux ou qu’il s’est désintéressé de la vérité. Le seul fait d’alléguer publiquement un fait précis portant atteinte à l’honneur suffit, à charge ensuite pour le prévenu/défendeur d’invoquer ses justifications.

    Là où le droit américain conditionne parfois l’existence même de la responsabilité à la preuve par la victime d’une malice réelle, le droit français constitue plus facilement l’infraction, puis ouvre des voies d’exonération à l’auteur.

    En définitive, l’arrêt Walters v. OpenAI ne crée ni immunité générale pour l’IA générative, ni régime d’exception : la cour rappelle simplement que, pour une personnalité publique, la diffamation n’est pas caractérisée si, replacée dans son contexte d’usage, la sortie d’un LLM n’emporte pas de sens diffamatoire pour un lecteur raisonnable, qu’aucune faute - et _a fortiori_ aucune _actual malice_ - n’est démontrée, et qu’aucun dommage réparable n’est établi.

    Les avertissements visibles et la conception orientée vers la vérification humaine ont pesé lourd dans cette appréciation, au même titre que le profil de l’utilisateur et l’absence d’indices d’une connaissance interne de la fausseté.

    Raphaël Molina

    À propos de l'auteur

    Raphaël Molina

    Avocat associé

    Avocat au barreau de Paris, Maître Raphaël MOLINA est associé cofondateur du cabinet INFLUXIO et se spécialise en droit de la propriété intellectuelle et droit du numérique depuis plusieurs années.

    Contact

    Contacter INFLUXIO.

    Vous souhaitez prendre rendez-vous ou obtenir un devis ?

    Nous vous répondons en 24 heures.