En bref
Au 9 mars 2026, la base publique de Damien Charlotin recense au moins 1 006 affaires liées à des hallucinations juridiques dans 19 juridictions, dont 706 aux États-Unis et 7 en France.
Le sujet n'est donc plus anecdotique. Entre la nouvelle controverse relayée autour de Gordon Rees et le projet de loi new-yorkais S7263, le marché passe d'un débat sur la productivité à un débat sur la responsabilité, la preuve de contrôle et la frontière entre assistance et conseil juridique.
1) Le seuil symbolique des 1 000 affaires change la lecture du risque
Pendant longtemps, les hallucinations juridiques ont été traitées comme des ratés spectaculaires, mais isolés. Cette lecture ne tient plus.
Quand une base publique dépasse le millier de cas, le problème change de catégorie :
- ce n'est plus un bug marginal,
- ce n'est plus un sujet réservé aux petits cabinets,
- ce n'est plus un risque purement américain.
Les chiffres qui comptent vraiment
| Indicateur | Niveau au 9 mars 2026 | Ce que cela signifie |
|---|---|---|
| Affaires recensées | 1 006+ | Le phénomène est désormais massif et documenté |
| Juridictions couvertes | 19 | Le risque s'exporte hors des États-Unis |
| États-Unis | 706 cas | Les tribunaux américains restent le laboratoire du contentieux IA |
| France | 7 cas | Le sujet est déjà visible dans la pratique française |
Le point clé pour un cabinet n'est pas le volume brut. C'est la normalisation du contrôle judiciaire : plus les juridictions voient passer d'erreurs IA, plus elles savent les repérer et plus elles attendent une vérification humaine sérieuse.
2) L'épisode Gordon Rees montre que la taille d'un cabinet ne protège pas
La presse juridique américaine a relayé une nouvelle controverse autour de Gordon Rees, après un premier épisode très commenté en 2025. Le signal est puissant : quand un Am Law 100 trébuche à répétition, le problème ne peut plus être rangé dans la catégorie "mauvais usage amateur".
Ce que cet épisode dit vraiment :
- une politique interne du type "vérifiez vos sources" ne suffit pas,
- le maillon faible est souvent la chaîne de relecture, pas la rédaction initiale,
- la supervision doit être traçable, sinon elle devient indémontrable.
Autrement dit, le vrai risque n'est pas seulement qu'un collaborateur utilise un LLM. Le vrai risque est qu'un document généré, repris, relu trop vite puis diffusé sorte du cabinet sans preuve claire de contrôle.
3) Ce que dit vraiment le projet new-yorkais S7263
Le texte S7263 mérite d'être lu avec précision, parce qu'il ne se contente pas de parler de transparence marketing.
Selon la page officielle du New York State Senate, le projet vise à engager la responsabilité pour les dommages causés par un chatbot qui se fait passer pour certains professionnels réglementés. Le texte prévoit notamment :
- l'interdiction, pour le propriétaire d'un chatbot, de laisser l'outil fournir des réponses, informations ou conseils substantiels relevant d'une profession réglementée,
- une obligation d'information claire indiquant à l'utilisateur qu'il interagit avec un chatbot,
- une action civile permettant de demander des dommages-intérêts, avec frais d'avocat dans certaines hypothèses.
Point de vigilance important
Au 9 mars 2026, la page officielle du Sénat new-yorkais indique le statut "On Floor Calendar Senate". Il faut donc parler d'un projet de loi en cours, et non d'une règle déjà en vigueur.
4) Pourquoi ce débat arrive aussi en France
La France n'a pas besoin d'un copier-coller de S7263 pour être concernée. Les ingrédients du débat sont déjà présents :
- premières décisions françaises signalant des références douteuses ou fantaisistes,
- responsabilité personnelle du professionnel qui signe, plaide ou conseille,
- interrogation croissante sur la frontière entre assistance automatisée et véritable consultation juridique.
Pour les cabinets français, la bonne question n'est pas "quand la France interdira-t-elle les chatbots juridiques ?". La bonne question est :
comment démontrer, dossier par dossier, que l'IA n'a jamais remplacé la validation humaine ?
Ce point rejoint directement deux sujets déjà critiques :
- l'usage de l'IA en cabinet, les hallucinations et le secret professionnel,
- les obligations de gouvernance et de supervision liées à l'IA Act.
5) Le bon réflexe : passer d'une logique d'outil à une logique de preuve
Beaucoup de cabinets raisonnent encore ainsi : "quel modèle utiliser ?" ou "quel abonnement choisir ?". Ce n'est plus le bon niveau.
Le sujet est désormais procédural : quelle preuve de maîtrise pouvez-vous produire si une sortie IA est contestée ?
Matrice minimale de contrôle
| Risque | Mesure immédiate | Preuve à conserver |
|---|---|---|
| Citation inventée ou déformée | Vérification sur source primaire avant usage externe | Capture, note de vérification ou lien vers la base consultée |
| Mauvaise interprétation d'une décision | Relecture par un juriste identifié | Nom du valideur et date de validation |
| Usage excessif d'un chatbot sur dossier sensible | Règles internes par niveau de confidentialité | Politique interne + registre d'usage |
| Contestation client ou judiciaire | Journal minimal des outils utilisés | Outil, tâche confiée, version finale validée |
6) Ce que les cabinets doivent mettre en place ce mois-ci
1. Interdire la citation automatique
Aucune jurisprudence, aucun article, aucune quotation générée par IA ne doit entrer dans un document client, un mail d'analyse ou une écriture sans contrôle sur source fiable.
2. Distinguer recherche, brouillon et validation
L'IA peut assister la recherche ou la pré-rédaction. Elle ne doit jamais absorber la phase de validation juridique.
3. Encadrer les usages par type de dossier
Le niveau de tolérance n'est pas le même pour :
- un brouillon interne de note,
- une consultation client,
- des conclusions destinées à une juridiction,
- un dossier comportant des faits sensibles ou confidentiels.
4. Former à la détection des faux positifs convaincants
Le problème n'est plus la réponse absurde. C'est la réponse plausible, bien formulée, mais inexacte.
Questions fréquentes
Une baisse du taux d'hallucination suffit-elle à rendre l'usage sûr ?
Non. En pratique contentieuse, une seule mauvaise citation peut suffire à fragiliser une position, une relation client ou la crédibilité du cabinet.
S7263 vise-t-il uniquement le droit ?
Non. Le texte vise plus largement certains conseils relevant de professions réglementées. Le droit en fait partie, mais il n'est pas le seul domaine concerné.
Les hallucinations touchent-elles seulement les outils grand public ?
Non. Les outils spécialisés réduisent certains risques, mais n'éliminent ni la mauvaise citation, ni la confusion entre décision réelle et proposition juridique plausible.
Quelle mesure est la plus urgente en France ?
Formaliser un protocole simple : outil autorisé, cas d'usage autorisé, source de vérification exigée et identité du valideur humain.
Pour aller plus loin
- IA et cabinets d'avocats en 2026 : les risques réels que personne ne vous explique
- IA Act : ce que les professionnels du droit en France doivent vraiment savoir en 2026
Sources officielles et de référence
- Base publique des hallucinations juridiques de Damien Charlotin : https://www.damiencharlotin.com/hallucinations/
- New York State Senate, bill 2025-S7263 : https://www.nysenate.gov/legislation/bills/2025/S7263
- Above the Law, article du 19 février 2026 sur Gordon Rees : https://abovethelaw.com/2026/02/am-law-100-firm-accused-of-filing-brief-riddled-with-ai-hallucinations-again/
- Above the Law, article d'octobre 2025 sur le premier incident Gordon Rees : https://abovethelaw.com/2025/10/biglaw-firm-profoundly-embarrassed-after-submitting-court-filing-riddled-with-ai-hallucinations/
- New York Commercial Division Practice, mise en garde contentieuse sur les sanctions liées à l'usage du legal AI : https://www.nycomdiv.com/2026/02/from-hallucinations-to-sanctions-perils-of-the-use-of-legal-ai/
