L’usage croissant de l’intelligence artificielle dans le domaine juridique soulève des questions inédites, tant sur le plan technique qu’éthique. Recherche de jurisprudence, rédaction de mémoires ou assistance à l’argumentation : les outils d’IA s’imposent progressivement dans la pratique quotidienne des juristes. Mais jusqu’où peut-on déléguer le raisonnement juridique à la machine ?
Une décision clé des juridictions d’Abu Dhabi sur la responsabilité de l’avocat
Le juge Omar Weslati s’est penché sur une décision rendue le 18 décembre 2025 par les juridictions du Marché mondial d’Abu Dhabi (ADGM Courts) dans l’affaire Arabyads Holding Limited v Gulrez Alam Marghoob Alam, sous la présidence du juge Paul Heath KC. Dans cette affaire, des mémoires soumis à la juridiction contenaient des références et précédents judiciaires incorrects, générés par des outils d’intelligence artificielle et non suffisamment vérifiés par un humain.
Pour le juge Weslati, cette décision est majeure car elle réaffirme que l’utilisation de l’intelligence artificielle ne dégage en aucun cas l’avocat de sa responsabilité professionnelle. La cour a distingué clairement entre l’usage légitime des outils technologiques comme moyen d’assistance et le recours inacceptable à la machine pour le raisonnement juridique, qui ne peut assumer aucune responsabilité légale ou disciplinaire.
Implications pour la Tunisie : vigilance et responsabilité collective
Selon Omar Weslati, bien que cette décision émane d’une juridiction étrangère, elle a des implications importantes pour la Tunisie, où la responsabilité professionnelle de l’avocat est strictement personnelle et le rôle du juge central dans la garantie du procès équitable. La présentation d’éléments inexacts, même involontairement, peut constituer une faute professionnelle portant atteinte au devoir d’honnêteté et au respect de la vérité.
Le rôle accru du juge à l’ère numérique
Enfin, l’analyse d’Omar Weslati met en lumière le rôle renforcé du juge à l’ère des plaidoiries numériques : il doit faire preuve de vigilance, examiner la cohérence des mémoires, détecter les traces d’arguments générés automatiquement et s’assurer que l’usage de l’IA ne dénature pas l’exercice du raisonnement juridique humain.
S.H













5 commentaires
Rationnel
L’ADGM se positionne activement comme une juridiction de ‘common law’ pour rivaliser avec le Delaware, Singapour et le DIFC. Des décisions très médiatisées sur des sujets émergents comme l’IA génèrent une couverture dans la presse juridique internationale, ce qui constitue un marketing utile pour un système judiciaire jeune qui cherche à établir sa légitimité et à attirer des affaires. Le timing et le sujet sont opportuns.
Les affaires impliquant des avocats qui utilisaient naïvement ChatGPT pour la recherche jurisprudentielle sont dans le passe. C’était une erreur de débutant. Les praticiens sérieux utilisent désormais des outils spécialisés comme Harvey, CoCounsel ou Casetext, conçus avec des couches de vérification et un accès à de véritables bases de données juridiques. Présenter les hallucinations comme le risque central de l’IA en 2026 est dépassé.
Le système juridique tunisien découle de la tradition civiliste française, avec un droit codifié, une interprétation fondée sur la doctrine et une approche différente du précédent. L’ADGM fonctionne selon les principes de la common law anglaise. La tentative du juge Weslati de tirer des implications pour la Tunisie semble forcée, peut-être motivée par le désir de participer à une conversation mondiale à la mode plutôt que par une véritable pertinence doctrinale.
Plutôt que de se demander si l’IA va halluciner des citations, les vrais enjeux pour la pratique juridique tunisienne seraient plutôt l’accès à une jurisprudence tunisienne numérisée, le développement d’une IA juridique en langue arabe, et la question de savoir si les ordres des avocats locaux élaboreront des directives spécifiques.
L’intégration de l’IA dans le système judiciaire représente un véritable avantage comparatif, comme l’illustrent les cas de Singapour et d’Abu Dhabi. La Tunisie dispose d’une industrie de l’IA solide et pourrait s’en servir pour contribuer au développement du pays et attirer davantage d’investissements. Plutôt que de se concentrer sur des controverses importées, la Tunisie devrait réfléchir à comment exploiter ses compétences technologiques pour moderniser son propre système juridique et se positionner comme un hub attractif pour les affaires en Afrique du Nord.
jamel.tazarki
A) Différencier entre IA généralistes et IA spécialisées :
Je suppose que Le juge Omar Weslati confond les IA généralistes qui « blablatent », et les IA spécialisées conçues pour une rigueur absolue dans des domaines où l’erreur n’est pas une option.
–>
Voici les champions actuels par domaine :
1. Sciences et Mathématiques (La rigueur pure)
– AlphaGeometry (Google DeepMind) : Ce système combine un modèle de langage (pour l’intuition) avec un moteur de règles logiques (pour la preuve). Il a résolu des problèmes d’Olympiades internationales de mathématiques que les IA classiques ratent lamentablement.
– AlphaFold : Spécialisée dans la biologie, elle a prédit la structure de presque toutes les protéines connues, une tâche qui prendrait des siècles à des humains.
2. Droit et Justice (La précision textuelle)
– Harvey AI : Utilisée par les plus grands cabinets mondiaux (comme PwC), elle est entraînée spécifiquement sur des bases de données juridiques privées pour éviter les inventions et garantir que chaque citation provient d’un texte de loi réel.
– Ross Intelligence : Une IA experte en recherche de jurisprudence qui ne se contente pas de trouver des mots-clés, mais comprend les concepts juridiques pour débusquer les précédents les plus pertinents.
3. Santé (Le diagnostic expert)
– Enlitic : Spécialisée dans l’analyse de radiographies et de scanners, elle détecte des anomalies (tumeurs, micro-fractures) avec une précision souvent supérieure aux radiologues, car elle a « vu » des millions d’images pathologiques.
Pourquoi les IA spécialisées sont fortes?
– Ces outils utilisent souvent l’IA Symbolique (des règles logiques strictes) couplée au Deep Learning (l’apprentissage par l’exemple). C’est le mariage parfait entre l’intuition et la règle.
B) ChatGPT, WhatsApp et l’IA généraliste sont bons pour la « satisfaction suffisante »:
ChatGPT, l’IA généraliste et WhatsApp sont suffisants pour les besoins de la majorité des utilisateurs, sans aucune exigence approfondie, où un bit ou un mot de plus ou de moins n’est pas grave pour l’information.
–>
Pour 95 % des usages quotidiens, la précision n’est pas la priorité. On est dans l’ère de la « satisfaction suffisante » (satisficing). Dans ce contexte, le duo ChatGPT et WhatsApp répond parfaitement aux besoins de la majorité :
-L’IA généraliste : Que ce soit pour reformuler un email, trouver une idée de menu ou résumer un article, l’utilisateur accepte une marge d’erreur. Si l’IA ajoute un adjectif de trop ou manque une nuance historique, cela n’impacte pas la vie de l’utilisateur.
– Pour WhatsApp La fluidité compte avant la rigueur: l’intégration de Meta AI permet de générer des réponses ou des images instantanément. L’important ici est la vitesse de communication, pas la validité scientifique. Un mot de plus ou de moins lors d’une communication WhatsApp n’est pas vraiment un problème.
Utiliser ChatGPT, WhatsApp ou l’IA généraliste, le coût cognitif est zéro : ces outils ne demande aucun grand effort d’apprentissage. C’est l’intelligence « prête à consommer » pour 95% des utilisateurs.
–>
Le Grand Public : Utilise l’IA pour le confort et le gain de temps (où l’approximation est tolérée).
Par contre l’Expert (Avocat, Ingénieur, Médecin etc.) : Utilise l’IA pour la performance (où chaque bit compte et l’erreur est une faute).
Le danger survient uniquement quand on utilise l’IA généraliste pour un travail de IA spécialisées!
C) Pour éviter que l’IA ne s’éloigne du sujet, ajoutez une contrainte de structure à la fin de votre demande :
– exigez de l’IA de citer ses sources : même si l’IA ne peut pas toujours naviguer sur le Web en temps réel (selon la version), cela l’oblige à s’appuyer sur des données d’entraînement plus fiables.
– exigez de l’IA d’expliquer ses raisonnements étape par étape » : c’est ce qu’on appelle la Chain of Thought. En décomposant sa pensée, l’IA commet beaucoup moins d’erreurs de logique.
– Le bouton « Vérifier avec Google »
Dans la version gratuite de Google Gemini, utilisez systématiquement l’icône « G » sous la réponse. Elle compare ce que l’IA a écrit avec les résultats du moteur de recherche pour surligner en vert ce qui est vrai et en rouge ce qui est douteux.
D) Sans ce principe de la « satisfaction suffisante », l’Internet perdrait de vitesse de réaction. Un peu moins de précision, mais rapide, afin de pouvoir satisfaire tous les besoins, sans vérification efficace de pertes de bits ou de bytes:
–>
C’est l’essence même de l’économie de l’attention : la réactivité a remplacé l’exactitude comme valeur cardinale. Internet fonctionne sur le principe du « Good Enough » (assez bon) :
– Le compromis vitesse/précision : Dans un flux continu sur WhatsApp ou les réseaux sociaux, une réponse imparfaite envoyée en 2 secondes est souvent perçue comme plus utile qu’une réponse parfaite arrivant 10 minutes plus tard.
– La tolérance à l’erreur : L’architecture même du web (comme le protocole UDP pour la vidéo) accepte de perdre des « paquets » de données pour maintenir la fluidité. L’IA générative applique ce concept au langage : elle « compresse » la connaissance au prix de quelques erreurs de bits ou de mots.
– La démocratisation par le bas : Si chaque interaction avec une IA exigeait une vérification formelle (comme pour un logiciel de la NASA), l’outil redeviendrait un privilège d’experts. La « satisfaction suffisante » est le prix de la gratuité et de l’instantanéité.
–>
C’est une forme de « justice informationnelle » : tout le monde a accès à une information correcte à 90 %, plutôt que de n’avoir accès à rien du tout faute de moyens.
E) cette acceptation de l’erreur de ChatGPT, WhatsApp et de l’IA généraliste est indispensable:
–>
L’acceptation de l’erreur de ChatGPT, WhatsApp et de l’IA généraliste est une évolution pragmatique et avantageuse de notre communication à l’échelle planétaire. Un exemple: Une minute de communication téléphonique entre Londres et New-York (USA) coûtait 200 dollars en 1930. Aujourd’hui, des heures de communication téléphonique entre Londres et New-York, via WhatsApp, coûtent absolument rien, au prix de quelques mots perdus lors de la communication.
–>
C’est le passage d’une économie de la rareté (où la précision justifiait un prix exorbitant) à une économie de l’abondance (où la fluidité prime sur la perfection technique).
– En 1930, à 200 dollars la minute, chaque mot devait être pesé, préparé et articulé. Aujourd’hui, la gratuité de WhatsApp autorise le bégaiement, les silences et les approximations numériques. Nous avons échangé la qualité du signal contre la liberté de l’échange.
– L’IA comme le « nouveau codec » : Tout comme la compression MP3 sacrifie des fréquences inaudibles pour rendre la musique accessible partout, l’IA sacrifie parfois la précision absolue pour offrir une assistance universelle. C’est le coût marginal zéro appliqué à la connaissance.
– L’avantage systémique : À l’échelle planétaire, le gain social de milliards de personnes pouvant échanger instantanément est infiniment supérieur à la perte causée par quelques erreurs de syntaxe ou d’interprétation.
– C’est le triomphe du pragmatisme technologique : il vaut mieux une communication imparfaite pour tous qu’une communication parfaite pour personne.
F) L’apprentissage, dans tous les domaines, est pratiquement gratuit pour tous ceux qui le désirent ! Il ne faut pas avoir des parents super instruits afin de s’instruire !
–>
C’est la véritable révolution égalitaire de notre siècle. L’IA et Internet ont brisé le « déterminisme social » lié à l’héritage culturel des parents. Aujourd’hui, l’apprentissage devient une affaire de volonté plutôt que de fortune :
– Un enfant dont les parents n’ont pas fait d’études peut désormais demander à ChatGPT ou Claude d’expliquer le théorème de Pythagore ou les concepts de la Constitution de manière simple, autant de fois que nécessaire, sans jugement.
– L’accès aux meilleures sources : Des plateformes comme Khan Academy ou Coursera offrent des cours de niveau Harvard ou Polytechnique gratuitement. La barrière n’est plus l’accès au savoir, mais la discipline personnelle pour le consommer.
– La fin du monopole des diplômes : Dans des domaines comme la programmation ou le design, les recruteurs privilégient de plus en plus les compétences réelles acquises en autodidacte via des tutoriels YouTube ou des projets sur GitHub, plutôt que le seul prestige du nom de l’école.
– L’intelligence n’est plus un privilège de classe, mais un flux disponible au robinet. Le rôle des parents change : ils n’ont plus besoin d’être des « encyclopédies », mais des « coachs de motivation ».
Bonne journée
Dr. Jamel Tazarki
l'autre
Je veux nuancer les propos du juge Wesleti car l’utilisation de l’intelligence artificielle est inévitable dans tous les domaines, donc juste il faut s’adapter. Ainsi pour nuancer la position du juge Weslati, on peut avancer des arguments qui soulignent le caractère inéluctable de l’IA et les limites de la responsabilité strictement humaine dans un monde de données massives.
Voici quatre axes de contre-argumentation :
1. L’argument de l’erreur humaine vs l’erreur algorithmique
Le juge insiste sur la faillibilité de l’IA, mais il oublie que l’erreur humaine est déjà omniprésente en droit.
La fatigue et l’oubli : Un avocat ou un juge peut oublier une jurisprudence cruciale par fatigue ou manque de temps. Une IA bien entraînée (et non hallucinatoire) est théoriquement plus exhaustive qu’un cerveau humain.
La standardisation : On pourrait soutenir qu’une erreur algorithmique est plus facile à corriger globalement (en ajustant le modèle) qu’une multitude d’erreurs humaines éparpillées.
2. L’argument de l’accès à la justice (Équité)
En condamnant trop fermement l’usage de l’IA, on risque de creuser l’écart entre les grands cabinets et les citoyens modestes.
Réduction des coûts : L’IA permet de traiter des dossiers plus rapidement et donc de baisser les honoraires. Interdire ou trop limiter l’IA, c’est rendre la justice inaccessible à ceux qui ne peuvent pas payer des centaines d’heures de recherche humaine.
Égalité des armes : Une IA bien paramétrée permet à un avocat seul de rivaliser avec une armée de collaborateurs dans un grand cabinet.
3. L’argument de la « Boîte Noire » et de la surcharge cognitive
Il est parfois injuste de demander à l’humain d’être le seul garant d’un système qu’il ne peut plus comprendre entièrement.
Complexité législative : Face à l’inflation des lois et des règlements, l’humain est déjà incapable de tout vérifier sans aide. Blâmer l’avocat pour une erreur de la machine revient à le punir pour avoir utilisé le seul outil capable de gérer cette complexité.
Responsabilité des éditeurs : Au lieu de faire peser tout le poids sur l’avocat, l’argument serait de déplacer la responsabilité vers les concepteurs de l’IA. Si l’outil est vendu comme un assistant juridique « fiable », c’est au fournisseur de garantir la véracité des données.
4. L’argument du juge comme « frein » au progrès
L’exigence de vigilance accrue demandée aux juges par Omar Weslati pourrait transformer les tribunaux en commissions de censure technologique.
Ralentissement des procédures : Si le juge doit scruter chaque mémoire pour y déceler une « trace d’IA », les délais de jugement (déjà longs en Tunisie) vont exploser.
Déni de réalité : Le droit doit s’adapter à la société. Refuser le raisonnement assisté par ordinateur, c’est comme si, au siècle dernier, on avait refusé les recherches dans les bases de données informatiques sous prétexte que « seul le dictionnaire papier fait foi ».
ali.labyedh
L’intelligence a un mur du son devant elle!et une limite devant ses possibilités.L’intelligence artificielle ne pourra jamais résoudre un problème mathématique que l’homme n’avait pas réussi à résoudre comme la conjecture de Riemann ou autres.En 1930 le mathématicien autrichien,en réponse aux voix qui s’élevaient pour créer un formalisme logique pour résoudre tout problème difficile avait répondu par la négation dans un théorème célèbre de l’indécidabilité de toute intelligence artificielle!La démonstration de ce théorème est extrêmement ardue et même l’IA est incapable de le démontrer!
Vladimir Guez
Je ne suis pas très inquiet. Je pense les jugements ecrits par notre IA Javel4.2 dans les procès politiques ont quand même démontré leur supériorité.