À la Faculté des sciences économiques de Tunis (FSEGT), un étudiant a été surpris en plein examen en train d’utiliser une IA pour répondre aux questions. L’affaire fait jubiler certains enseignants comme une “victoire”. Mais si l’enjeu révélateur était ailleurs : dans l’urgence de repenser l’examen lui-même pour qu’il évalue non pas la mémoire, mais l’intelligence et la créativité dans un monde déjà transformé par l’IA.
Lundi dernier, à la Faculté des sciences économiques et de gestion de Tunis (Université Tunis El Manar), un étudiant a été surpris en flagrant délit de triche. Selon les éléments rapportés dans le corps enseignant, il aurait pris l’épreuve en photo, puis soumis les questions à l’intelligence artificielle (IA) chinoise DeepSeek avant de recopier les réponses. Le téléphone a été confisqué, une enquête a été ouverte, et l’anecdote s’est propagée à la vitesse d’une traînée de poudre.
La tonalité qui a suivi est révélatrice. Du côté des enseignants et de l’administration, on a parlé de “victoire”, de “trophée”, comme si l’université venait de prouver sa vigilance face à une menace inédite, comme si on avait arrêté Ali Baba. Du coté des étudiants, on vilipende ce système encore archaïque qui refuse de se mettre à jour avec l’époque.
Or l’IA n’est pas un gadget marginal. Elle s’installe dans les usages, dans les métiers, dans les chaînes de décision, dans la production de texte, de code, d’analyse et même de synthèse. Le rapport de force est déjà connu : l’étudiant tricheur n’est pas un phénomène, c’est un symptôme.
Le cœur du sujet n’est donc pas : comment attraper les tricheurs ? Mais : qu’évalue-t-on réellement quand on évalue ?
Le grand malentendu : l’examen comme musée de la récitation
L’examen universitaire tunisien reste, très souvent, l’héritier d’un modèle mécanique : un cours dicté ou transmis, puis restitué. Dans ce système, la hiérarchie est simple : ceux qui mémorisent mieux passent, ceux qui mémorisent mal trébuchent. On appelle cela “mérite”. Mais c’est une notion de mérite fondée sur une compétence qui n’est plus centrale dans le monde réel : la restitution.
Dans la vie professionnelle, on ne recrute pas quelqu’un parce qu’il sait réciter. On recrute parce qu’il sait comprendre une situation, définir un problème, formuler des hypothèses, arbitrer, résoudre, argumenter, expliquer — et, oui, utiliser les outils de son temps.
C’est précisément là que l’IA dérange : elle met en pleine lumière le décalage entre l’évaluation et la réalité. Elle démontre, brutalement, qu’un examen fondé sur la restitution est fragile : une machine sait restituer. Parfois mieux. Souvent plus vite.
L’argument le plus simple : l’IA sera utilisée au travail… donc pourquoi l’interdire à l’examen ?
C’est ici que le débat devient inconfortable pour l’université : un étudiant qui réussit sa formation, puis intègre une entreprise, utilisera l’IA. Il l’utilisera pour chercher, synthétiser, structurer, coder, corriger, traduire, simuler, comparer des scénarios. Les grandes institutions universitaires, elles, ne se contentent pas de moraliser : elles organisent des cadres d’usage.
Dans une tribune publiée en août dernier au journal français Le Monde, Maxime Abolgassemi, écrivain et professeur, résume cette idée avec force : « Assimiler l’IA à de la triche dessert l’enseignement et enferme chacun dans un jeu de rôle désespérant ».
Dans le même journal, en avril dernier, Séverin Graveleau et Éric Nunès rappellent la nécessité que les enseignants doivent quitter leur zone de confort : « Les enseignants du supérieur réinventent leurs méthodes d’évaluation… l’oral prend désormais plus de place et les établissements passent de la simple détection à l’intégration de ces outils d’intelligence artificielle (…)».
Cette citation souligne qu’au cœur du débat se trouve désormais la transformation des outils, des modalités et des objectifs mêmes de l’évaluation.
Le débat en France illustre bien ce retard : des enseignants regrettent qu’on pense d’abord à exclure et interdire plutôt qu’à intégrer et élaborer de nouveaux formats d’évaluation.
Position des grandes universités : évaluer après l’IA, pas contre elle
À Harvard, l’université américaine la plus prestigieuse au monde, la logique est explicitement pragmatique : certaines évaluations peuvent autoriser, voire encourager l’IA, à condition d’en exiger la transparence et la citation, et de rappeler que l’étudiant reste responsable du résultat final.
Harvard souligne aussi un point que beaucoup préfèrent taire : compter sur des outils automatiques de détection est une impasse.
Autre université très prestigieuse, Cambridge, au Royaume-Uni. L’approche n’est pas “interdire partout”, mais fournir un cadre pour des règles discipline par discipline, avec un objectif clair : permettre aux équipes pédagogiques de définir ce qui est approprié et d’encourager un dialogue ouvert sur les usages, les gains et les risques.
Autrement dit : les institutions sérieuses ne se contentent pas de célébrer le policier, elles réécrivent le code de la route.
Cette position nuance l’interdiction pure et simple : l’IA n’est pas seulement une menace ; elle peut aussi être un outil pédagogique inclusif, à condition qu’elle soit intégrée intelligemment.
Ce que l’université devrait tester : l’intelligence, pas la mémoire
Autoriser l’IA en examen ne veut pas dire “autoriser la triche”. Cela veut dire : changer l’objet de l’épreuve.
Un examen réellement moderne pourrait demander, par exemple : de résoudre un problème inédit avec contraintes (temps, coût, hypothèses, risques) ; d’expliquer un raisonnement étape par étape, et de justifier chaque choix ; de critiquer une réponse générée par IA (où se trompe-t-elle, que simplifie-t-elle, quelles hypothèses implicites ?) ; de produire une solution, puis de défendre oralement les arbitrages ; de documenter l’usage de l’IA (prompts, itérations, corrections, sources vérifiées).
Dans ce modèle, l’IA devient un outil — comme la calculatrice l’est devenue en mathématiques, ou comme le tableur Excel l’est devenu en finance. L’évaluation ne disparaît pas : elle devient enfin intelligente.
Et surtout, elle devient équitable d’une manière nouvelle : tout le monde a accès à l’outil, et on distingue ceux qui savent s’en servir avec rigueur. Harvard propose d’ailleurs des politiques de cours allant jusqu’à “pleinement encourager” l’usage de l’IA y compris pour les évaluations, à condition d’exiger l’aveu et la citation.
Aux États-Unis, il y a des réflexions critiques à propos de l’impact de l’IA sur l’enseignement supérieur.Par exemple, celle du grand essayiste et universitaire américain, Clay Shirky (évoquée dans une publication liée au NYT) qui s’interroge sur la pertinence des modèles d’évaluation classiques après l’arrivée de l’IA : les méthodes d’évaluation actuelles deviennent obsolètes dès lors que l’IA est disponible, et l’université doit repenser ce qu’elle mesure réellement.
Cette analyse dit en substance que la manière dont les étudiants apprennent et ce que les évaluations mesurent doivent évoluer avec l’IA, sous peine de ne plus avoir de sens.
Ce que devrait être l’examen de demain
Autoriser l’IA ne signifie pas ignorer l’intégrité académique. Au contraire, cela implique une conception d’examens qui met l’accent sur la compétence, l’esprit critique et la capacité à « penser avec » l’IA, et non à la confondre avec la compétence humaine. Des pistes concrètes sont déjà explorées en Europe : l’oral, l’analyse critique de productions générées par IA, des études de cas contextualisées ou des mises en situation.
Le Monde évoque cette transformation progressive : les établissements mettent l’accent sur l’oral et des formats d’évaluation qui transcendent la simple réponse écrite, car ils tirent parti de ce que l’IA domine moins — la pensée réflexive et l’argumentation.
Ce changement n’est pas une concession : il reflète une adaptation nécessaire à un environnement où l’usage des outils intelligents est la norme.
La résistance tunisienne : une question d’effort, pas de principe
Alors que des institutions internationales explorent l’intégration pédagogique de l’IA, certaines réactions locales font l’économie de la réflexion pour s’en tenir à la sanction. Ce choix est compréhensible — il est politiquement facile — mais il occulte le débat crucial : nous ne formons plus les mêmes compétences qu’avant.
Pourquoi, alors, une partie de l’université tunisienne s’accroche-t-elle au vieux modèle ? Parce que la modernisation de l’évaluation demande ce qui manque le plus dans les routines : du travail pédagogique.
Proposer des examens compatibles avec l’IA suppose d’être inventif. De construire des sujets robustes. D’évaluer des raisonnements, pas des paragraphes. De corriger autrement. D’assumer une part d’oral, de projet, de défense, de suivi. Bref : de faire évoluer le métier d’enseignant.
Or ce changement a un coût : formation, temps, coordination, nouveaux barèmes, nouveaux critères, nouvelles méthodes de contrôle. Les institutions qui s’adaptent le font en reconnaissant que l’IA est une révolution “accessible à tous” et qu’elle impose une appropriation structurée, sans renier les valeurs académiques.
En Tunisie, au contraire, la réaction spontanée est d’abord disciplinaire : l’étudiant est le problème, l’outil est le problème, la sanction est la solution. Ce qui s’est passé à la FSEGT lundi dernier est rassurant pour l’administration et les enseignants rétrogrades ou/et conservateurs, mais c’est une illusion : on ne sanctionnera pas l’époque.
La vraie question : veut-on former des têtes pleines ou des têtes capables ?
Attraper un étudiant utilisant une IA n’est pas en soi une victoire. C’est un symptôme d’un modèle éducatif figé dans des paradigmes qui ne correspondent plus à la réalité du XXIᵉ siècle. Oui, il y a triche. Oui, un règlement s’applique. Mais se contenter de brandir cette affaire comme un trophée revient à rater l’essentiel : l’IA oblige l’université tunisienne à choisir.
Soit elle continue à sélectionner les étudiants sur leur capacité à restituer des pages — et elle se condamne à produire des diplômés “validés” mais mal ou pas du tout préparés au monde professionnel.
Soit elle assume que le monde du travail a changé, que les outils ont changé, et que l’examen doit devenir l’endroit où l’on mesure la pensée, pas la mémoire.
À la Faculté des sciences économiques de Tunis, on a peut-être confisqué un téléphone. Mais la vraie confiscation, plus silencieuse, c’est celle-là : confisquer aux étudiants la possibilité de démontrer leur intelligence dans un système conçu pour récompenser la récitation.
Et ça, ce n’est pas un fait divers. C’est une politique éducative.
Nizar Bahloul
Pour aller plus loin :
UK universities warned to ‘stress-test’ assessments as 92% of students use AI
(Les universités britanniques sont invitées à tester la robustesse de leurs évaluations, car 92 % des étudiants utilisent l’IA.)
Artificial Intelligence is now an A+ law student, study finds (L’intelligence artificielle est désormais un élève en droit exceptionnel, selon une étude.)
IA dans l’enseignement et la recherche: veille de janvier 2026 (Academia)











8 commentaires
Fares
Vers une IA tuniso-tunisienne
Un des problèmes de l’IA actuelle est qu’elle n’a aucun sens de l’effort. Elle peut vous proposer des solutions complexes alors qu’une solution simple est à portée main, mais l’IA ne la voit pas. J’ai eu pas mal d’expériences comme ça, récemment l’IA m’a proposé de réinstaller le système d’exploitation pour résoudre un faux problème de compatibilité entre un logiciel et un langage de programmation. En visitant le site officiel dudit logiciel je me suis aperçu qu’il n’y avait pas d’incompatibilité comme le prétendait l’IA.
Nous sommes paresseux à des proportions différentes, et les tunisiens sont les champions de la flemme. Pourquoi ne pas transformer ce défaut en un atout et inviter nos chômeurs qui pullulent les cafés populaires à apprendre la paresse à l’IA demain. Je suis à peine sarcastique.
Un autre problème, l’IA n’a aucune notion de l’écoulement du temps, je crois. Nous avons tendance à oublier ce fait quand on entame une session de chat qui s’étend sur quelques jours avec des interruptions pour manger, dormir…l’IA ne se rend pas compte de ces interruptions, d’après ce que je pense.
Tunisino
Ingénierie de l’éducation et science de l’éduction? Elles dépendent du projet stratégique du pays, comment le pays doit-il devenir dans quelques dizaines d’années. En Tunisie, les bêtes de l’éducation barbotent pour torturer les tunisiens et faire retarder le pays par des approches anarchiques. Certains parlent de pays comme les Etats Unis, le Japon, et l’Allemagne (des pays de référence) sans les connaitre et en étant les derniers de la classe, des bêtes patentées. D’autres, des médiocres patentés, parlent de pays accidentés en voulant les prendre comme référence pour la Tunisie. La Tunisie ne sera jamais un pays avancé tant que les nuls se présentent pour des sauveurs.
Gore fest
HAHAHAH IA ici ? on verra dans 30 ans peut etre
Faut pas trop rêver. Je me rappelle qu’à la fac, en 2008, il y avait un étudiant qu’on surnommait « Michou ». Il avait les meilleures notes : un véritable scanner. Il était capable de réciter les cours mot pour mot, en français, à la lettre près.
Mais quand je lui demandais : « Ey, ema chma3netha ? », son regard devenait aussi vitreux que celui d’un poisson. Il n’en avait aucune idée. Il se contentait de répéter exactement la même phrase, sans comprendre ce que ça voulait dire.
Il savait que le processus X ou Y donnait les résultats A et B, mais il n’avait aucune idée du pourquoi, ni même de ce qu’était réellement ce processus.
Tunisino
L’IA n’est pas littéraire, elle est scientifique, d’où des logiques scientifiques sont à considérer. En formation, depuis toujours, les bases sont à mémoriser, pour aller vers l’avant. L’intelligence ne suffit pas, l’apprentissage et le travail sont primordiaux. L’IA elle-même, se base sur l’apprentissage pour la prédiction, la reconnaissance, la reproduction, et la décision. C’est quoi l’IA, des algorithmes mathématiques qui puisent dans des bases de données, en particulier pour générer du texte, de l’image, de l’audio, ou du vidéo. L’IA n’est pas parfaite, des erreurs sont toujours possibles, on parle de précision d’algorithme. Dans les institutions de référence en Tunisie, pas d’accidents durant l’évaluation, les appareils sont interdits et les surveillants sont vigilants, on peut même aller à brouiller la communication dans l’établissement. Maintenant pour les épreuves, l’enseignant est dans l’obligation de respecter le programme de formation (ingénierie de l’éducation) et les objectifs de la formation (science de l’éducation).
Fares
L’utilisation de machines à calculer étaient interdites pendant les épreuves dans le temps. Mais, l’IA est différente des machines à calculer.
L’IA ne remplace pas uniquement la mémorisation, mais elle remplace ce que nous appelons aujourd’hui l’ intelligence. Dans les sciences humaines, l’IA peut croiser un volume de données gigantesque et possède une capacité de synthèse qui excède celle du commun des mortels. En sciences exactes, on parle d’une IA qui remplacera des chercheurs en mathématiques et en physique. Mais certains affirment que l’IA est incapable de résoudre des problèmes mathématiques qui dépassent le niveau du secondaire ou du premier cycle universitaire. D’autres disciplines comme l’informatique ont été grandement affectées par l’IA où on demande aux ingénieurs des compétences qui dépassent la simple tâche de transcrire une solution simple en un langage de programmation ou de connaître quelques commandes pour déployer un système.
Certains parlent de la nécessité de savoir utiliser l’IA ou mieux encore savoir travailler avec elle. Est-ce-que cette discipline sera enseignée aux universités? Je ne pense pas, le cycle de vie d’un modèle IA est de 6 mois approximativement, une durée bien inférieure à celle d’un cursus universitaire typique. Les techniques d’une bonne utilisation de l’IA qu’on apprend aujourd’hui seront désuètes dans 6 mois. Est-ce qu’il y aura des universités dans 10 ans? Quel sera leur rôle ?
Une question qui est encore plus importante est celle de la souveraineté numérique. L’IA est principalement produite par des entreprises américaines. Ce pays est devenu voyou depuis l’accession de Trump au pouvoir. Ce dernier peut couper l’accès à l’IA à n’importe quel pays à tout moment sur simple un coup de tête. Une dépendance à l’IA n’est pas une très bonne idée pour certains pays qui sont juste des consommateurs de ses produits.
cbc
l’IA avant d’être utilisé elle doit être développé, par qui ? par ces étudiants futurs gestionnaires de données. L’article fait l’amalgame entre Faculté des Sciences et la FSEGT.
Vladimir Guez
L’IA actuelle n’est pas tres différente d’une machine a calculer. Elle a juste a sa disposition des quantités de données devenues gigantesques et de la puissance de calcul pour les traiter. Avec de tels moyens ça donne des résultats diaboliques .
C’est ce que semble penser Yann le Cun qui vient de partir de chez Meta parcequ’il n’était pas d’accord avec cette « IA » de singes savants sur entraînée.
Ce sont plus les progrès technologiques de Nvidia et du cloud qui ont fait émerger l’IA , que les progrès dans les modèles.
Sinon pour ton avertissement sur la souveraineté numérique, celle ci est a la portée de qui s’en donne les moyens.
Fares
Comment définissez vous un calcul? Un calcul est une transformation ou un transfert d’énergie contrôlé souvent par un mécanisme de rétroaction. Voir les écrits de Max Tegmark et Stephen Wolfram, entre autres. Dans un ordinateur, un logiciel ne fait que contrôler le mouvement d’électrons dans un semi conducteur, au niveau le plus bas. Nos cerveaux sont des calculateurs selon cette définition. Chacune de nos cellules est un ordinateur extrêmement sophistiqué. Il faut bien définir la notion de calcul avant de qualifier l’IA d’une machine à calculer. Les mathématiques derrière les LLMs sont simples certes, mais le passage à l’échelle a conduit à l’émergence de cette forme d’intelligence. Un jour l’IA courante s’auto optimisera. On aura des modèles plus petits ayant les mêmes capacités. Qui sait.