Tribune de Solenne Savoia — EdTech Actu, 29 avril 2026
Une décision de justice qui interroge l’ensemble du secteur
En octobre 2025, l’université Paris 1 Panthéon-Sorbonne engageait des poursuites disciplinaires contre une étudiante de Master 2 ayant recouru à l’IA générative pour rédiger son mémoire. Le 12 février 2026, le tribunal administratif de Paris a rendu son verdict : l’université ne produit « aucun élément relatif aux règles encadrant l’utilisation de l’intelligence artificielle par les étudiants dans le cadre de leurs travaux académiques ». Faute de cadre juridiquement opposable, elle est déboutée.
Ce cas, aussi médiatisé que révélateur, dépasse le cadre de la Sorbonne. Il pose une question que chaque établissement d’enseignement, du lycée à l’université, en passant par les organismes de formation, doit désormais se poser : dispose-t-il d’une politique claire sur l’usage de l’IA ?
Trois raisons structurelles d’agir sans attendre
Solenne Savoia, cofondatrice du Frankie Institute et ancienne responsable de la formation en IA responsable au Mila, identifie trois dynamiques qui rendent urgente la mise en place d’une gouvernance institutionnelle de l’IA.
1. L’érosion symétrique de la confiance
La relation pédagogique repose sur un contrat implicite : l’élève expose ses lacunes, l’enseignant s’engage à le guider. L’IA générative, déployée sans cadre, fragilise ce pacte des deux côtés. Les travaux de Rebecca Winthrop à la Brookings Institution indiquent que près de la moitié des étudiants perçoivent négativement l’usage que font leurs professeurs de l’IA, notamment pour évaluer et noter. En miroir, les enseignants doutent de plus en plus de l’authenticité des travaux rendus. Cette défiance croisée, si elle n’est pas encadrée, rend l’apprentissage difficile.
2. Le risque de court-circuit cognitif
L’auteure introduit la notion de « délégation cognitive » pour qualifier le recours à l’IA chez les jeunes apprenants. Contrairement aux adultes qui délèguent des compétences déjà acquises, un étudiant qui confie sa dissertation à un outil génératif empêche une compétence de se construire. Une étude publiée en 2025 dans la revue Frontiers of Psychology le confirme : si les résultats immédiats s’améliorent avec l’assistance de l’IA, les performances s’effondrent dès que l’outil est retiré. Par ailleurs, les chatbots sont « sycophantiques par design », ce qui veut dire qu’ils ne contredisent pas, ne challengent pas, et appauvrissent ainsi la dimension sociale et contradictoire de l’apprentissage.
3. L’équité comme angle mort
Sans règles communes, des inégalités inédites apparaissent. Un étudiant qui choisit de ne pas utiliser l’IA par souci d’apprentissage réel peut se retrouver pénalisé face à des camarades qui y ont massivement recours. Dans un système où les notes conditionnent l’accès aux masters, aux stages et à l’emploi, cette asymétrie n’est pas anodine. Le cas de la Sorbonne illustre également une injustice inter-établissements : un même comportement peut mener à l’exclusion dans un contexte cadré, et à l’acquittement dans un autre qui ne l’est pas.
Vers une gouvernance à deux niveaux
Solenne Savoia plaide pour une double réponse : d’abord, que chaque établissement se dote d’une stratégie explicite et d’un cadre opposable définissant où l’IA a sa place… et où elle n’en a pas. Ensuite, que cette démarche s’inscrive dans une politique nationale cohérente, seule à même de garantir une équité de traitement entre les apprenants, quel que soit leur établissement.
De l’UNESCO à l’OCDE, en passant par la coalition TeachAI, les grands rapports de référence publiés ces derniers mois convergent vers le même constat : les risques de l’IA générative en éducation dépassent ses bénéfices si elle est déployée sans stratégie ni gouvernance.
Retrouvez la tribune complète sur EdTech Actu. Solenne Savoia accompagne des dirigeants et leurs équipes dans l’adoption et la gouvernance de l’IA au sein du Frankie Institute.
