Radio JudaïcaNew Tech - Un assistant IA pour chaque élève en difficulté
S06E24 - Judaica - Chronique New Tech - Un assistant IA pour chaque élève en Israël : l’école bascule dans le modèle du copilote
Bonjour à toutes et à tous,
L’école est en train de vivre un moment comparable à l’arrivée de la calculatrice. Sauf qu’ici, la machine ne calcule pas : elle discute, elle explique, elle insiste, elle s’adapte. En Israël, le ministère de l’Éducation teste un programme : un assistant IA personnel pour chaque élève.
Le programme s’appelle “720”. Il démarre en pilote : 28 établissements dans 15 collectivités, pour des élèves de CM2. Chaque enfant peut indiquer ses centres d’intérêt et sa façon d’apprendre, et l’outil construit un parcours individualisé, en repérant en temps réel forces et faiblesses.
Mais le point clé n’est pas l’élève. Le point clé, c’est l’enseignant. Car l’IA est aussi conçue comme un tableau de bord pédagogique : qui décroche, qui a besoin d’aide, qui peut aller plus vite. L’ambition implicite, c’est d’augmenter l’enseignant, pas de le remplacer.
Pourquoi ce pilote maintenant ? Parce que le ministère décrit un décalage : les élèves utilisent déjà l’IA, mais l’école ne fournit pas le cadre. Résultat : usage sans méthode, sans esprit critique, et souvent sans règle. Ce pilote, c’est une tentative de reprendre la main.
Et surtout, “720” ne sort pas de nulle part. Il s’inscrit dans une stratégie plus large : dès juillet 2025, le ministère et l’Israel Innovation Authority lançaient un “regulatory sandbox” IA/éducation, précisément pour tester des solutions d’apprentissage personnalisé directement en classe, avec un cadre d’expérimentation.
Traduction : l’État ne se contente pas d’autoriser l’IA à entrer à l’école ; il organise un environnement de test contrôlé.
Autre élément qui change la lecture : ce n’est pas la première initiative “un tuteur IA par élève”. En avril 2025, un autre pilote national avait été annoncé autour de tuteurs IA sous forme d’avatars conversationnels, via un partenariat CET / eSelf, avec une méthodologie d’évaluation mentionnée publiquement.
Donc on voit une trajectoire : d’abord des tuteurs IA, ensuite un dispositif ministériel plus intégré, plus “système”.
Dernier point : l’internationalisation. Début février 2026, la conférence EducAItion à Jérusalem a abouti à une déclaration commune sur l’intégration responsable de l’IA à l’école, signée par de nombreux pays, et relayée par des sources institutionnelles et événementielles.
Ce détail compte : cela place l’éducation dans la même logique que la santé ou la défense — un sujet de doctrine, pas un simple choix d’outil.
La promesse est évidente : personnaliser, réduire le décrochage, donner à chaque enfant un “coach” patient et disponible. Le risque est tout aussi évident : créer une nouvelle fracture — ceux qui savent dialoguer avec l’IA et ceux qui s’y perdent ; ceux qui copient et ceux qui apprennent ; ceux dont les données sont protégées et ceux dont l’école devient un capteur permanent.
Le vrai enjeu de ce pilote n’est donc pas technologique. Il est politique et pédagogique : qui fixe les règles, qui contrôle les modèles, ce qu’on autorise, ce qu’on interdit, et comment on forme des élèves capables d’utiliser l’IA sans se faire piloter par elle.
À la semaine prochaine !