EduSpark: Plateforme d'apprentissage adaptatif avec tutorat IA
Une plateforme de tutorat IA qui s'adapte à chaque étudiant. Construite avec Flutter et un moteur de recommandation personnalisé — a amélioré les résultats des tests de 34 % et a sécurisé un contrat gouvernemental.
+34%
Amélioration des résultats des tests
2.5x
Augmentation de l'engagement
50
Écoles (phase 2)
4.6/5
Satisfaction des enseignants
Le défi
EduSpark voulait repenser la technologie éducative de zéro. Leur intuition était simple mais puissante : chaque étudiant apprend différemment, pourtant chaque plateforme edtech fournit le même contenu à tout le monde. Les étudiants qui comprennent les concepts rapidement s'ennuient. Les étudiants qui ont du mal prennent du retard. Le résultat est le désengagement — le problème numéro un de l'apprentissage numérique.
Maya Patel, responsable des produits chez EduSpark, est venue nous voir avec un objectif spécifique : construire une plateforme qui s'adapte en temps réel aux forces et faiblesses de chaque étudiant. Pas seulement en ajustant la difficulté — en changeant réellement l'approche pédagogique en fonction de la façon dont l'étudiant apprend. Les apprenants visuels reçoivent des diagrammes. Les apprenants verbaux reçoivent des explications. Les apprenants kinesthésiques reçoivent des simulations interactives.
La plateforme devait fonctionner sur les iPads (utilisés dans les écoles), les tablettes Android (utilisées à la maison) et les navigateurs web (pour les tableaux de bord des enseignants). Le contenu couvrait les mathématiques et les sciences pour les classes 6 à 10, initialement en anglais avec une localisation en arabe prévue pour la phase 2.
Notre approche
Nous avons choisi Flutter pour l'application destinée aux étudiants — cela nous a permis d'avoir iPad, tablette Android et web à partir d'une seule base de code avec une performance semblable à celle d'une application native sur les trois. Pour le tableau de bord des enseignants, nous avons construit une application web Next.js distincte qui se connecte au même backend Supabase, donnant aux enseignants une visibilité en temps réel sur la progression des étudiants.
Le système d'IA a trois couches. Couche 1 : un moteur de recommandation de contenu qui sélectionne la prochaine question ou leçon en fonction du graphe de connaissances de l'étudiant (ce qu'il sait, ce avec quoi il a du mal, ce qu'il n'a pas encore vu). Couche 2 : un système d'étalonnage de la difficulté qui ajuste la complexité des problèmes en temps réel en fonction de la précision des réponses et du temps passé sur la tâche. Couche 3 : un tuteur IA alimenté par un LLM qui fournit des indices de style socratique quand les étudiants sont bloqués.
Le moteur de recommandation utilise un algorithme de suivi des connaissances modifié. Pour chaque étudiant, nous maintenons un modèle probabiliste de sa maîtrise de chaque concept du programme d'études. Chaque question répondue met à jour ce modèle. Le système sélectionne ensuite les questions qui ciblent la frontière entre le connu et l'inconnu — la zone de développement proximal où l'apprentissage est le plus efficace.
Le tuteur IA : faire fonctionner les LLM dans l'éducation
Le plus grand défi technique était le tuteur IA. Les LLM ont tendance à donner simplement les réponses — le contraire d'un bon enseignement. Nous avons conçu un système d'invite multi-couches qui force le modèle en mode socratique : il peut poser des questions directrices, fournir des indices qui mènent vers la réponse, expliquer les concepts à l'aide d'analogies, mais il ne peut absolument pas révéler la réponse directement.
Nous avons construit un pipeline d'évaluation qui teste chaque modification d'invite par rapport à 500 interactions réelles d'étudiants. Chaque réponse est notée selon cinq dimensions : valeur éducative, qualité des indices, fuite de réponse (doit être zéro), pertinence pour l'âge et engagement. Seules les invites qui dépassent le seuil sur les cinq dimensions sont déployées.
Le tuteur adapte également son style de communication au profil de l'étudiant. Pour les étudiants qui réagissent bien aux encouragements, il est plus enthousiaste. Pour les étudiants qui préfèrent une communication directe, il est concis et factuel. Cette personnalisation est basée sur les données d'engagement — nous suivons quels styles de réponse correspondent à un effort continu pour chaque étudiant.
Concevoir pour l'engagement, pas seulement pour l'éducation
Une erreur courante dans l'edtech est de concevoir pour les enseignants en espérant que les étudiants suivront. Nous avons conçu d'abord pour les étudiants. L'application utilise une interface épurée inspirée des jeux vidéo avec des visualisations de progression qui ressemblent plus à une application de fitness qu'à un manuel scolaire. Les séries quotidiennes, les badges de maîtrise et une carte visuelle des connaissances montrant les sujets explorés par rapport aux sujets inexpllorés maintiennent les étudiants engagés.
Nous avons également construit une fonctionnalité collaborative où les étudiants peuvent défier leurs camarades de classe à résoudre des problèmes — avec une difficulté adaptative assurant des matchs équitables quel que soit le niveau de compétence. Cette couche sociale s'est avérée être la fonction avec le plus haut engagement, les étudiants utilisant volontairement l'application en dehors des heures scolaires pour rivaliser.
Résultats et impact
EduSpark a été testé dans 3 écoles avec 450 étudiants sur un trimestre académique. Les résultats ont dépassé les attentes. Les étudiants utilisant EduSpark ont montré une amélioration de 34 % dans les scores aux tests par rapport aux groupes de contrôle utilisant des méthodes d'étude traditionnelles. Plus impressionnant encore, le temps d'engagement des étudiants était 2,5 fois supérieur à la moyenne de l'industrie pour les applications éducatives.
Les enseignants ont rapporté que le tableau de bord en temps réel a transformé leur capacité à identifier rapidement les étudiants en difficulté. Au lieu d'attendre les résultats des tests, ils pouvaient voir quels étudiants étaient bloqués sur des concepts spécifiques ce jour-là et fournir une aide ciblée. Les scores de satisfaction des enseignants ont en moyenne atteint 4,6 sur 5.
Grâce à ces résultats pilotes, EduSpark a remporté un contrat gouvernemental pour déployer la plateforme dans 50 écoles au cours de l'année académique 2025-2026. Le contrat comprend la localisation en arabe et l'expansion aux classes 4-12. Nous construisons actuellement la phase 2 avec EduSpark, en ajoutant des simulations de laboratoires scientifiques et un tableau de bord pour les parents.
Leçons apprises
Les LLM dans l'éducation nécessitent des garde-fous extrêmes. Contrairement à un chatbot où une mauvaise réponse est ennuyeuse, une IA de tutorat qui donne des explications mathématiques incorrectes est activement nuisible. Notre pipeline d'évaluation a été l'investissement le plus important de l'ensemble du projet — et c'est ce qui a donné aux écoles la confiance de déployer.
La gamification fonctionne, mais seulement quand elle sert l'apprentissage. Nous avons testé plusieurs fonctionnalités d'engagement lors du développement et avons supprimé tout ce qui augmentait le temps d'utilisation sans améliorer les résultats d'apprentissage. Les fonctionnalités qui ont survécu — les séries, les cartes de connaissances, les défis entre pairs — se corrèlent tous directement avec une meilleure performance aux tests.
Tech Stack
“Working with iHux felt like having a senior engineering team embedded in our company. They challenged our assumptions, improved our product thinking, and shipped a beautiful app.”
Maya Patel
Product Lead, EduSpark