EduSpark: Plataforma de Aprendizaje Adaptativo con Tutoría por IA
Una plataforma de tutoría por IA que se adapta a cada estudiante. Construida con Flutter y un motor de recomendación personalizado — mejoró las puntuaciones de pruebas en un 34% y aseguró un contrato gubernamental.
+34%
Mejora en puntuaciones de pruebas
2.5x
Aumento de engagement
50
Escuelas (fase 2)
4.6/5
Satisfacción docente
El desafío
EduSpark quería replantear la tecnología educativa desde cero. Su insight fue simple pero poderoso: cada estudiante aprende de manera diferente, pero cada plataforma de edtech entrega el mismo contenido a todos. Los estudiantes que comprenden los conceptos rápidamente se aburren. Los estudiantes que luchan se quedan aún más atrás. El resultado es desenganche — el problema número uno en el aprendizaje digital.
Maya Patel, líder de producto de EduSpark, acudió a nosotros con un objetivo específico: construir una plataforma que se adapte en tiempo real a las fortalezas y debilidades de cada estudiante. No solo ajustando la dificultad — sino cambiando realmente el enfoque de enseñanza basado en cómo aprende el estudiante. Los aprendices visuales reciben diagramas. Los aprendices verbales reciben explicaciones. Los aprendices kinestésicos reciben simulaciones interactivas.
La plataforma necesitaba funcionar en iPads (usados en escuelas), tablets Android (usados en casa) y navegadores web (para paneles de maestros). El contenido cubrió matemáticas y ciencias para grados 6-10, inicialmente en inglés con localización al árabe planeada para la fase 2.
Nuestro enfoque
Elegimos Flutter para la aplicación orientada al estudiante — nos dio iPad, tablet Android y web desde una única base de código con rendimiento nativo en los tres. Para el panel del maestro, construimos una aplicación web Next.js separada que se conecta al mismo backend de Supabase, dando a los maestros visibilidad en tiempo real del progreso del estudiante.
El sistema de IA tiene tres capas. Capa 1: un motor de recomendación de contenido que selecciona la siguiente pregunta o lección basada en el gráfico de conocimiento del estudiante (qué saben, con qué luchan, qué aún no han visto). Capa 2: un sistema de calibración de dificultad que ajusta la complejidad del problema en tiempo real basado en la precisión de respuesta y el tiempo en tarea. Capa 3: un tutor de IA impulsado por LLM que proporciona pistas de estilo socrático cuando los estudiantes se quedan atascados.
El motor de recomendación utiliza un algoritmo de seguimiento de conocimiento modificado. Para cada estudiante, mantenemos un modelo probabilístico de su dominio en cada concepto del currículo. Cada pregunta respondida actualiza este modelo. El sistema entonces selecciona preguntas que enfoquen el límite entre lo conocido y lo desconocido — la zona de desarrollo próximo donde el aprendizaje es más efectivo.
El tutor de IA: haciendo que los LLMs funcionen en educación
El mayor desafío técnico fue el tutor de IA. Los LLMs tienden a simplemente dar respuestas, lo opuesto a una buena enseñanza. Diseñamos un sistema de prompting multicapa que obliga al modelo a entrar en modo socrático: puede hacer preguntas guía, proporcionar pistas que lleven hacia la respuesta, explicar conceptos usando analogías, pero absolutamente no puede revelar la respuesta directamente.
Construimos un pipeline de evaluación que prueba cada cambio de prompt contra 500 interacciones reales de estudiantes. Cada respuesta se califica en cinco dimensiones: valor educativo, calidad de pistas, fuga de respuesta (debe ser cero), adecuación a la edad y engagement. Solo los prompts que obtienen una puntuación superior al umbral en las cinco dimensiones se implementan.
El tutor también adapta su estilo de comunicación al perfil del estudiante. Para estudiantes que responden bien al estímulo, es más entusiasta. Para estudiantes que prefieren comunicación directa, es conciso y factual. Esta personalización se impulsa mediante datos de engagement: rastreamos qué estilos de respuesta se correlacionan con el esfuerzo continuo de cada estudiante.
Diseño para engagement, no solo para educación
Un error común en edtech es diseñar para maestros y esperar que los estudiantes sigan. Diseñamos para estudiantes primero. La aplicación utiliza una interfaz limpia inspirada en juegos con visualizaciones de progreso que se parecen más a una aplicación de fitness que a un libro de texto. Las rayas diarias, insignias de dominio y un mapa de conocimiento visual que muestra temas explorados versus no explorados mantienen a los estudiantes volviendo.
También construimos una función colaborativa donde los estudiantes pueden desafiar a sus compañeros a resolver problemas, con dificultad adaptativa que garantiza coincidencias justas independientemente del nivel de habilidad. Esta capa social resultó ser la característica de mayor engagement, con estudiantes utilizando voluntariamente la aplicación fuera del horario escolar para competir.
Resultados e impacto
EduSpark se pilotó en 3 escuelas con 450 estudiantes durante un año académico. Los resultados superaron las expectativas. Los estudiantes que usaban EduSpark mostraron una mejora del 34% en las puntuaciones de las pruebas en comparación con los grupos de control que utilizaban métodos de estudio tradicionales. Más impressionantemente, el tiempo de engagement de los estudiantes fue 2.5x superior al promedio de la industria para aplicaciones educativas.
Los maestros reportaron que el panel de control en tiempo real transformó su capacidad para identificar estudiantes con dificultades desde temprano. En lugar de esperar los resultados de las pruebas, podían ver qué estudiantes estaban atrapados en conceptos específicos ese día y proporcionar ayuda dirigida. Las puntuaciones de satisfacción de los maestros promediaron 4.6 de 5.
Con base en los resultados del piloto, EduSpark aseguró un contrato gubernamental para desplegar la plataforma en 50 escuelas durante el año académico 2025-2026. El contrato incluye localización al árabe y expansión a los grados 4-12. Actualmente estamos construyendo la fase 2 con EduSpark, agregando simulaciones de laboratorios de ciencias y un panel para padres.
Lecciones aprendidas
Los LLMs en educación requieren guardarraíles extremos. A diferencia de un chatbot donde una respuesta incorrecta es molesta, una IA de tutoría que da explicaciones matemáticas incorrectas es activamente perjudicial. Nuestro pipeline de evaluación fue la inversión más importante en todo el proyecto — y es lo que dio a las escuelas la confianza para desplegar.
La gamificación funciona, pero solo cuando sirve al aprendizaje. Probamos varias características de engagement durante el desarrollo y eliminamos cualquier cosa que aumentara el tiempo en la aplicación sin mejorar los resultados de aprendizaje. Las características que sobrevivieron — rachas, mapas de conocimiento, desafíos entre pares — todas se correlacionan directamente con un mejor desempeño en las pruebas.
Tech Stack
“Working with iHux felt like having a senior engineering team embedded in our company. They challenged our assumptions, improved our product thinking, and shipped a beautiful app.”
Maya Patel
Product Lead, EduSpark