Metodología de Fine-Tuning
Guía técnica exhaustiva para el entrenamiento de JavaTutor IA. Desde la curación del dataset hasta el despliegue del modelo cuantizado.
Guía técnica exhaustiva para el entrenamiento de JavaTutor IA. Desde la curación del dataset hasta el despliegue del modelo cuantizado.
No entrenamos con texto plano. Transformamos documentación técnica, ejercicios resueltos y grabaciones en pares de Instrucción / Respuesta altamente estructurados.
La clave es la "Deduplicación Semántica": eliminamos conceptos redundantes para que el modelo aprenda conceptos únicos con máxima eficiencia.
Implementamos PEFT (Parameter-Efficient Fine-Tuning) mediante LoRA. En lugar de actualizar todos los miles de millones de pesos, inyectamos pequeñas matrices de rango bajo en las capas lineales.
Esto reduce el uso de VRAM de 160GB a menos de 48GB, permitiendo entrenar en configuraciones multitarjeta RTX PRO 6000.
Convertimos los pesos de 16-bit a 4-bit NF4. Esta técnica de compresión extrema es vital para la inferencia en tiempo real sin sacrificar apenas precisión.
El nodo NVIDIA DGX SPARK (Architecture Blackwell) está diseñado específicamente para acelerar modelos cuantizados a 4-bit, duplicando el rendimiento de tokens por segundo.
No basta con darle libros a la IA. Tenemos que enseñarle cómo explicamos las cosas en clase. Convertimos ejercicios reales en un formato que la IA entiende como una conversación entre profesor y alumno.
¿Cómo haría un alumno esta consulta en el aula?
¿Cómo respondería un profesor para guiar sin dar la solución?
{
"pregunta": "¿Por qué mi código Java no compila?",
"contexto": "Alumno de 1º DAM",
"respuesta_tutor": "Fíjate en la línea 5. ¿Ves algo diferente en el punto y coma? En el Simarro siempre revisamos la sintaxis antes del algoritmo..."
}
Usamos un pequeño programa (Python) que hace el trabajo sucio: lee miles de documentos, quita lo que no sirve (publicidad, menús web) y se queda solo con el conocimiento puro de programación.
Imagina una "caja fuerte digital" donde metemos todas las herramientas necesarias. Esto nos asegura que el entrenamiento funcione igual en cualquier ordenador potente del centro, sin errores de instalación.
Aquí es donde la magia ocurre. La IA lee el dataset miles de veces hasta que aprende a hablar como un profesor. Usamos tarjetas gráficas (GPUs) ultra-potentes para acelerar meses de estudio en pocas horas.
Una vez entrenado, el "Cerebro" de la IA se conecta a una aplicación sencilla que los alumnos tienen en su ordenador.
Sin esperas: Responde en menos de 1 segundo.
Dudas 24/7: El tutor está disponible siempre, incluso en casa.
Privado: Todo se queda en el servidor del IES Simarro.
El resultado final es un archivo ligero que se ejecuta en cualquier servidor moderno. Es la culminación de un proceso de ingeniería de datos hecho por y para el IES Simarro.