EN RESUMEN:

Las escuelas de California están utilizando más chatbots y los profesores los utilizan para calificar trabajos y dar retroalimentación a los estudiantes.

Read this story in English

Sus hijos podrían ser parte del creciente número de niños de California cuya escritura es calificada por software en lugar de por un maestro.

Los distritos escolares de California están firmando más contratos para herramientas de inteligencia artificial, desde calificaciones automatizadas en San Diego hasta chatbots en el centro de California, Los Ángeles y el Área de la Bahía de San Francisco. 

Los profesores de inglés dicen que las herramientas de inteligencia artificial pueden ayudarlos a calificar trabajos más rápido, obtener más comentarios de los estudiantes y mejorar su experiencia de aprendizaje. Pero las pautas son vagas y la adopción por parte de los maestros y los distritos es irregular. 

El Departamento de Educación de California no puede decirle qué escuelas utilizan IA ni cuánto pagan por ella. El estado no rastrea el uso de la IA por parte de los distritos escolares, dijo Katherine Goyette, coordinadora de informática del Departamento de Educación de California. 

Si bien Goyette dijo que los chatbots son la forma más común de IA que ha encontrado en las escuelas, cada vez más maestros de California utilizan herramientas de IA para ayudar a calificar el trabajo de los estudiantes. Esto es consistente con encuestas que han encontrado que los maestros usan la IA con tanta frecuencia, si no más, que los estudiantes, noticia que contrasta marcadamente con los titulares sobre los temores de que los estudiantes hagan trampa con la IA.  

Los profesores utilizan la IA para hacer cosas como personalizar el material de lectura, crear planes de lecciones y otras tareas para ahorrar tiempo y reducir el agotamiento. Un informe publicado el otoño pasado en respuesta a una orden ejecutiva sobre IA del gobernador Gavin Newsom menciona oportunidades para utilizar la IA para tutoría, resúmenes y generación de contenido personalizado, pero también califica la educación como un caso de uso riesgoso. Se sabe que las herramientas de IA generativa crean respuestas convincentes pero inexactas a las preguntas y utilizan lenguaje tóxico o imágenes cargadas de racismo o sexismo.

California emitió una guía sobre cómo los educadores deben usar la tecnología el otoño pasado, uno de los siete estados que lo hacen. Fomenta el análisis crítico de textos e imágenes creados por modelos de IA y conversaciones entre profesores y estudiantes sobre lo que equivale a un uso ético o apropiado de la IA en el aula.

Pero no se hace ninguna mención específica sobre cómo los profesores deberían tratar la IA que califica las tareas. Además, el código de educación de California establece que la orientación del estado es “meramente ejemplar y que el cumplimiento de las pautas no es obligatorio”.

La profesora de inglés Jen Roberts utiliza Writeable, una plataforma de inteligencia artificial, para calificar el trabajo de los estudiantes en la escuela secundaria Point Loma en San Diego el 3 de mayo de 2024. Foto de Adriana Heldiz, CalMatters

Goyette dijo que está esperando a ver si la Legislatura de California aprueba el Proyecto de Ley Senatorial 1288, que requeriría que el superintendente estatal Tony Thurmond cree un grupo de trabajo sobre IA para emitir más orientación a los distritos escolares locales sobre cómo utilizar la IA de forma segura. Copatrocinado por Thurmond, el proyecto de ley también exige una evaluación del estado actual de la IA en la educación y la identificación de formas de IA que pueden dañar a estudiantes y educadores para 2026.

Nadie rastrea qué herramientas de inteligencia artificial están adoptando los distritos escolares o la política que utilizan para hacer cumplir los estándares, dijo Alix Gallagher, directora de asociaciones estratégicas del centro de Análisis de Políticas para la Educación de California de la Universidad de Stanford. Dado que el estado no rastrea el plan de estudios que adoptan los distritos escolares ni el software en uso, sería muy inusual que rastrearan los contratos de IA, dijo.

En medio de la exageración de la IA, Gallagher cree que la gente puede perder de vista el hecho de que la tecnología es sólo una herramienta y que sólo será tan buena o problemática como las decisiones de los humanos que utilizan esa herramienta, por lo que insta repetidamente a invertir para ayudar a los profesores a comprender las herramientas de inteligencia artificial y cómo considerar su uso y crear espacio para las comunidades reciben voz sobre cómo satisfacer mejor las necesidades de sus hijos.

“Algunas personas probablemente tomarán algunas decisiones bastante malas que no son lo mejor para los niños, y otras personas podrían encontrar maneras de utilizar tal vez incluso las mismas herramientas para enriquecer las experiencias de los estudiantes”, dijo.

Los profesores utilizan IA para calificar trabajos en inglés

El verano pasado, Jen Roberts, profesora de inglés en Point Loma High School en San Diego, asistió a una sesión de capacitación para aprender a usar Writable, una herramienta de inteligencia artificial que automatiza la calificación de tareas de escritura y brinda a los estudiantes comentarios impulsados ​​por OpenAI. Durante el año escolar pasado, Roberts utilizó Writable y otras herramientas de inteligencia artificial en el aula, y dijo que ha sido el mejor año hasta ahora en casi tres décadas de enseñanza. Roberts dijo que ha convertido a sus alumnos en mejores escritores, no porque la IA haya escrito por ellos, sino porque la retroalimentación automatizada puede decirles a sus alumnos más rápido que ella cómo mejorar, lo que a su vez le permite repartir más tareas de escritura.  

“A esta altura del año pasado, muchos estudiantes todavía tenían dificultades para escribir un párrafo, y mucho menos un ensayo con evidencia, afirmaciones, razonamiento, explicación, elaboración y todo eso”, dijo Roberts. “Este año, simplemente están llegando más rápido”.

Roberts considera que Writable es “muy preciso” al calificar a sus alumnos con aptitud promedio. Pero, dijo, hay una desventaja: a veces asigna a los estudiantes de alto rendimiento calificaciones más bajas que las merecidas y a los estudiantes con dificultades, calificaciones más altas. Dijo que comprueba habitualmente las respuestas cuando la IA califica las tareas, pero que sólo comprueba la retroalimentación que les da a los estudiantes ocasionalmente. 

“En la práctica, no me fijo en la retroalimentación que le brinda a cada estudiante”, dijo. “Ese simplemente no es un gran uso de mi tiempo. Pero hago muchas comprobaciones puntuales y veo lo que está pasando, y si veo que un estudiante que me preocupa recibe comentarios, (digo): ‘Déjame ver cuáles son sus comentarios y luego hablar con él’. él sobre eso’”.

Alex Rainey enseña inglés a alumnos de cuarto grado en Chico Country Day School en el norte de California. Utilizó GPT-4, un modelo de lenguaje creado por OpenAI que cuesta 20 dólares al mes, para calificar trabajos y proporcionar comentarios. Después de cargar su rúbrica de calificación y ejemplos de sus comentarios escritos, utilizó IA para calificar tareas sobre mecanismos de defensa animal, lo que permitió a GPT-4 analizar la gramática y la estructura de las oraciones de los estudiantes mientras ella se concentraba en evaluar la creatividad.

“Siento que la retroalimentación que me dio fue muy similar a la forma en que califico a mis hijos, como si mi cerebro estuviera conectado a eso”, dijo.

Al igual que Roberts, descubrió que ahorra tiempo, transformando el trabajo que tomaba horas en menos de una hora, pero también descubrió que a veces GPT-4 es un evaluador más duro que ella. Ella está de acuerdo en que una retroalimentación más rápida y la capacidad de repartir más tareas de escritura producen mejores escritores. Un maestro puede asignar más escritura antes de dar retroalimentación, pero “entonces los niños no tendrán nada de qué crecer”.

Rainey dijo que su experiencia al calificar con GPT-4 la dejó de acuerdo con Roberts en que más comentarios y escritura a menudo producen mejores escritores. Ella cree firmemente que los profesores todavía necesitan supervisar las calificaciones y la retroalimentación mediante la IA, “pero creo que es sorprendente. No podría retroceder ahora”.

El coste de utilizar la IA en el aula

Los contratos que involucran inteligencia artificial pueden ser lucrativos. 

Para lanzar un chatbot llamado Ed, el Distrito Escolar Unificado de Los Ángeles firmó un contrato de $6.2 millones por dos años con la opción de renovar por tres años adicionales. Los educadores de Los Ángeles utilizan Magic School AI y cuesta 100 dólares por profesor al año. 

A pesar de las repetidas llamadas y correos electrónicos durante aproximadamente un mes, Writable y el Distrito Escolar Unificado de San Diego se negaron a compartir detalles de precios con CalMatters. Un portavoz del distrito dijo que los maestros obtuvieron acceso a Writeable a través de un contrato con Houghton Mifflin Harcourt para estudiantes de inglés. 

QuillBot es una herramienta de escritura impulsada por inteligencia artificial para estudiantes de cuarto a doceavo grado creada por la empresa Quill. Quill afirma que su herramienta se utiliza actualmente en 1,000 escuelas de California y tiene más de 13,000 usuarios de estudiantes y educadores sólo en San Diego. Una suscripción anual a Quill Premium cuesta $80 por maestro o $1,800 por escuela.

QuillBot no genera escritura para los estudiantes como ChatGPT o tareas de escritura de grado, pero les brinda a los estudiantes retroalimentación sobre su escritura. Quill es una organización sin fines de lucro que ha recaudado 20 millones de dólares de grupos como la fundación benéfica de Google y la Fundación Bill y Melinda Gates durante los últimos 10 años.

La profesora de inglés Jen Roberts explica a sus alumnos cómo utiliza Magic School, una plataforma de inteligencia artificial, para ejercicios en el aula y calificaciones en Point Loma High School en San Diego el 3 de mayo de 2024. Foto de Adriana Heldiz, CalMatters

Incluso si un maestro o un distrito quiere desembolsar dinero por una herramienta de inteligencia artificial, aún se están elaborando pautas para un uso seguro y responsable. 

Los gobiernos están colocando etiquetas de alto riesgo a formas de IA con el poder de tomar decisiones críticas sobre si una persona consigue un trabajo, alquila un departamento o recibe beneficios gubernamentales. El presidente de la Federación de Maestros de California, Jeff Freitas, dijo que no ha considerado si la IA para calificar tiene un riesgo moderado o alto, pero “definitivamente es un riesgo usarla para calificar”.

La Federación de Maestros de California es un sindicato con 120,000 miembros. Freitas dijo a CalMatters que le preocupa que la IA tenga varias consecuencias en el aula. Le preocupa que los administradores puedan usarlo para justificar el aumento del tamaño de las aulas o la carga de trabajo de los docentes; le preocupa el cambio climático y la cantidad de energía necesaria para entrenar e implementar modelos de IA; le preocupa proteger la privacidad de los estudiantes y le preocupa el sesgo de automatización.

Los reguladores de todo el mundo que luchan con la IA elogian los enfoques en los que se utiliza para aumentar la toma de decisiones humana en lugar de reemplazarla. Pero es difícil para las leyes tener en cuenta el sesgo de la automatización y el hecho de que los humanos confíen demasiado en las máquinas.

La Federación Estadounidense de Maestros creó un grupo de trabajo sobre IA en octubre de 2023 para proponer orientaciones sobre cómo los educadores deberían utilizar la tecnología o hablar de ella en las negociaciones colectivas. Freitas dijo que esas pautas se publicarán en las próximas semanas.

“Estamos tratando de proporcionar pautas para que los educadores no dependan únicamente de (la IA), dijo. “Se debe utilizar como una herramienta y no se debe perder el análisis crítico de lo que produce para uno”. 

Directrices estatales de IA para profesores

Goyette, coordinadora de informática del departamento de educación, ayudó a crear directrices estatales sobre IA y habla con las oficinas de educación del condado para la capacitación presencial sobre IA para educadores. También ayudó a crear una serie de capacitación en inteligencia artificial en línea para educadores. Dijo que el curso en línea más popular es sobre flujo de trabajo y eficiencia, que muestra a los profesores cómo automatizar la planificación y calificación de lecciones.

“Los maestros tienen un trabajo increíblemente importante y difícil, y lo más importante es que están construyendo relaciones con sus estudiantes”, dijo. “Hay décadas de investigación que hablan del poder de esto, por lo que si pueden ahorrar tiempo en tareas mundanas para poder pasar más tiempo con sus estudiantes, eso es una victoria”.

Alex Kotran, director ejecutivo de una organización educativa sin fines de lucro que cuenta con el apoyo de Google y OpenAI, dijo que descubrieron que es difícil diseñar un modelo de lenguaje que coincida de manera predecible con la forma en que un maestro califica los trabajos.

Habló con profesores dispuestos a aceptar un modelo que sea preciso el 80 % de las veces para poder cosechar la recompensa del tiempo ahorrado, pero cree que probablemente sea seguro decir que un estudiante o un padre querría asegurarse de que se utilice un modelo de IA para calificar es aún más preciso.

Kotran, del AI Education Project, cree que tiene sentido que los distritos escolares adopten una política que diga que los profesores deben tener cuidado cada vez que utilicen herramientas de IA que puedan tener efectos dispares en la vida de los estudiantes. 

Incluso con una política de este tipo, los docentes aún pueden ser víctimas de confiar en la IA sin lugar a dudas. E incluso si el estado hiciera un seguimiento de la IA utilizada por los distritos escolares, todavía existe la posibilidad de que los profesores compren tecnología para usarla en sus computadoras personales.

Kotran dijo que habla habitualmente con educadores en todo Estados Unidos y no conoce ningún estudio sistemático para verificar la efectividad y consistencia de la IA para calificar trabajos en inglés.

Cuando los profesores no pueden saber si están haciendo trampa

Roberts, la maestra de Point Loma High School, se describe a sí misma como una profesional de la tecnología. 

Escribe y habla regularmente sobre IA. Sus experiencias la han llevado a la opinión de que calificar con IA es lo mejor para sus alumnos, pero no llegó fácilmente a esa conclusión. 

Al principio se preguntó si el uso de la IA para calificar y recibir comentarios podría perjudicar su comprensión de sus alumnos. Hoy ve el uso de la IA como el entrenador de cross-country que viaja junto a los estudiantes atletas en un carrito de golf, como una ayuda que la ayuda a asistir mejor a sus estudiantes.

Un estudiante hojea su computadora portátil durante una clase en la escuela secundaria Point Loma en San Diego el 3 de mayo de 2024. Foto de Adriana Heldiz, CalMatters

Roberts dice que el profesor de inglés promedio de una escuela secundaria en su distrito tiene aproximadamente 180 estudiantes. La calificación y la retroalimentación pueden tomar entre cinco y 10 minutos por tarea, dice, por lo que entre la enseñanza, las reuniones y otras tareas, puede tomar de dos a tres semanas para que la retroalimentación vuelva a estar en manos de los estudiantes, a menos que un maestro decida renunciar a grandes partes de sus fines de semana. Con la IA, a Roberts le lleva uno o dos días.

Finalmente concluyó que “si mis alumnos están creciendo como escritores, entonces no creo que esté haciendo trampa”. Ella dice que la IA reduce su fatiga, dándole más tiempo para concentrarse en los estudiantes con dificultades y brindándoles comentarios más detallados.

“Mi trabajo es asegurarme de que crezcas y de que seas un adulto sano, feliz y alfabetizado cuando te gradúes de la escuela secundaria, y usaré cualquier herramienta que me ayude a lograrlo, y no voy a “No nos obsesionemos con los aspectos morales de eso”, dijo. “Mi trabajo no es pasar todos los sábados leyendo ensayos. Demasiados profesores de inglés trabajan demasiadas horas a la semana porque califican a los estudiantes a la antigua usanza”.

Roberts también cree que la IA podría ser un evaluador menos sesgado en algunos casos que los profesores humanos, quienes a veces pueden ajustar sus calificaciones para los estudiantes para darles el beneficio de la duda o ser punitivos si recientemente fueron particularmente molestos en clase.

No le preocupa que los estudiantes hagan trampa con la IA, una preocupación que ella caracteriza como pánico moral. Ella señala un estudio de la Universidad de Stanford, publicado el otoño pasado, que encontró que los estudiantes hacían tantas trampas antes de la llegada de ChatGPT así como un año después del lanzamiento de la IA. 

Goyette dijo que entiende por qué los estudiantes se preguntan si el uso de la IA por parte de los profesores es como hacer trampa. Las directrices de IA del departamento de educación alientan a profesores y estudiantes a utilizar más la tecnología. Lo que es esencial, dijo Goyette, es que los maestros discutan cómo es el uso ético de la IA en su salón de clases y transmitan que, cómo usar una calculadora en la clase de matemáticas, se acepta o fomenta el uso de la IA para algunas tareas y no para otras. 

Para la última tarea del año, Robers tiene un último experimento que realizar: editar un ensayo escrito íntegramente por IA. Pero deben cambiar al menos el 50% del texto, hacerlo un 25% más largo, escribir su propia tesis y agregar citas del material de lectura del aula. La idea, dijo, es prepararlos para un futuro en el que la IA escriba el primer borrador y los humanos editen los resultados para adaptarlos a sus necesidades. 

“Antes no se te permitía traer una calculadora a los SAT y ahora se supone que debes traerla para que las cosas cambien”, dijo. “Es sólo pánico moral. Las cosas cambian y la gente se asusta y eso es lo que está pasando”.

Khari Johnson is part of the tech team and is CalMatters’ first tech reporter. He has covered artificial intelligence for nearly a decade and previously worked at WIRED, VentureBeat, and Imperial Beach...