Recientemente tuve la grata oportunidad de participar en un programa llamado Skype a Scientist , que conecta a científicos de diversos tipos (biólogos, botánicos, ingenieros, informáticos, etc.) con aulas de niños para hablar sobre nuestro trabajo y responder a sus preguntas. Estoy bastante familiarizado con las conversaciones sobre IA y aprendizaje automático con público adulto, pero esta es la primera vez que me detengo a pensar en cómo hablar con niños sobre este tema, y ha sido un reto interesante. Hoy compartiré algunas de las ideas que se me han ocurrido durante el proceso, que pueden ser útiles para quienes tengan hijos en sus vidas.
Preparándose para explicar algo
Tengo algunas reglas generales que sigo al preparar cualquier charla, para cualquier público. Necesito tener muy claro qué información quiero transmitir y qué novedades debería saber el público al terminar, ya que esto influye en la información que voy a compartir. También quiero presentar mi material con un nivel de complejidad adecuado a los conocimientos previos del público: sin subestimarlos, pero tampoco desbordarlos.
En mi día a día, no siempre estoy al día con lo que los niños ya saben (o creen saber) sobre IA. Quiero que mis explicaciones se adapten al nivel de la audiencia, pero en este caso tengo una visión algo limitada de sus perspectivas. En algunos casos, me ha sorprendido que los niños fueran bastante conscientes de aspectos como la competencia en IA entre empresas y a través de fronteras internacionales. Un ejercicio útil para decidir cómo enmarcar el contenido es idear metáforas que utilicen conceptos o tecnologías con los que la audiencia ya esté muy familiarizada. Reflexionar sobre esto también te da una idea de la perspectiva de la audiencia. Además, prepárate para cambiar y ajustar el enfoque de tu presentación si determinas que no estás alcanzando el nivel adecuado. Me gusta preguntarles a los niños un poco sobre su opinión y conocimientos sobre IA al principio, para poder empezar a tener esa claridad antes de avanzar demasiado.
Entendiendo la tecnología
Con los niños en particular, tengo varios temas que quiero abordar en mis presentaciones. Los lectores habituales sabrán que soy un gran defensor de que se enseñe a los usuarios comunes para qué se entrenan los LLM y otros modelos de IA , y cuáles son sus datos de entrenamiento, ya que esto es vital para que podamos establecer expectativas realistas sobre los resultados de los modelos. Creo que es fácil para cualquiera, incluidos los niños, dejarse llevar por la naturaleza antropomórfica del tono, la voz e incluso la "personalidad" de los LLM y perder de vista las limitaciones reales de lo que estas herramientas pueden hacer.
Es un reto simplificarlo lo suficiente para que sea apropiado para cada edad, pero una vez que se les explica cómo funciona el entrenamiento y cómo un LLM aprende al ver ejemplos de material escrito, o cómo un modelo de difusión aprende de pares texto-imagen, pueden intuir los resultados. A medida que los agentes de IA se vuelven más complejos y los mecanismos subyacentes se vuelven más difíciles de distinguir, es importante que los usuarios conozcan los componentes básicos que conducen a esta capacidad.
Personalmente, empiezo explicando el entrenamiento como un concepto general, evitando al máximo la jerga técnica. Al hablar con niños, un lenguaje un poco antropomorfizante puede ayudar a que las cosas parezcan menos misteriosas. Por ejemplo, «damos a las computadoras mucha información y les pedimos que aprendan los patrones que contienen». A continuación, describiré ejemplos de patrones como los del lenguaje o los píxeles de una imagen, ya que «patrones» por sí solo es demasiado general y vago. Después, «esos patrones que aprende se escriben mediante matemáticas, y esas matemáticas son lo que está dentro de un 'modelo'. Ahora, cuando le damos nueva información al modelo, nos envía una respuesta basada en los patrones que aprendió». A partir de ahí, doy otro ejemplo completo y explico el proceso de un entrenamiento simplificado (normalmente un modelo de series temporales, ya que es bastante fácil de visualizar). Después, profundizaré en los diferentes tipos de modelos y explicaré las diferencias entre las redes neuronales y los modelos de lenguaje, según sea apropiado para el público.
Ética y externalidades de la IA
También quiero abordar cuestiones éticas relacionadas con la IA. Creo que los niños de primaria o secundaria, en adelante, son perfectamente capaces de comprender el impacto ambiental y social que puede tener la IA. Me parece que muchos niños de hoy tienen una comprensión bastante avanzada del cambio climático global y la crisis ambiental, por lo que hablar de la cantidad de energía, agua y minerales raros que se requiere para operar los LLM no es descabellado. Simplemente es importante que las explicaciones sean accesibles y apropiadas para cada edad. Como mencioné antes, utilice ejemplos que sean fáciles de entender y que conecten con las experiencias vividas de su público.
He aquí un ejemplo de cómo pasar de la experiencia infantil al impacto ambiental de la IA.
Entonces, ¿todos tienen Chromebooks para hacer las tareas? ¿Alguna vez les ha pasado que, al trabajar con la laptop en el regazo durante mucho tiempo, la parte trasera se calienta? ¿Quizás si tienen muchos archivos abiertos o ven muchos videos? Ese calentamiento es similar al que ocurre en los servidores, computadoras grandes que se ejecutan cuando se entrena o se usa un LLM, como cuando se visita el sitio web de chatGPT.
Los centros de datos que mantienen en funcionamiento chatGPT están llenos de servidores que funcionan simultáneamente y se calientan muchísimo, lo cual perjudica a la maquinaria. Por lo tanto, a veces estos centros de datos utilizan agua fría y algunos productos químicos, que se canalizan a través de tuberías que recorren todos los servidores. Esto ayuda a enfriar las máquinas y a mantenerlas en funcionamiento. Sin embargo, esto implica el uso de una gran cantidad de agua, mezclada con productos químicos, que se calienta al pasar por estos sistemas, lo que puede impedir que el agua esté disponible para usos como agricultura o agua potable.
En otras ocasiones, estos centros de datos utilizan grandes aires acondicionados, cuyo funcionamiento consume mucha electricidad, lo que significa que podría no haber suficiente electricidad para nuestros hogares o negocios. A veces, la electricidad también se genera quemando carbón en centrales eléctricas, lo que emite gases de escape al aire y aumenta la contaminación.
Esto incorpora la experiencia del niño a la conversación y le brinda una forma tangible de identificarse con el concepto. Se pueden llevar a cabo debates similares sobre la ética de los derechos de autor y el robo de contenido, utilizando artistas y creadores que los niños conocen, sin tener que profundizar en los detalles de la legislación sobre propiedad intelectual. Los deepfakes, tanto sexuales como de otro tipo, son sin duda un tema que muchos niños también conocen, y es importante que sean conscientes de los riesgos que representan para las personas y la comunidad al usar la IA.
Puede ser aterrador, especialmente para los niños pequeños, cuando empiezan a comprender algunas de las aplicaciones poco éticas de la IA o los desafíos globales que genera, y se dan cuenta de lo poderoso que puede ser. Por ejemplo, algunos niños me han preguntado: "¿Cómo podemos solucionarlo si alguien le enseña a la IA a hacer cosas malas?". Ojalá tuviera mejores respuestas, porque básicamente tuve que decir: "La IA ya tiene a veces la información para hacer cosas malas, pero también hay mucha gente trabajando duro para que la IA sea más segura y evitar que comparta información o instrucciones erróneas sobre cómo hacer cosas malas".
Desempacando la idea de “verdad”
La antropomorfización del problema de la IA es válida tanto para adultos como para niños: solemos confiar en una voz amable y segura cuando nos dice algo. Gran parte del problema radica en que la voz del LLM que nos dice cosas suele ser amable, segura y errónea. El concepto de alfabetización mediática ha sido un tema importante en pedagogía durante años, y su expansión a los LLM es una progresión natural . Al igual que los estudiantes (y los adultos) necesitan aprender a ser consumidores críticos de la información generada por otras personas o empresas, nosotros debemos ser consumidores críticos y reflexivos del contenido generado por computadora.
Creo que esto también va de la mano con comprender la tecnología. Cuando explico que la función de un LLM es aprender y replicar el lenguaje humano, en el nivel más simple, seleccionando la siguiente palabra probable de una serie con base en la anterior , tiene sentido que añada que el LLM no puede comprender la idea de "verdad". La verdad no forma parte del proceso de formación y, al mismo tiempo, es un concepto muy difícil de comprender, incluso para las personas. El LLM puede acertar con los datos con frecuencia, pero los puntos ciegos y los posibles errores aparecerán de vez en cuando, debido a la naturaleza de la probabilidad. Por lo tanto, quienes la usan deben ser muy conscientes de la falibilidad de la herramienta.
Esta lección tiene valor más allá del simple uso de la IA, ya que lo que enseñamos trata sobre cómo lidiar con la incertidumbre, la ambigüedad y los errores. Como señalan Bearman y Ajjawi (2023) , «la pedagogía para un mundo mediado por la IA implica aprender a trabajar con situaciones opacas, parciales y ambiguas, que reflejan las relaciones entrelazadas entre las personas y las tecnologías». Me gusta mucho este enfoque, porque retoma algo en lo que pienso mucho: que los LLM son creados por humanos y reflejan las interpretaciones del contenido generado por ellos. Cuando los niños aprenden cómo surgen los modelos, que son falibles y que su resultado proviene de la información generada por humanos, se familiarizan con la naturaleza imprecisa del funcionamiento de la tecnología actual en nuestra sociedad en general. (De hecho, recomiendo encarecidamente el artículo completo a cualquiera que esté pensando en cómo enseñar a sus hijos sobre la IA).
Una nota al margen sobre imágenes y vídeos
Como ya he escrito , la profusión de vídeos e imágenes deepfake o de "basura de IA" en línea plantea muchas preguntas difíciles. En mi opinión, es importante informar a los niños, ya que es fácil absorber desinformación o mentiras descaradas a través de contenido visual convincente. Además, este contenido está a un paso del proceso de creación para la mayoría de los niños, ya que gran parte de este material se comparte ampliamente en redes sociales y es poco probable que esté etiquetado. Hablar con los niños sobre las señales reveladoras que ayudan a detectar material generado por IA puede ser útil, así como aprender habilidades generales de alfabetización mediática crítica como "si es demasiado bueno para ser verdad, probablemente sea falso" y "verifica bien lo que escuchas en este tipo de publicaciones".
Infiel
Por mucho que expliquemos los problemas éticos y los riesgos de que el LLM se equivoque, estas herramientas de IA son increíblemente útiles y seductoras, por lo que es comprensible que algunos niños recurran a ellas para hacer trampa en las tareas y en la escuela. Me gustaría decir que simplemente debemos razonar con ellos y explicarles que el objetivo es aprender las habilidades para hacer las tareas, y que si no las aprenden, perderán las capacidades que necesitan para sus futuras calificaciones y su vida adulta... pero todos sabemos que los niños rara vez son tan lógicos. Sus cerebros aún están en desarrollo, y a veces es difícil razonar sobre este tipo de cosas, incluso para los adultos.
Básicamente, hay dos enfoques que se pueden adoptar: encontrar maneras de dificultar las tareas escolares o hacer que sea imposible copiar, o incorporar la IA en el aula asumiendo que los niños la tendrán a su disposición en el futuro. Ahora bien, el trabajo supervisado en el aula puede brindar a los niños la oportunidad de aprender algunas habilidades necesarias sin mediación digital. Sin embargo, como mencioné antes, la alfabetización mediática debe incluir ahora los LLM, y creo que su uso supervisado por un instructor informado puede tener un gran valor pedagógico. Además, es realmente imposible "proteger de la IA" las tareas que se realizan sin la supervisión directa del instructor, y debemos reconocerlo. Sin embargo, no quiero que parezca fácil; consulten más abajo, en la sección de Lecturas Adicionales , varios artículos académicos sobre los amplios desafíos de enseñar alfabetización en IA en el aula. Los docentes tienen la difícil tarea de intentar no solo mantenerse al día con la tecnología y adaptar su pedagogía a los nuevos tiempos, sino también de intentar proporcionar a sus alumnos la información necesaria para usar la IA de forma responsable.
Aprendiendo del ejemplo de la educación sexual
En definitiva, la pregunta es qué deberíamos recomendar exactamente a los niños que hagan y no hagan en un mundo con IA, tanto en el aula como fuera de ella. Rara vez defiendo la prohibición de ideas, y creo que el ejemplo de una educación sexual integral, basada en la ciencia y adaptada a su edad, ofrece una buena lección. Si los niños no reciben información precisa sobre su cuerpo y su sexualidad, carecen del conocimiento necesario para tomar decisiones informadas y responsables en ese ámbito. Aprendimos esto cuando la educación sexual basada exclusivamente en la abstinencia disparó las tasas de embarazo adolescente a principios de la década de 2000. Los adultos no estarán presentes para hacer cumplir los mandatos cuando los niños tomen decisiones difíciles sobre qué hacer en circunstancias difíciles, por lo que debemos asegurarnos de que los niños cuenten con la información necesaria para tomar esas decisiones de forma responsable, lo que incluye orientación ética, pero también información objetiva.
Modelar la responsabilidad
Un último punto importante a mencionar es que los adultos también deberían modelar un comportamiento responsable con la IA. Si los profesores, padres y otros adultos en la vida de los niños no tienen una cultura crítica sobre la IA, tampoco podrán enseñarles a ser consumidores críticos y reflexivos de esta tecnología.
Un artículo reciente del New York Times sobre cómo los profesores usan la IA me frustró un poco. El artículo no refleja una gran comprensión de la IA, confundiéndola con estadísticas básicas (un profesor que analiza los datos de sus alumnos para personalizar su enseñanza según sus niveles no es IA, ni nuevo ni problemático), pero sí inicia una conversación sobre cómo los adultos en la vida de los niños usan las herramientas de IA, y menciona la necesidad de que estos adultos den ejemplo de usos transparentes y críticos de la misma. (También roza brevemente el tema de la industria con fines de lucro que introduce la IA en el aula, un problema que merece más atención; quizá escriba sobre ello más adelante).
Para refutar una afirmación del artículo, no me quejaría de que los profesores utilicen LLM para dar el primer paso en la calificación del material escrito, siempre que supervisen y validen el resultado. Si los criterios de calificación se centran en la gramática, la ortografía y la mecánica de escritura, un LLM probablemente sea adecuado según su formación. No confiaría ciegamente en un LLM en este aspecto sin que un profesional le eche un vistazo rápido, pero, de hecho, está diseñado para comprender el lenguaje humano. La idea de que «el estudiante tuvo que escribirlo, así que el profesor debería tener que calificarlo» es absurda, porque el propósito del ejercicio es que el estudiante aprenda. Los profesores ya conocen la mecánica de la escritura; este no es un proyecto que pretenda obligar a los profesores a aprender algo que solo se puede lograr calificando manualmente. Creo que el NYT lo sabe, y que el enfoque fue principalmente para atraer clics, pero vale la pena decirlo claramente.
Este punto nos lleva, una vez más, a mi sección anterior sobre la comprensión de la tecnología. Si comprendes con seguridad cómo es el proceso de capacitación, podrás decidir si ese proceso producirá una herramienta capaz de gestionar una tarea. Pero la automatización de la calificación ha formado parte de la educación durante décadas, al menos; cualquiera que haya llenado una hoja de evaluación lo sabe.
El desarrollo de esta tecnología está obligando a nuestro sistema educativo a adaptarse, pero no podemos volver a encerrar al genio en la botella ahora. Sin duda, la IA puede tener efectos positivos en la educación (como ejemplos frecuentes, la personalización y el ahorro de tiempo docente, que luego puede destinarse a la atención directa al alumnado), pero, como en la mayoría de los casos, soy partidario de una visión realista. Como creo que la mayoría de los educadores saben perfectamente, la educación no puede seguir como antes de que los LLM entraran en nuestras vidas.
Conclusión
Los niños son más inteligentes de lo que a veces les damos crédito, y creo que son capaces de comprender mucho sobre el significado de la IA en nuestro mundo. Mi consejo es ser transparentes y francos sobre las realidades de la tecnología, incluyendo las ventajas y desventajas que representa para nosotros como individuos y para la sociedad en general. La forma en que la usemos les dará a los niños ejemplos de decisiones positivas o negativas que notarán, por lo que ser reflexivos con nuestras acciones y palabras es clave.
Fuente: traducido al español y tomado de Medium.com -> https://medium.com/@s.kirmer/talking-to-kids-about-ai-db8d49bac8d6
Escrito por
Stephanie Kirmer