Confiar demasiado en los grandes modelos de lenguaje (como ChatGPT) tiene consecuencias cognitivas y creativas, según un estudio del MIT.
Cuando Jocelyn Leitzinger pidió a sus estudiantes que contaran una anécdota personal sobre la discriminación, se dio cuenta de que la víctima solía llamarse Sally. “Estaba claro que era un nombre femenino habitual para ChatGPT”, lamenta esta profesora.
No son alumnos de escuela ni de secundaria, pero “ni siquiera escribían sobre sus propias vidas”, afirma Leitzinger, que imparte clases en el Colegio de Administración de Negocios de la Universidad de Illinois, en Chicago.
La profesora calcula que alrededor de la mitad de sus 180 alumnos utilizaron ChatGPT de forma inadecuada el semestre pasado, incluso al escribir sobre las cuestiones éticas que rodean a la inteligencia artificial (IA). Explica que no le sorprenden los resultados de una investigación reciente que sugiere que los estudiantes que utilizan IA generativa para escribir sus trabajos son menos críticos.
Estudio sobre el uso de IA
El estudio juntó a 54 estudiantes en Boston, divididos en tres grupos. Tenían que escribir redacciones de 20 minutos, el primero utilizando ChatGPT, el segundo un motor de búsqueda y el tercero solo su pensamiento. Los investigadores midieron la actividad cerebral de los estudiantes durante sesiones espaciadas por varios meses y dos profesores calificaron sus textos.
Los usuarios de ChatGPT tuvieron resultados significativamente peores que los que utilizaron únicamente la cabeza. Los electroencefalogramas mostraron que distintas regiones de sus cerebros se conectaban entre sí con menos frecuencia.
Además, más del 80 % de los usuarios de la IA no podían citar ningún fragmento de la redacción que acababan de escribir, frente al 10 % de cada uno de los otros dos grupos.
Al final de la tercera sesión, los alumnos parecían limitarse principalmente a copiar y pegar.
Textos con ortografía, pero sin alma
Por su parte, los profesores encargados de corregir sus textos declararon que eran capaces de reconocer fácilmente aquellos “sin alma”, escritos gracias a la IA. Aunque la gramática y la estructura eran correctas, les faltaba creatividad, personalidad y una reflexión profunda.
Los investigadores recomiendan no descalificar el uso de estos recursos o exagerar sus efectos, sino investigar y debatir.
Algunos matices: por qué hacen falta más estudios sobre la IA en entornos educativos
Kosmyna matiza, no obstante, las interpretaciones del estudio que hicieron algunos medios, según las cuales la IA vuelve ‘estúpidas’ o ‘más perezosas’ a las personas.
Durante la cuarta sesión, el grupo que hasta entonces solo había utilizado su cerebro fue invitado a utilizar ChatGPT por primera vez y mostró un nivel de conectividad neuronal aún mayor, señala.
Ashley Juavinett, neurocientífica en la Universidad de California San Diego, que no participó en el estudio, también critica algunas de las “extrapolaciones” que se hicieron a partir del estudio.
“Este artículo no aporta suficientes pruebas ni rigor metodológico para sacar conclusiones sobre el impacto de los grandes modelos lingüísticos (como ChatGPT) sobre el cerebro”, declara.
Para Leitzinger, sin embargo, estos resultados coinciden con su percepción de cómo ha cambiado la escritura de sus alumnos desde la llegada de ChatGPT en 2022, con menos faltas de ortografía pero también menos autenticidad.
Leitzinger teme que los alumnos ya no necesiten conocimientos básicos antes de utilizar la IA, saltándose la etapa esencial del aprendizaje.
“Escribir es pensar; pensar es escribir. Si eliminamos este proceso, ¿qué queda del pensamiento?”, se pregunta.
Reflexiones y dudas: ¿qué viene ahora?
La doctora Natalita Kosmyna es investigadora en el grupo Media Lab’s Fluid Interfaces del MIT y también docente investigadora invitada en Google. Tiene más de 15 años de experiencia en desarrollo y diseño de principio a fin de interfaces cerebro-computadora. Sus campos de estudio son la inteligencia artificial, las neurociencias y la interacción entre humanos y computadoras. Ella ha contestado algunas inquietudes sobre el tema.
¿Es correcto decir que los modelos de lenguaje de gran escala (LLM) están haciéndonos más tontos?
¡No! Por favor, no usen palabras como estúpido, tonto, cerebro podrido (brain rot), dañado, pasivo y colapsado. Le hace una injusticia a este trabajo, y nosotros no hemos usado este vocabulario en nuestra investigación.
¿Este proyecto ha sido revisado por pares o está en proceso de serlo?
Actualmente, este documento está en preimpresión. Decidimos liberarlo ahora para recolectar una retroalimentación más amplia y más rápida, pues la velocidad del desarrollo y la integración de los LLM en la vida diaria es imposible de alcanzar, y no es algo que hayamos visto antes.
El proceso de revisión por pares ha empezado, pero estamos en las primeras etapas del proceso y probablemente tomará meses.
¿Están las IA apagando la creatividad de los jóvenes?
En este contexto, es importante cuestionarnos cómo utilizamos herramientas como ChatGPT: ¿realmente fomentan un pensamiento crítico más profundo o simplemente agilizan la ejecución de las tareas?
Finalmente, la clave está en encontrar un equilibrio, aprovechando la inteligencia artificial para potenciar nuestra creatividad y aprendizaje, sin que ello implique renunciar nuestro propio pensamiento.
(Con información de agencias)