El análisis (preliminar) del Instituto Tecnológico de Massachusetts advierte que las tareas de escritura con IA, puede reducir la conectividad cerebral en un 55%.
Redactar un correo, elaborar el menú semanal o escribir un análisis de los resultados obtenidos en el trabajo, son solo algunas de las tareas cotidianas que hemos empezado a relegar en la Inteligencia Artificial. Ahora, esta nos acompaña durante gran parte de nuestro día a día y, a menudo, nos facilita procesos, pero ¿cuál es el coste para nuestro cerebro de depender cada vez más de ChatGPT?
A esta pregunta trata de dar respusta la publicación preliminar de un nuevo estudio experimental del Media Lab del Instituto Tecnológico de Massachusetts (MIT), liderado por la investigadora Natalia Kosmyna, sobre los efectos de los ‘grandes modelos lingüisticos’, titulado ‘Tu cerebro y ChatGPT: acumulación de deuda cognitiva al utilizar un asistente de inteligencia artificial para tareas de escritura’.
Tres grupos, tres resultados diferentes
El nombre da que pensar. Pero los resultados aún más. Kosmyna y sus compañeros, entre los que se encuentran varios neurocientíficos y estudiosos del lenguaje, elaboraron tres grupos con una muestra de 54 voluntarios: los miembros del primero debían escribir tres textos breves basándose en sus propios recursos mentales —sin acceso a Internet ni pantallas—, los del segundo, podían tener acceso a Google para escribir los textos, y el tercer grupo, en cambio, podía valerse de la inteligencia artificial generativa, concretamente de ChatGPT.
Mientras realizaban la tarea, todos los participantes tenían conectados electrodos a la cabeza para realizarles una electroencefalografía y estudiar sus efectos en el cerebro. Los resultados fueron impactantes, no solo en los efectos posteriores al experimento, sino también en los inmediatos.
Durante el proceso de escritura, por ejemplo, los miembros de los tres grupos mostraron una activación muy diferente de sus mentes. Comparandolos con el grupo que escribió sin apoyo digital, aquellos que escribieron con acceso únicamente al motor de búsqueda mostraron entre un 34% y un 48% menos de conectividad cerebral, mientras que el grupo con acceso a ChatGPT mostró un 55% menos de conectividad cerebral. Esto supone, en esencia, que cuanto mayor es el apoyo, menor es la amplitud de la actividad cerebral.
Las zonas del cerebro que se activan en cada caso
Una de las conclusiones que obtuvieron los investigadores es que cada uno de los tres grupos mostraba una activación de las áreas del cerebro diferentes. Así, aquellos que no tuvieron acceso a tecnología, trabajaban las áreas relacionadas con la ideación creativa, la integración de significados y el autocontrol.
Por su parte, los que utilizaron Google trabajaron principalmente el córtex occipital y visual: las áreas que se encargan de asimilar a través de la vista la información obtenida en la pantalla y de recopilarla después. Mientras que, por último, quienes utilizaron ChatGPT activaron principalmente las áreas destinadas a funciones casi automáticas y dentro de un andamiaje externo.
Forma y fondo en los diferentes trabajos
Cabe destacar que los textos producidos también revelaron algunos patrones: los trabajos de aquellos que no se apoyaron más que en su propio cerebro, fueron diversos y heterogeneos, mientras que aquellos que usaron la IA entregaron textos extremadamente homogéneos y similares entre sí.
Además, en el 83% de los casos, los que habían trabajado con ChatGPT tuvieron dificultades para citar frases de sus propios textos pocos minutos después de entregarlos, mientras que casi todos los que habían trabajado solos sí que eran capaces de citar frases de los textos que acababan de escribir, casi con exactitud.
Darle la vuelta al experimento
La cuarta sesión del experimento dio la vuelta por completo a los roles: al grupo que durante meses había utilizado la inteligencia artificial se le pidió que compusiera un texto de tema fijo sin ningún tipo de apoyo digital; por el contrario, a los que hasta entonces habían escrito sin apoyo se les permitió utilizar ChatGPT.
Las conclusiones fueron que «cuando los participantes reproducen las sugerencias (de la inteligencia artificial, ed.) sin evaluar su exactitud o pertinencia, no sólo renuncian a apropiarse de las ideas expresadas, sino que corren el riesgo de interiorizar perspectivas superficiales o distorsionadas». Es decir, se arriesgan a ser ‘carne’ de propaganda o manipulación.
«Estos resultados plantean inquietudes sobre las implicaciones educativas a largo plazo de la dependencia del LLM y subrayan la necesidad de una investigación más profunda sobre el papel de la IA en el aprendizaje», concluyen.
(c) 20minutos