De repente, todos los trabajos que entregan los alumnos en las universidades parecen el mismo trabajo. Hay una sospechosa

Recurrir a la IA para absolutamente todo tiene una consecuencia y es que todos sonamos igual

Freepik Minimalist Futuristic Sce 2747454158
3 comentarios Facebook Twitter Flipboard E-mail
amparo-babiloni

Amparo Babiloni

Editora Senior - Tech
amparo-babiloni

Amparo Babiloni

Editora Senior - Tech

La IA ha provocado un terremoto en el sector educativo. Los alumnos la usan (muchas veces  indiscriminadamente) y los profesores tratan de adaptarse al cambio reinventando los deberes y los exámenes. Con el paso de los años su uso se va normalizando y ya se empiezan a ver los efectos. Uno de ellos es que todos los alumnos están empezando a sonar igual.

Cuando la IA opina por ti. Lo cuentan en CNN. Los chatbots IA han pasado a ser una herramienta cotidiana más en la vida universitaria, pero no sólo es que se usen como apoyo para redactar un trabajo, cada vez hay más alumnos que recurren a la IA para todo, hasta para saber qué decir en clase. 

Cuentan el caso de una alumna de Yale que reconoce que durante un debate en clase "la conversación se detuvo, miré a mi izquierda y vi a alguien tecleando frenéticamente en su computadora portátil". Estaba preguntando a un chatbot la misma pregunta que su profesor acababa de plantear. Yo misma estoy haciendo un máster universitario y la situación no me es extraña. Hay muchos alumnos que acuden a un chatbot para responder preguntas que precisamente buscan una respuesta crítica y personal.

Pensamiento homogéneo. Es una de las consecuencias que se están viendo fruto del uso de chatbots IA. Según un estudio publicado en marzo de este año, los LLM estrechan la diversidad de expresión humana en tres dimensiones: lenguaje, perspectiva y estrategias de razonamiento. La razón es que los datos de entrenamiento contienen sesgos culturales y posiciones sobrerrepresentadas.  Los autores del estudio afirman que los modelos IA tienden a reproducir puntos de vista occidentales, educados, industrializados, ricos y democráticos. En un contexto como la universidad, el resultado es que el lenguaje del alumnado es en general más pulido, pero las respuestas y razonamientos son similares y acaba por erosionar la diversidad de opiniones.

Alucinaciones. Estos sesgos en los datos de entrenamiento también explican en parte los fenómenos de las alucinaciones y la adulación. Cuando un LLM se inventa una respuesta o nos da la razón aunque estemos equivocados, tiene que ver con el hecho de que en sus datos de entrenamiento prevalecen las interacciones positivas y complacientes. Es decir, su entrenamiento le dice que es más importante dar una respuesta antes que la veracidad de la misma. 

Rendición cognitiva. Es un concepto extraído de un experimento  del que hablamos hace poco y se refiere al fenómeno por el cual dejamos de pensar y comprobar por nosotros mismos cuando usamos IA, aceptando sus respuestas con poca o ninguna revisión crítica y adoptando su seguridad como si fuera propia. Delegar parte del proceso cognitivo en la IA no es algo malo si se hace con una visión crítica, el problema es cuando se hace de forma indiscriminada y sin ningún escrutinio sobre las respuestas. 

La IA nos está volviendo tontos. Un estudio del MIT de 2025 apuntaba en esta dirección, pero ya vimos que es una afirmación muy simplista de lo que está ocurriendo. Que la IA nos haga más perezosos y merme nuestro pensamiento crítico depende de cómo la usemos. Sería comparable a usar una calculadora para hacer una operación muy compleja o usarla para multiplicar cinco por seis. Bien usada, la IA puede ahorrarnos mucho tiempo y puede ser una herramienta muy potente para dar forma a ideas complejas, siempre sin perder ese pensamiento crítico

El pensamiento crítico se aprende. Este es el verdadero problema del uso indiscriminado de la IA en el entorno educativo. Hablamos de personas que todavía aún no tienen desarrollada esta habilidad y que estén delegando el razonamiento en una herramienta externa puede hacer que nunca la aprendan. Frente a la postura prohibicionista, diversos autores han señalado la urgencia de entablar conversaciones con el alumnado desde etapas tempranas para enseñarles a usar la IA de forma crítica y responsable.

Imagen | Xataka con Freepik

En Xataka | Una universidad usó una IA para cazar a los alumnos que usaban IA. El resultado fue un previsible desastre

Inicio