¿Nos está volviendo menos críticos la inteligencia artificial?
Un nuevo estudio colaborativo entre Microsoft Research y Carnegie Mellon University ha encendido una luz de advertencia sobre un tema que va más allá de la innovación tecnológica: ¿cómo afecta el uso de inteligencia artificial generativa (GenAI) al pensamiento crítico en los entornos de trabajo del conocimiento?
En un contexto donde las herramientas como Microsoft Copilot, ChatGPT o Gemini están siendo integradas rápidamente a plataformas empresariales, educativas y creativas, esta investigación se propuso estudiar directamente los efectos percibidos en las habilidades de análisis, evaluación, síntesis y juicio independiente de quienes las usan con regularidad.
Diseño del estudio
Los investigadores encuestaron a 319 trabajadores del conocimiento de diversas áreas, incluyendo tecnología, diseño, administración, medios y educación. Cada participante aportó tres ejemplos concretos de tareas laborales en las que utilizó herramientas de IA generativa, proporcionando un total de 936 situaciones reales.
En cada ejemplo, los participantes evaluaron si habían activado procesos de pensamiento crítico (según la taxonomía de Bloom) y si el uso de la IA había incrementado o disminuido el esfuerzo mental requerido.
El estudio se enfocó en dos grandes preguntas:
-
¿Cuándo y cómo se manifiesta el pensamiento crítico al usar GenAI?
-
¿Cuándo y por qué se percibe un mayor o menor esfuerzo cognitivo al usar GenAI?
Hallazgos principales
La paradoja del ahorro de esfuerzo
Un hallazgo clave fue que la IA reduce consistentemente el esfuerzo percibido en tareas que requieren actividades críticas como el análisis, la síntesis o la evaluación. Sin embargo, esta disminución no siempre es beneficiosa: cuando los usuarios confían mucho en la IA, tienden a pensar menos críticamente, mientras que quienes tienen más confianza en sus propias habilidades tienden a activar procesos reflexivos más profundos.
En otras palabras, la confianza en la IA puede adormecer la vigilancia mental, mientras que la autoconfianza estimula la revisión, corrección y juicio personal. Es una relación inversamente proporcional que plantea un dilema de diseño: cuanto más confiamos en la IA, menos ejercitamos nuestro juicio.
Cómo se redefine el pensamiento crítico con IA
La investigación muestra que el pensamiento crítico no desaparece, pero cambia de forma. Ya no se trata tanto de producir ideas originales desde cero, sino de verificar información generada, evaluar la calidad del contenido propuesto y decidir si se ajusta al objetivo de la tarea.
Los participantes describieron que piensan críticamente en tres momentos:
-
Formulación de objetivos y preguntas: ajustar los prompts de entrada, clarificar lo que esperan del sistema, etc.
-
Inspección de respuestas: aplicar criterios objetivos o subjetivos para evaluar la calidad, lógica o relevancia de lo que entrega la IA.
-
Integración de la respuesta: modificar estilo, tono, o seleccionar solo partes útiles del contenido generado.
Estos procesos muestran que el pensamiento crítico aún tiene espacio, pero se traslada de la ejecución a la supervisión.
Motivadores e inhibidores
Entre las razones que llevaron a los usuarios a pensar críticamente, destacan:
-
Mejora de la calidad del trabajo.
-
Evitar consecuencias negativas, como errores técnicos, sociales o éticos.
-
Desarrollo personal de habilidades (quienes no quieren depender totalmente de la IA).
Por otro lado, los inhibidores más comunes fueron:
-
Tareas rutinarias o de bajo impacto, donde no se percibe necesario reflexionar.
-
Presión de tiempo y productividad, que lleva a aceptar la primera respuesta útil.
-
Falta de herramientas o conocimientos para mejorar las respuestas de IA, especialmente cuando esta se muestra “terca” o imprecisa.
¿Qué factores predicen el pensamiento crítico?
A través de modelos de regresión multivariada, el estudio encontró relaciones claras:
-
Mayor confianza en uno mismo para hacer la tarea predice mayor pensamiento crítico.
-
Mayor confianza en la IA predice menor pensamiento crítico.
-
La tendencia general del individuo a reflexionar también predice mayor activación de procesos críticos, sin importar el tipo de tarea.
-
La confianza en la propia capacidad para evaluar respuestas de la IA también se asocia positivamente con el pensamiento crítico.
Estos datos sugieren que el diseño de herramientas GenAI debería fomentar la autorreflexión, visibilizar fuentes, y ofrecer opciones explícitas para verificar, comparar o mejorar respuestas, en vez de incentivar el uso automático o acrítico.
Implicaciones para el futuro del trabajo (y del diseño de IA)
El estudio tiene implicaciones importantes para quienes diseñan, implementan o promueven herramientas de IA en el trabajo. Por ejemplo:
-
Es necesario evitar que las herramientas GenAI promuevan la “convergencia mecanizada”, es decir, resultados homogéneos y poco reflexivos, como ya se ha observado en tareas de redacción o ideación.
-
Los diseñadores podrían incorporar mecanismos que obliguen a evaluar las respuestas, como preguntas aclaratorias, solicitudes de evidencia o validación cruzada.
-
Para Microsoft y otras empresas desarrolladoras de GenAI, esto significa asumir una doble responsabilidad: mejorar la eficiencia, sí, pero también preservar la capacidad humana de pensar críticamente, especialmente en escenarios de alto impacto.
Comentarios