Investigación de Microsoft y Carnegie Mellon revela que la dependencia de la IA está reduciendo las capacidades de pensamiento crítico de los trabajadores del conocimiento.
La automatización de tareas mediante inteligencia artificial está provocando una preocupante "atrofia" en las capacidades de pensamiento crítico de los trabajadores, según revela un nuevo estudio realizado por investigadores de Microsoft y la Universidad Carnegie Mellon.
¿Qué dice el estudio sobre el uso de la IA generativo en el trabajo?
La investigación, que analizó 936 casos de uso de IA generativa en entornos laborales reportados por 319 trabajadores del conocimiento, encontró que cuanto más confían los empleados en las herramientas de IA para realizar sus tareas, menor es su capacidad de pensamiento crítico y evaluación independiente.
"Una ironía clave de la automatización es que al mecanizar las tareas rutinarias y dejar el manejo de excepciones al usuario humano, se priva a este de las oportunidades rutinarias para ejercitar su juicio y fortalecer su musculatura cognitiva, dejándolo atrofiado y poco preparado cuando surgen las excepciones", señalan los investigadores en el documento.
El estudio identificó que los trabajadores que tienen mayor confianza en la IA tienden a reducir significativamente su pensamiento crítico, mientras que aquellos con más confianza en sus propias habilidades mantienen un mayor nivel de evaluación crítica. Esta tendencia resulta especialmente preocupante en tareas rutinarias o de menor riesgo, donde los usuarios simplemente confían en la IA sin mayor cuestionamiento.
Los investigadores detectaron que los usuarios con acceso a herramientas de IA generativa producen resultados menos diversos para una misma tarea, en comparación con quienes no las utilizan. Esta convergencia refleja una falta de juicio personal, contextualizado y crítico sobre los resultados que brinda la IA.
Entre los factores que influyen en el nivel de pensamiento crítico, el estudio encontró que los trabajadores bajo presión de tiempo tienden a ejercer menos evaluación crítica. En contraste, en escenarios de alto riesgo donde las consecuencias de errores son importantes, los empleados mantienen un mayor nivel de pensamiento crítico.
Sin embargo, los investigadores aclaran que esto no significa que la IA sea inherentemente negativa o deba ser eliminada. La humanidad tiene una larga historia de "descargar" tareas cognitivas en nuevas tecnologías, desde la escritura (objetada por Sócrates) hasta la calculadora (objetada por profesores de aritmética).
El desafío, según el estudio, está en desarrollar herramientas de IA que motiven activamente el pensamiento crítico de los usuarios. "Las herramientas de IA generativa podrían incorporar características que faciliten el aprendizaje del usuario, como proporcionar explicaciones del razonamiento de la IA, sugerir áreas de refinamiento u ofrecer críticas guiadas", proponen los investigadores.
La investigación sugiere que es crucial encontrar un equilibrio entre aprovechar la eficiencia que ofrece la IA y mantener las capacidades cognitivas humanas fundamentales. Esto es especialmente relevante considerando que Microsoft, como uno de los mayores inversores en OpenAI, está comprometida con el desarrollo acelerado de herramientas de IA generativa.
El estudio destaca la importancia de diseñar sistemas de IA que no solo automaticen tareas, sino que también fomenten el desarrollo de habilidades críticas en los usuarios, posicionando la IA como una herramienta para el desarrollo de capacidades más que como un simple reemplazo de funciones cognitivas.
Comparte esta noticia