Nunca antes la humanidad había tenido acceso a tanto conocimiento, tanta información disponible y tantas herramientas de análisis; sin embargo, pocas veces habíamos tenido tan pocos incentivos para pensar y, más importante aún, para reflexionar. La inteligencia artificial y particularmente la generativa ha transformado radicalmente la forma en que interactuamos con el conocimiento. Hoy una máquina puede resolver una tarea, redactar un ensayo, resumir un libro, analizar un documento técnico o incluso proponer una estrategia empresarial en cuestión de segundos.
Lo que antes requería horas de lectura, análisis, reflexión y escritura ahora puede generarse con una sola instrucción, el famoso prompt. La velocidad con la que estas herramientas producen respuestas ha creado una nueva relación entre el ser humano y la información: pasamos de procesarla lentamente a consumirla instantáneamente.
Pero no todo lo que parece una ventaja necesariamente representa un avance. Detrás de esta eficiencia tecnológica se esconden paradigmas profundos. Durante siglos, la filosofía moderna partió de una afirmación sencilla formulada por René Descartes: “Pienso, luego existo”. Esa frase condensaba una idea fundamental sobre la humanidad. El pensamiento no es sólo una herramienta intelectual; es el fundamento mismo de nuestra capacidad para comprender la realidad, cuestionarla y construir conocimiento. En la era de los algoritmos y la inteligencia artificial, existe el riesgo de que esa ecuación se invierta sin que lo notemos.
Hoy delegamos tareas intelectuales, confiamos cada vez más en respuestas generadas automáticamente y, poco a poco, dejamos de cuestionar los procesos que existen detrás de ellas. Si el pensamiento se terceriza sistemáticamente, surge una pregunta inevitable: ¿cómo evolucionará el pensamiento humano en el futuro? La paradoja es evidente. Cuanto más poderosas se vuelven las herramientas de inteligencia artificial, más relevante se vuelve la decisión de delegar planteamientos, análisis, cuestionamientos y contextos. Si utilizamos esas herramientas sin pensamiento crítico de por medio, el propio uso de la tecnología termina debilitando las capacidades que necesitamos para emplearla correctamente, y peor aún derive en un ciclo que va en detrimento del desarrollo del pensamiento individual y más adelante colectivo.
En otras palabras, lo que comienza como una herramienta de productividad puede convertirse, si no se maneja con cuidado, en un riesgo personal y social. La inteligencia artificial no sustituye el pensamiento humano necesariamente porque sea superior; lo sustituye, muchas veces, porque parece conveniente, y aunque algunas veces lo sea no necesariamente constituye la regla.
Representa un atajo y sabemos que a los humanos, los atajos nos resultan atractivos y tentadores. La tentación es evidente. No necesariamente porque el resultado sea mejor (de hecho, al momento en que escribo este texto muchas veces sigue siendo superficial) sino porque aparece rápidamente algo que parece verdadero, correcto, bien estructurado y suficientemente convincente.
Sin embargo, en ese salto directo del problema al resultado ocurre algo relevante: desaparece el proceso cognitivo intermedio. Dicho proceso cognitivo incluye definir con precisión el problema o la pregunta, entender qué información es relevante, analizar distintos ángulos de una situación y construir una línea argumentativa sólida. Implica cuestionar, razonar, reflexionar y tomar decisiones conforme.

Esas habilidades constituyen la esencia del pensamiento crítico. Y son justo esas habilidades las que comienzan a erosionarse cuando externalizamos por completo el proceso intelectual. Este fenómeno ya empieza a manifestarse. En universidades de todo el mundo, profesores y académicos reportan estudiantes que tienen dificultades para estructurar un ensayo o desarrollar una línea argumentativa sin recurrir a herramientas de inteligencia artificial. Investigaciones recientes de la Universidad de Pensilvania y otros centros académicos han documentado la magnitud del fenómeno.
En el ámbito profesional comienzan a aparecer señales similares. Análisis generados por herramientas automatizadas se presentan en entornos corporativos sin haber verificado los datos básicos, y en círculos ejecutivos es cada vez más frecuente encontrar decisiones estratégicas sustentadas en resúmenes algorítmicos de documentos que los responsables nunca leyeron directamente.
Algunos casos se han vuelto especialmente ilustrativos. En 2023, dos abogados en Nueva York fueron sancionados por un tribunal federal tras presentar jurisprudencia inexistente generada por ChatGPT en el caso Mata v. Avianca, un episodio ampliamente documentado por la prensa. De manera similar, investigaciones recientes en la Universidad de Stanford y la Universidad de Harvard han mostrado que médicos que utilizaron sistemas de inteligencia artificial para apoyar ciertos diagnósticos clínicos cometieron, en algunos ejercicios experimentales, más errores que aquellos que realizaron el análisis sin apoyo algorítmico.
El problema, en este contexto, no es tecnológico, es cognitivo. Estamos ante el riesgo de formar generaciones que saben interactuar con herramientas de inteligencia artificial, pero que no necesariamente saben cuáles son sus debilidades, cómo utilizarlas, cuándo cuestionarlas o cuándo simplemente no deberían depender de ellas.
Esta preocupación no es meramente filosófica. El neurocientífico Jared Cooney Horvath, investigador especializado en aprendizaje y desarrollo cognitivo, ha advertido que estamos observando un fenómeno que podría ser histórico.
Durante décadas, distintos estudios habían identificado una tendencia conocida como el Efecto Flynn, que describía un aumento sostenido en ciertas habilidades cognitivas entre generaciones. Sin embargo, evidencia reciente sugiere que esa tendencia podría haberse revertido.
Horvath ha señalado que potencialmente la exposición constante a estímulos digitales rápidos, pantallas y sistemas que ofrecen respuestas inmediatas podría estar reduciendo la capacidad de concentración profunda, reflexión sostenida y análisis complejo. No se trata de una disminución de inteligencia en términos tradicionales, sino de un cambio en la manera en que el cerebro evoluciona. Y el pensamiento crítico, como cualquier capacidad cognitiva, requiere ejercicio constante. Si no se entrena, si no se cuestiona, si no se practica deliberadamente, se atrofia.
Sería un error pensar que estamos determinados al menoscabo de nuestras capacidades intelectuales en virtud de estos avances tecnológicos. El pasado es testigo de lo contrario, en donde la escritura fue criticada en la antigua Grecia por debilitar la memoria; la imprenta generó temores sobre la sobreabundancia de libros; incluso la calculadora despertó preocupaciones sobre la pérdida de habilidades matemáticas.
En retrospectiva, ninguna de dichas herramientas destruyó la capacidad de pensar; la transformaron. En ese sentido, encontramos el dilema, la inteligencia artificial no solo representa una herramienta poderosa, sino también un entorno que puede redefinir la forma en que pensamos.
A este fenómeno se suma otro elemento igualmente relevante: la influencia de los algoritmos que gobiernan gran parte del ecosistema digital. La inteligencia artificial no opera en el vacío; forma parte de un sistema más amplio donde plataformas como X, YouTube, Instagram o TikTok utilizan modelos de recomendación diseñados para maximizar la atención y dependencia del usuario.
Michel Foucault ya decía que poder y conocimiento son inseparables. Hoy, las empresas que entrenan modelos algorítmicos tienen la capacidad de decirnos qué datos son relevantes, qué sesgos son aceptables, qué respuestas son “correctas”.
Este poder está concentrado en pocas manos, sin contrapesos democráticos. No sólo delegamos nuestro pensamiento, delegamos autoridad sobre qué constituye la “verdad”. Estos sistemas aprenden nuestras preferencias, interpretan nuestros patrones de consumo y nos muestran contenido que tiene mayor probabilidad de mantenernos conectados.
El resultado es la creación de realidades informativas personalizadas. Cada persona recibe una versión ligeramente distinta del mundo. Sin embargo, como quienes comparten nuestros intereses reciben contenidos similares, se genera una ilusión poderosa: la sensación de que todos piensan como nosotros.
Los algoritmos crean así una falsa apariencia de consenso. La realidad parece mirarse desde un solo lente. Cuando eso ocurre, desaparece uno de los elementos fundamentales del pensamiento crítico: la exposición a perspectivas contradictorias.
Históricamente, el progreso intelectual ha surgido precisamente de lo contrario. Del debate, la confrontación de ideas y el cuestionamiento permanente de supuestos establecidos han sido motores centrales del desarrollo del conocimiento. Cuando los algoritmos eliminan esa fricción intelectual y priorizan contenidos que confirman nuestras creencias, el pensamiento se vuelve más homogéneo y menos reflexivo.
La tecnología no solo organiza la información que vemos; también puede moldear la forma en que interpretamos el mundo. En ese contexto, la inteligencia artificial generativa introduce otro fenómeno relevante: la ilusión de la respuesta convincente, donde una respuesta parece correcta, sólida o confiable debido a su apariencia, sin importar que esta sea falsa errónea o engañosa.
La Inteligencia Artificial produce textos claros, bien estructurados, con lenguaje técnico apropiado y un tono que transmite autoridad. El problema es que un argumento puede sonar impecable y aun así estar equivocado.
Los psicólogos cognitivos describen este fenómeno como la heurística de fluidez: tendemos a confiar más en la información que resulta fácil de procesar. Las respuestas generadas por inteligencia artificial suelen tener precisamente esa característica. Son fluidas, ordenadas y convincentes, pero esa claridad puede generar una ilusión de precisión.
Además, estos sistemas pueden producir lo que se conoce como alucinaciones algorítmicas: afirmaciones plausibles que carecen de sustento factual. Si el usuario no verifica la información, esas afirmaciones pueden convertirse en la base de decisiones reales con consecuencias muchas veces fatales (como ejemplo en el campo médico, jurídico, político).
En este contexto, el sistema educativo enfrenta uno de los desafíos más importantes de su historia. Durante décadas se ha concentrado principalmente en transmitir ideas y contenido: fechas, conceptos, fórmulas o procedimientos. Pero en un mundo donde la información está disponible de forma instantánea, esas habilidades dejan de ser el principal diferenciador.
Lo que se vuelve esencial es enseñar a pensar a formar dicho pensamiento crítico. Formular buenas preguntas, evaluar fuentes, identificar sesgos, construir argumentos sólidos y comprender las limitaciones de las herramientas tecnológicas son habilidades mucho más relevantes en la era digital.
En su libro 21 lecciones para el siglo XXI, Yuval Noah Harari menciona que en la actualidad los niños aprenden cosas que serán irrelevantes en el año 2050. No tenemos certeza de cómo será el mundo en materia laboral, política o social. Lo único seguro es el cambio constante, por tanto, enseñar como se ha hecho es inútil. Se debe enseñar a pensar, a aprender, a reinventarse.
La inteligencia artificial puede ofrecer respuestas a millones de preguntas, pero la capacidad de formular la pregunta correcta sigue siendo tan humana. Si el sistema educativo no evoluciona en esa dirección, estaremos formando generaciones muy capacitadas para utilizar herramientas tecnológicas, pero no lo suficiente preparadas para cuestionarlas, donde estemos sujetos a riesgos relevantes.
La inteligencia artificial es, sin duda, una de las herramientas más poderosas que la humanidad ha desarrollado. Pero como ocurre con cualquier herramienta poderosa, su impacto depende de su utilización. La respuesta no es rechazar la tecnología ni intentar frenar su desarrollo.
La respuesta es fortalecer las capacidades humanas que permiten utilizarla con criterio. Eso implica recuperar algo que siempre ha sido central para el progreso intelectual: la disposición a dudar, a debatir, a confrontar. La tecnología puede amplificar nuestra capacidad intelectual, pero sólo si el juicio humano sigue siendo el elemento que orienta su uso.
La promesa original de la inteligencia artificial era liberar a las personas de tareas repetitivas para permitirles concentrarse en actividades de mayor valor. Pero existe un riesgo evidente: que en lugar de liberar nuestro pensamiento terminemos delegándolo por completo.
Por ahora, la tecnología avanza más rápido que nuestro dominio o reflexión sobre ella. Pero todavía estamos a tiempo de equilibrar esa relación. La inteligencia artificial bien utilizada, puede liberar tiempo para dedicarlo a tareas complejas: formular mejores preguntas, conectar ideas de distintas disciplinas y explorar problemas que antes simplemente no teníamos la capacidad de abordar. El riesgo, por tanto, no está en la tecnología misma, sino en la forma en que decidamos integrar en nuestro pensamiento.
No podemos rechazar la inteligencia artificial, la herramienta existe y seguirá evolucionando. Pero tampoco podemos adoptarla sin las defensas cognitivas que su propia adopción está destruyendo.
Descartes dudó de todo para encontrar certeza. Nosotros estamos construyendo sistemas que eliminan la duda antes de que esta se genere. Y en ese espacio entre pregunta y respuesta automática, corremos el riesgo de perder lo que nos define: la capacidad de decidir, por nosotros mismos, qué es verdadero, qué es valioso, y quiénes queremos ser.
La carrera no es entre humanos e inteligencia artificial. Es entre la velocidad de adopción tecnológica y la velocidad de desarrollo de pensamiento crítico.
Álvaro Vértiz
Abogado y consultor en estrategia de negocios y asuntos públicos. Socio y director de DGA Group para Latinoamérica, con experiencia en BlackRock y Prudential, consejero independiente y columnista