Por Víctor Manuel Grimaldi Céspedes
Cada época tecnológica ha producido su propia ilusión y su propio miedo.
Cuando apareció la imprenta, hubo quienes temieron que la memoria humana se debilitara porque ya no sería necesario recordar tanto.
Cuando surgió la radio, algunos pensaron que el libro moriría.
La televisión fue acusada de convertir a la sociedad en un público pasivo.
Internet prometió democratizar el conocimiento mientras otros advertían que nos hundiría en el caos informativo.
Ahora ha llegado la inteligencia artificial, y el debate se ha vuelto aún más radical: ¿estamos creando una inteligencia nueva, distinta de la humana, o simplemente construyendo una extensión sofisticada de nuestra propia capacidad de pensar?
La pregunta no es banal, ni puramente tecnológica.
Es filosófica, antropológica, económica y hasta espiritual.
Porque dependiendo de cómo respondamos, cambia nuestra manera de entender qué significa ser humano.
El reciente ensayo AI is not artificial, publicado por los filósofos Harald A. Wiltsche y Ken Archer, introduce precisamente esta provocación intelectual: quizá estamos formulando mal la pregunta.
Tal vez la inteligencia artificial no sea “artificial” en el sentido en que solemos imaginarlo.
Quizá sea, más bien, la continuación de un largo proceso histórico mediante el cual la humanidad ha ido externalizando partes de su pensamiento hacia herramientas, lenguajes y sistemas simbólicos cada vez más complejos.
La idea parece audaz, pero no lo es tanto cuando se observa la historia larga de la civilización.
El ser humano nunca ha pensado exclusivamente dentro de su cabeza.
Desde el momento en que alguien trazó signos sobre piedra o barro, una parte del pensamiento salió del cerebro y quedó depositada en el mundo exterior.
La escritura fue la primera gran externalización de la memoria.
Las matemáticas hicieron posible almacenar relaciones abstractas fuera de la mente individual.
Los archivos estatales, las bibliotecas, los mapas, las partituras musicales, los códigos jurídicos, los manuales técnicos, incluso los diccionarios, son formas acumuladas de inteligencia humana depositada fuera del cuerpo.
Lo que llamamos civilización es, en gran medida, pensamiento objetivado.
Bajo esa perspectiva, la inteligencia artificial sería menos una ruptura y más una continuidad histórica.
No sería un monstruo surgido espontáneamente de circuitos y servidores, sino el resultado extremo de un proceso secular: el pensamiento humano organizado en sistemas externos cada vez más potentes.
Un modelo lingüístico no nace de la nada.
Se alimenta de lenguaje humano, patrones culturales, estructuras lógicas, corpus documentales, modelos matemáticos y programación diseñada por seres humanos.
Es decir, no inventa desde el vacío; reorganiza una herencia cognitiva acumulada.
Aquí aparece un concepto filosófico muy importante que conviene explicar con claridad.
La tesis de la “mente extendida”, desarrollada por filósofos contemporáneos como Andy Clark y David Chalmers, sostiene que el pensamiento no termina necesariamente en los límites físicos del cerebro.
Si una persona utiliza una libreta como memoria auxiliar permanente, o un mapa como herramienta de orientación, esos objetos forman parte funcional de su sistema cognitivo.
En términos sencillos: pensar no siempre significa lo que ocurre exclusivamente dentro del cráneo.
Pensar también puede implicar interacción constante con herramientas externas.
Si esto parece abstracto, pensemos en algo cotidiano.
Hoy nadie memoriza decenas de números telefónicos como hace cuarenta años.
El teléfono móvil se ha convertido en memoria externa.
Nadie recorre una ciudad desconocida confiando únicamente en orientación interna; utiliza GPS.
Un economista trabaja con hojas de cálculo que amplían su capacidad analítica.
Un escritor consulta archivos digitales mientras redacta.
Un diplomático contrasta documentos históricos almacenados en bases de datos internacionales.
¿Dónde termina la mente y dónde comienza la herramienta?
La frontera se ha vuelto difusa.
Pero el ensayo va aún más lejos, recurriendo a la fenomenología, una corriente filosófica que estudia la estructura de la experiencia consciente.
El argumento es sutil pero fascinante.
Cuando observamos un automóvil, no percibimos simplemente manchas de color o fragmentos inconexos.
Percibimos una unidad coherente.
Aunque lo observemos desde distintos ángulos, seguimos reconociendo el mismo objeto.
Esa continuidad no surge porque estemos formulando frases internamente; surge porque nuestra experiencia organiza el mundo de manera estructurada.
Posteriormente, el lenguaje describe esa estructura: “el automóvil es rojo”, “está rayado”, “parece nuevo”.
El lenguaje no crea la experiencia; la expresa.
La tesis provocadora consiste en afirmar que esas estructuras de significado, una vez expresadas mediante lenguaje, lógica, matemáticas o código, pueden adquirir existencia operativa fuera del individuo.
En otras palabras: el significado puede ser parcialmente externalizado.
Y si esto es cierto, entonces la inteligencia artificial sería una nueva infraestructura de manipulación y reorganización de significados humanos externalizados.
Es una idea poderosa, pero aquí conviene introducir una distinción crucial.
Inteligencia funcional no es necesariamente conciencia.
Una biblioteca contiene conocimiento, pero no sabe que lo contiene.
Una enciclopedia organiza información, pero no tiene experiencia interior.
Una calculadora ejecuta operaciones complejas sin comprender matemáticas.
La cuestión fundamental es si un sistema de inteligencia artificial comprende realmente lo que procesa o simplemente reorganiza patrones simbólicos de forma extremadamente sofisticada.
Aquí entra Hans Moravec, el célebre investigador en robótica, con su famosa paradoja.
Moravec observó algo desconcertante: las tareas que los humanos consideran difíciles —cálculo abstracto, lógica formal, ajedrez— resultan relativamente sencillas para las máquinas.
En cambio, aquello que un niño pequeño realiza sin esfuerzo —reconocer un rostro, caminar sin caerse, captar ironía, entender contexto emocional— sigue siendo extraordinariamente complejo para la inteligencia artificial.
Esa paradoja sigue vigente.
Y esa paradoja revela algo fundamental: tal vez la inteligencia artificial no sea una réplica de la inteligencia humana, sino una forma distinta de capacidad cognitiva.
Un avión vuela, pero no como un pájaro.
Una grúa levanta enormes pesos, pero no como un brazo humano.
Del mismo modo, la inteligencia artificial podría “pensar” funcionalmente, pero no del modo en que piensa una conciencia humana encarnada.
Esto nos conduce a la famosa objeción filosófica de John Searle con su experimento mental de la “habitación china”.
Imagine una persona encerrada en un cuarto siguiendo reglas para manipular símbolos chinos sin conocer chino.
Desde afuera, parecería entender el idioma, porque produce respuestas correctas.
Pero internamente no comprende nada; simplemente aplica reglas.
Searle utilizó esta imagen para cuestionar si el procesamiento simbólico equivale a comprensión real.
El debate sigue abierto porque los sistemas contemporáneos son muchísimo más sofisticados que cualquier máquina imaginada por Searle.
Sin embargo, la pregunta permanece intacta: ¿comprenden o simulan comprensión?
Desde un punto de vista práctico, la inteligencia artificial ya demuestra una inteligencia instrumental impresionante.
Resume documentos complejos, redacta borradores, identifica patrones, asiste diagnósticos, optimiza rutas logísticas, traduce idiomas, acelera investigación científica y ayuda a estructurar argumentos intelectuales.
Negar esa capacidad sería absurdo. Pero reconocer capacidad funcional no obliga a atribuir conciencia.
Y aquí aparece la dimensión más profunda: la antropológica y espiritual.
¿Qué hace singular al ser humano?
Si reducimos la inteligencia a procesamiento de información, podríamos concluir que las máquinas avanzadas están acercándose peligrosamente a nuestra condición.
Pero la tradición filosófica y cristiana ha definido al ser humano con categorías más amplias: conciencia moral, libertad, voluntad, autoconciencia, experiencia subjetiva, responsabilidad ética, capacidad de amar, sufrir, esperar, creer y trascender.
Una inteligencia artificial puede escribir una oración litúrgica impecable.
Puede explicar la Trinidad con precisión doctrinal.
Puede resumir a Santo Tomás de Aquino o comentar a San Agustín.
Pero no reza.
No teme a la muerte.
No experimenta culpa.
No ama a un hijo.
No siente nostalgia de la infancia.
No recuerda el olor de una calle después de la lluvia.
No espera redención.
Eso no disminuye su utilidad; simplemente define su naturaleza.
Quizá el error contemporáneo consista en comparar inteligencia artificial con una persona individual.
Históricamente, la analogía más precisa podría ser otra.
La IA se parece menos a un individuo humano que a una nueva infraestructura civilizacional, comparable a la escritura, la imprenta o internet, pero mucho más interactiva, veloz y cognitivamente invasiva.
Porque esta vez no estamos simplemente consultando conocimiento almacenado; estamos dialogando con sistemas que reorganizan ese conocimiento en tiempo real y nos devuelven formulaciones nuevas.
Eso cambia la educación, el periodismo, la diplomacia, la investigación, la economía y la política.
También cambia el poder.
Porque quien controle estas infraestructuras cognitivas controlará no solo mercados, sino la arquitectura misma de la producción intelectual.
Y allí emerge la gran cuestión ética del siglo XXI: si estamos ampliando nuestra mente colectiva, ¿quién gobernará esa ampliación?
Esa pregunta importa más que la fascinación superficial sobre si una máquina “piensa”.
Porque quizá el verdadero acontecimiento histórico no sea el nacimiento de una conciencia artificial.
Quizá sea algo más concreto y más inmediato:
la humanidad acaba de construir el espejo más poderoso de su propia inteligencia colectiva.
