Humanismo tecnológico por Miguel Pastorino

La irrupción de la inteligencia artificial (IA) no significa simplemente el último capítulo de la historia tecnológica. Estamos frente a una radical mutación civilizatoria, una revolución silenciosa que modifica cómo pensamos, cómo producimos, cómo nos relacionamos y, sobre todo, cómo decidimos. Lo preocupante no es que la IA automatice procesos industriales, sino que comience a automatizar dimensiones del juicio humano. Lo inquietante no es solo su capacidad para reemplazar tareas, sino su potencial para colonizar los espacios donde se decide qué es verdaderamente importante.

Si el siglo XX se definió por la confrontación entre ideologías totalitarias y democracias liberales, el XXI podría quedar marcado por una tensión más sutil pero profundamente disruptiva: la que enfrenta la autonomía humana con la creciente autoridad del cálculo, el discernimiento con la predicción, la libertad con el hábito inducido. El problema no es la máquina, sino la renuncia del espíritu humano a su vocación de sentido.

Del ciudadano al usuario.

Durante siglos la filosofía política concibió al ser humano como un ser capaz de deliberar y responsabilizarse de sus decisiones. Hannah Arendt reservó la acción como el ámbito por excelencia de la libertad. Sin embargo, en la era algorítmica asistimos a una regresión antropológica: el ciudadano —ese que piensa, debate y decide— se diluye en la figura del usuario, mero receptor reactivo de estímulos optimizados. Ya no elegimos: clickeamos. Ya no discernimos: confirmamos. Ya no buscamos: somos buscados por aquello que el sistema detecta que “nos interesa”. La IA no solo automatiza tareas. Automatiza horizontes vitales.

El homo algorithmicus es la persona cuya identidad informativa está filtrada por sistemas que predicen deseos antes de que surjan. “Tu siguiente pensamiento” ya está preformateado. No se trata de pérdida de capacidades, sino de abandono del ejercicio activo de ellas. Esta mutación impacta directamente en la vida democrática: el ciudadano informado se va convirtiendo en consumidor de contenidos diseñados para maximizar su permanencia en la pantalla, no para darle una mejor comprensión de la realidad. Se reemplaza la pluralidad por la burbuja de afinidad, la complejidad por el relato instantáneo, y el debate por la reacción emocional y la simplificación de ideas. Así, una democracia sostenida por ciudadanos empobrecidos para pensar reflexiva y críticamente se vuelve un simulacro de la misma.  

El poder invisible: la nueva soberanía algorítmica

Las democracias modernas se fundaron sobre un principio: el poder debe ser visible y controlable. Pero el ecosistema algorítmico funciona bajo otra lógica: su poder es masivo, pero invisible; determinante, pero difícil de atribuir; eficaz, pero sin rostro. Así, la IA está reconfigurando la infraestructura política del siglo XXI. No gobierna por ley ni por fuerza, sino por influencia silenciosa. No prohíbe: condiciona. No censura: prioriza. Es una arquitectura privada que captura la economía de la atención y se apropia de la construcción de la realidad. Y el problema no es distópico, sino banal: no nos domina mediante la represión, sino mediante la comodidad.

Tres riesgos se van consolidando en este escenario:

Vigilancia difusa: ya no por cámaras, sino por captación continua de datos.

Manipulación personalizada: no mediante propaganda explícita, sino mediante microestímulos.

Desplazamiento del juicio público: no por censura, sino por irrelevancia programada.

Nunca el poder fue tan eficaz sin necesidad de mostrarse. Como advirtió Byung-Chul Han, la dominación contemporánea opera desde la seducción, no desde la prohibición.

La tentación tecnocrática: cuando la eficiencia desplaza a la deliberación

En contextos de fatiga institucional y polarización, la promesa de decisiones “más objetivas” generadas por algoritmos es tentadora. ¿Por qué no dejar que la IA administre recursos, defina prioridades, organice la ciudad? Pareciera más pragmático, más rápido, menos conflictivo. Pero aquí reside el dilema más hondo: la IA puede optimizar medios, pero no puede legitimar fines. Puede calcular posibilidades, pero no puede decidir qué es justo. La democracia, en cambio, se funda en el derecho de todos a participar en aquello que nos concierne.

Si sustituimos la deliberación plural por automatismos funcionales, la democracia conserva la forma, pero pierde el alma. Surge así la figura de un ciudadano desresponsabilizado, que acepta la decisión automatizada como quien acepta la recomendación de una playlist. La tecnocracia del algoritmo no necesita restringir libertades: simplemente vuelve irrelevante su ejercicio.

Mientras crece la fe en la IA, decrece la fe en la inteligencia humana o se la reduce a modelos centrados solo en determinadas funciones. Pero la inteligencia humana es irreductible a la función computacional. Pensar no es solo procesar información. detectar patrones, producir texto, música o imágenes: implica conciencia, subjetividad, imaginación, afectividad y sentido. La inteligencia artificial puede imitar funciones humanas a una velocidad increíble, pero no puede vivir la experiencia de la subjetividad humana. Carece de interioridad, de autoconciencia, de intencionalidad y de libertad. Puede calcular, puede correlacionar datos, pero no puede preguntarse desde una conciencia propia por el sentido, aunque simule una conciencia humana y pueda dar respuestas a preguntas de sentido, no se pueden confundir algunas funciones cognitivas con el inteligir humano. La IA podrá superar muchas de nuestras capacidades de cálculo y procesamiento de información, simular sentimientos, pero no tiene nuestra capacidad de comprender y amar. La conciencia humana puede ser imitada, pero eso no es un “otro”, porque no es alguien, sino algo, no es persona, sino cosa. Las metáforas que usamos para referirnos a la IA suelen darle atribuciones que no tiene.

Lo que la IA produce no es sabiduría, sino correlaciones. Puede descubrir regularidades entre datos, pero no puede discernir su significado. Como advierte Byung-Chul Han, el conocimiento basado en datos es una forma primitiva de saber, porque renuncia a la pregunta por el sentido. La sabiduría no es acumulación de información sino reflexión, experiencia y juicio. Y eso requiere una conciencia que se pregunte por el bien y por la verdad. La IA puede ayudarnos a acceder a información, pero no puede sustituir el proceso de pensar. Cuando confundimos información con conocimiento, y cálculo con pensamiento, corremos el riesgo de atrofiar nuestra capacidad crítica y de entregarle el juicio a las máquinas.

La reducción de la realidad a datos

Lo que está en juego no es solo político o económico, sino también espiritual. Heidegger ya lo había anticipado: la modernidad tiende a transformar al mundo en “fondo disponible”, algo que puede ser calculado, almacenado, utilizado. La IA acelera esta lógica hasta convertir incluso la interioridad humana en un conjunto de datos procesables. Así, el nihilismo tecnológico no niega la verdad: la sustituye por la utilidad.
Cuando el éxito se mide en métricas, la profundidad humana se vuelve un dato prescindible. Ya no preguntamos “¿por qué?”, sino “¿para qué?”. El sentido es reemplazado por la funcionalidad, lo que importa es la utilidad y el buen funcionamiento de las cosas. La vida que se reduce a rendimiento, pierde profundidad existencial y en esa pérdida se debilita el espíritu crítico, condición indispensable para que una democracia no sea solo procedimiento, sino cultura de la libertad.

El problema político no es la discusión filosófica de si las máquinas piensan o cómo piensan, sino si los humanos elegimos dejar de pensar y preferir que nos piensen, que piensen y decidan por nosotros.

Hacia un humanismo tecnológico

No se trata de frenar la innovación, ni de demonizar la tecnología. Hacerlo sería ingenuo e ineficaz. Se trata de orientarla humanamente, de anticiparse, de subordinarla a una cultura del sentido. La ética de la IA no consiste en dotar a la máquina de valores, sino en recordar que los únicos responsables somos nosotros.

Los pilares democráticos a sostener de modo más urgente en esta coyuntura son tres:

Transparencia radical: Lo que hoy es opaco se vuelve incompatible con la legitimidad democrática. No basta con auditar algoritmos: hay que hacer comprensibles sus lógicas.

Equidad y justicia algorítmica: No pedir neutralidad, porque es imposible, sino diseñar deliberadamente sistemas que corrijan sesgos.

Rendición de cuentas: Debe haber siempre un rostro humano responsable de cada decisión automatizada.

Pero esto no alcanza si no hay un cambio cultural en el abordaje de la disrupción tecnológica. Ninguna regulación será suficiente si seguimos debilitando la inteligencia humana. Hay que reconstruir ciudadanía crítica que ejercita el juicio y recuperar el valor del pensamiento lento y reflexivo.

Democracia o automatismo: la decisión que nos define

El futuro no dependerá de la capacidad de cómputo de los algoritmos, sino de la fuerza moral de nuestras decisiones. Podemos optar por una sociedad optimizada —eficiente, cómoda, pero intelectualmente anestesiada— o podemos construir una civilización que incorpore innovación sin sacrificar aquello que nos hace humanos: juicio, conflicto legítimo, responsabilidad, sentido.

Reinventarnos consistirá en preservar lo humano en la era de las máquinas. No compitiendo con ellas, sino cultivando precisamente aquello que ninguna IA podrá replicar: la conciencia de sí, la fragilidad compartida, la capacidad de vivir con sentido y amar.

La IA no debe ser nuestro destino, sino nuestro instrumento, no una autoridad sobre la verdad, sino un asistente y colaborador en la investigación. No se trata de pensar contra la IA, sino pensar mejor con ella. Decidir cuándo es oportunidad y cuándo amenaza, implica reconocer su potencia sin abdicar de nuestra dignidad.

A partir de estas reflexiones, podemos resumir principios fundamentales de un humanismo tecnológico en los siguientes aspectos:

Centralidad en el ser humano: Diseñar y utilizar la tecnología priorizando las personas, sus necesidades y su bienestar.

Responsabilidad ética: Desarrollar tecnología de forma ética, sin explotar a los usuarios y respetando sus datos, su privacidad (Derechos digitales).

Mejora de la vida humana: Utilizar la tecnología para aumentar las capacidades humanas y resolver desafíos sociales.

Complementariedad: Ver la tecnología como una herramienta para vivir mejor y no como un fin en sí mismo, manteniendo a los humanos como la autoridad final. 

Bibliografía para profundizar:

Cortina, Adela (2024). ¿Etica o ideología de la Inteligencia Artificial? Paidós.

Gómez Pin, V. (2025). El ser que cuenta: la disputa sobre la singularidad humana. Acantilado.

Innerarity, D. (2025). Una teoría crítica de la Inteligencia Artificial. Galaxia Gutemberg.

Lasalle, J.M. (2024). Civilización artificial. Arpa.

Agregar un comentario

Deja una respuesta