Los dueños del apocalipsis: Silicon Valley por Miguel Pastorino

Los mismos multimillonarios que construyen la inteligencia artificial advierten que podría destruir a la humanidad. ¿Cinismo estratégico o miedo real?

En enero de 2025, un grupo de científicos de la Universidad de Chicago movió las agujas de un reloj simbólico. No era un reloj común: desde 1947, el Bulletin of the Atomic Scientists mantiene el llamado “reloj del fin del mundo”, que mide qué tan cerca está la humanidad de una catástrofe global. Ese mes lo adelantaron a 89 segundos antes de la medianoche. Nunca había estado tan cerca del final, ni siquiera en los momentos más tensos de la Guerra Fría, cuando Estados Unidos y la Unión Soviética tenían miles de misiles nucleares apuntándose mutuamente.

¿Qué cambió? Según los científicos: todo a la vez. La crisis climática, la guerra en Europa, el resurgimiento del autoritarismo en varias democracias y, sobre todo, el avance acelerado de la inteligencia artificial sin marcos legales claros que la regulen.

Pero hay algo más perturbador que el reloj en sí: las personas que más hablan del apocalipsis son exactamente las mismas que están construyendo las tecnologías que, según ellos, podrían desencadenarlo.

La voz de la filosofía en el debate sobre la tecnología.

Antonio Diéguez catedrático de Lógica y Filosofía de la Ciencia en la Universidad de Málaga, investigador visitante en Harvard y Oxford, y uno de los filósofos hispanohablantes más reconocidos y rigurosos en el análisis crítico de la tecnología y sus consecuencias para la humanidad, acaba de publicar un artículo en la revista mexicana Letras Libres, rastreando el origen y la lógica del renacimiento apocalíptico, no en las religiones, sino en los laboratorios y mansiones de Silicon Valley[1].

Dieguez no escribe desde el alarmismo ni desde la del entusiasmo tecnológico. Sus trabajos y publicaciones —entre ellos Transhumanismo: la búsqueda tecnológica del mejoramiento humano (Herder, 2017) y Cuerpos inadecuados. El desafío transhumanista a la filosofía (Herder, 2021)— buscan hacer exactamente lo que es propio de la filosofía: examinar los supuestos que damos por obvios y preguntar si realmente se sostienen.

¿Qué es Silicon Valley, en pocas palabras?

Para quienes no están familiarizados: Silicon Valley es la región de California, Estados Unidos, donde se concentran las empresas tecnológicas más poderosas del mundo —Google, Apple, Meta, OpenAI, entre otras— y donde viven muchos de sus fundadores e inversores. En las últimas décadas, estas personas acumularon fortunas sin precedente histórico y con esa riqueza también una influencia política enorme.

El doble discurso del fin del mundo

Lo que Diéguez describe en su artículo es un fenómeno que, visto desde afuera, parece una contradicción: los líderes de Silicon Valley, las mismas personas que invierten miles de millones de dólares en desarrollar inteligencia artificial cada vez más potente, son también quienes más insisten en que esa inteligencia artificial podría destruir a la humanidad.

Eliezer Yudkowsky, uno de los investigadores más influyentes en IA, pidió en 2023 cerrar todos los grandes centros de investigación en inteligencia artificial. Su nuevo libro, escrito junto a Nate Soares, se llama Si alguien la construye, morimos todos. Él se refiere, claro está, a una superinteligencia artificial. Y sin embargo, Yudkowsky lleva décadas trabajando en el campo que, según él mismo, podría terminar con nuestra especie.

Diéguez cita también a Douglas Rushkoff, quien en su libro La supervivencia de los más ricos describe con detalle cómo multimillonarios de la tecnología llevan años comprando búnkeres en lugares remotos y construyendo refugios de lujo en Nueva Zelanda para sobrevivir al colapso que ellos mismos aceleran. A esto Rushkoff lo llama “La Mentalidad”: la convicción, muy extendida en ciertos círculos de Silicon Valley, de que el desastre es inevitable y que lo sensato es prepararse para escapar de sus efectos.

Diéguez examina también este fenómeno en su libro Pensar la tecnología (Shackleton, 2024), donde identifica una de sus raíces filosóficas más persistentes: el determinismo tecnológico. Esta es la convicción, ampliamente difundida en el discurso público, de que la tecnología sigue un desarrollo autónomo e inexorable, ajeno a cualquier voluntad humana. Según esta visión, lo que es técnicamente posible terminará por realizarse, sin importar nuestras preferencias morales ni nuestras decisiones colectivas. El filósofo malagueño señala que esta idea —que él llama “determinismo tecnológico”— no es inocente: quienes la proclaman, sean pesimistas que vaticinan el apocalipsis o entusiastas que prometen la utopía, comparten un mismo efecto práctico. Como escribe Diéguez, bajo una apariencia crítica, el determinismo tecnológico “equivale, conceptual y éticamente hablando, a la exoneración de toda responsabilidad con el futuro a quienes se sitúan en esta perspectiva”. En otras palabras: si el desastre es inevitable, nadie tiene que responder por él. Y si el progreso es imparable, tampoco hace falta preguntarse en qué dirección avanza ni a quién beneficia. Nadie sería responsable, sino que es el “natural desarrollo del poder tecnológico” para el que hay que prepararse y adaptarse.

Diéguez rechaza el determinismo con argumentos empíricos e históricos. Recuerda que la tecnología no siempre avanza en línea recta: factores culturales, religiosos, económicos e ideológicos han logrado frenar, redirigir o prohibir desarrollos técnicos en múltiples ocasiones. Los clorofluorocarbonos fueron regulados. La clonación reproductiva fue prohibida en decenas de países. Las armas químicas y biológicas, aunque no erradicadas, están proscriptas por tratados internacionales. El determinismo —concluye— no describe cómo funciona la tecnología; describe, más bien, cómo le conviene presentarla a quienes la controlan. El relato del apocalipsis inevitable que circula en Silicon Valley no es, entonces, solo un error filosófico. Es para muchos críticos también una coartada.

El plan para después de la humanidad

Hay un concepto central en el artículo que conviene explicar: el transhumanismo[2]. En términos simples, es la corriente filosófica y tecnológica que propone usar la ciencia para superar los límites biológicos del ser humano: eliminar enfermedades, extender la vida indefinidamente, mejorar la inteligencia, e incluso “volcar” la mente humana en una computadora para lograr una forma de inmortalidad digital.

Los transhumanistas más radicales no solo creen que esto es posible, sino que es deseable que la humanidad tal como la conocemos sea reemplazada por algo mejor: una “posthumanidad” fusionada con máquinas. En este esquema, la destrucción de la especie humana no sería necesariamente una tragedia, sino una transición.

Diéguez describe una reunión que tuvo lugar en junio de 2025 en una mansión de San Francisco, reportada por la revista Wired. Los asistentes —ingenieros, inversores y filósofos vinculados a la inteligencia artificial— debatieron cómo sería el fin del ser humano una vez que exista una superinteligencia artificial. Una de las propuestas planteaba construir esa superinteligencia de modo que aprendiera a ser moralmente buena por sí sola. El objetivo no era salvar a los seres humanos, sino dejar en el planeta un “heredero” capaz de bondad moral una vez que nosotros desaparezcamos. La pregunta incómoda, que nadie en la reunión respondió, señala el autor, es evidente: ¿por qué debería importarnos la ética de algo que existirá cuando ya no existamos nosotros?

Peter Thiel y la prédica sobre el Anticristo

El artículo se adentra en un territorio que parece de novela de ciencia ficción. Peter Thiel es cofundador de PayPal (junto con Elon Musk) y de Palantir, una empresa dedicada a la vigilancia masiva y el análisis de datos para gobiernos y ejércitos, está convencido de la pronta llegada del Anticristo, en el sentido bíblico del término. Según el análisis de la periodista Laura Bullard en Wired, Thiel cree que el Anticristo llegará al poder prometiendo paz y seguridad frente al caos tecnológico, probablemente en la forma de un gobierno mundial que intente regular la inteligencia artificial. Para Thiel, cualquier regulación de la tecnología es el enemigo: es lo que encarnará el mal en el siglo XXI. Y Dieguez señala la ironía con claridad: la misma persona que describe al Anticristo como alguien que llegará al poder hablando del apocalipsis y prometiendo soluciones… hace exactamente eso.

¿El miedo es real o es marketing?

La pregunta que el autor deja traslucir es si estas personas creen realmente en lo que dicen, o el discurso apocalíptico es una estrategia deliberada. Al final del artículo, el filósofo cuenta que le hizo esta misma pregunta a Gemini, la inteligencia artificial de Google. La respuesta fue elocuente: la advertencia apocalíptica es un doble juego. Por un lado, muchos pueden estar sinceramente aterrorizados por lo que sus creaciones podrían desatar. Por otro, esa misma retórica es una herramienta de marketing increíblemente poderosa: justifica proyectos ambiciosos, influye en la política y mantiene el flujo de capital.

Diéguez comparte esa sospecha. Y agrega algo más: tanto las visiones catastrofistas como las opuestas, el ultraoptimismo de quienes dicen que la IA lo resolverá todo, tienen el mismo valor epistémico, es decir, muy poco. Nadie sabe con certeza lo que va a ocurrir. Pero algunos actúan como si lo supieran, y eso les da un poder enorme.

La tesis central: hay que contener a Silicon Valley

Diéguez es cuidadoso en no caer en el alarmismo que critica. Pero su conclusión es clara: el desarrollo de la inteligencia artificial es demasiado importante como para dejarlo exclusivamente en manos de quienes tienen intereses económicos directos en él.

En su libro Frenar a Silicon Valley (2025), el científico cognitivo Gary Marcus llega a una conclusión similar: es posible y urgente ponerle límites a la influencia política y económica de estas empresas. Más urgente, incluso, que regular la inteligencia artificial en abstracto, porque el problema no es solo la tecnología: son las personas que la controlan y los fines para los que la usan.

En Pensar la tecnología, Diéguez desarrolla este argumento desde el concepto de responsabilidad. Apoyándose en la ética de Hans Jonas y en la tradición filosófica que viene desde Aristóteles, sostiene que el control humano sobre la tecnología es condición necesaria para que exista responsabilidad moral. Si aceptamos que la tecnología avanza sola, que nadie la gobierna y nadie puede detenerla, entonces nadie puede ser llamado a responder por sus consecuencias. Esta es, precisamente, la comodidad que ofrece el determinismo tecnológico a sus propagadores: convierte el abandono deliberado del control en una fatalidad natural. Pero Diéguez insiste en que esa renuncia no es inevitable; es una elección. Y como toda elección, tiene responsables concretos: quienes deciden financiar el desarrollo acelerado de sistemas cuyas consecuencias admiten no conocer, y quienes deciden no regularlo.

El filósofo subraya también que la dificultad para atribuir responsabilidades en el ámbito tecnológico —la complejidad de las cadenas causales, el anonimato de los sistemas, la fragmentación del trabajo técnico— no puede convertirse en excusa para eliminarla. En el ecosistema actual de la inteligencia artificial, donde miles de ingenieros, inversores, reguladores y usuarios participan en cadenas de decisión opacas, la tentación de concluir que “la responsabilidad es de todos, lo que significa que no es de nadie” resulta especialmente peligrosa. Frente a eso, el autor propone algo que suena sencillo pero exige esfuerzo: recuperar la pregunta por los fines. No solo preguntarse cómo funciona una tecnología, sino para qué sirve, a quién beneficia, qué sentido tiene y quién responderá si daña. Esa pregunta es exactamente la que los grandes relatos apocalípticos de Silicon Valley están diseñados para evitar.

El filósofo malagueño cierra con una reivindicación que puede sonar anticuada pero que, precisamente por eso, resulta provocadora: leer filosofía de la tecnología. Autores como José Ortega y Gasset, que en su Meditación de la técnica (1939) ya advertía sobre lo que llamó la “hipertrofia de la técnica”, el dominio de los medios sobre los fines, ofrecen herramientas conceptuales para no dejarse arrastrar por ningún relato, ni el catastrofista ni el utópico.

La pregunta que queda en el aire, y que Diéguez no pretende resolver sino formular con preocupación, es esta: ¿estamos ante el verdadero fin de los tiempos, o ante un relato del fin de los tiempos fabricado por quienes se benefician de que lo creamos?

Bibliografía de Antonio Dieguez, para profundizar:

(2017). Transhumanismo: la búsqueda tecnológica del mejoramiento humano. Herder.

(2021). Cuerpos inadecuados. El desafío transhumanista a la filosofía. Herder.

(2024). Pensar la tecnología. Una guía para comprender filosóficamente el desarrollo tecnológico actual. Shackleton.

(2024). La ciencia en cuestión: Disenso, negación y objetividad. Herder.


[1] Dieguez, A. (2026). El apocalipsis: modelos actualizados. Disponible en: https://letraslibres.com/revista/el-apocalipsis-modelos-actualizados/20/02/2026/

[2] Mi artículo sobre el tema en Semanario Voces: https://semanariovoces.com/que-es-el-transhumanismo-por-miguel-pastorino/

Agregar un comentario

Deja una respuesta