Hay cada vez más investigaciones que están revolucionando nuestro conocimiento sobre el cerebro humano, que dieron lugar en los últimos años a un área multidisciplinar llamada “neurociencias”, de las cuales han surgido nuevas disciplinas como la neurofisiología, la neurolingüística, la neuropsicología y la neurogenética, cambiando radicalmente lo que sabíamos sobre los procesos mentales, las emociones y el aprendizaje. Junto a las neurociencias han aparecido las nuevas neurotecnologías con un desarrollo imparable, abriendo un horizonte de posibilidades impensables hasta hace poco tiempo para la medicina, pero también de riesgos para la libertad y el respeto por la dignidad humana. Se está planificando —y en algunos casos ya ejecutando— el desarrollo de dispositivos para decodificar la información de nuestro cerebro, descifrar el código neuronal, amplificar nuestros sentidos, modificar nuestros recuerdos o crear cyborgs. Los debates en bioética y las agendas políticas se complejizan para establecer los límites entre las posibilidades de mejorar la calidad de vida y los abusos que pueden hacerse con las personas hasta niveles que solo podemos imaginar en el cine de ciencia ficción.
Neurociencias, neurotecnología e inteligencia artificial
La evolución de la neurociencia y, en paralelo, de la neurotecnología está llena de promesas y de riesgos. Por un lado, las nuevas tecnologías de intervención sobre el cerebro permiten solucionar problemas de visión, de audición, de memoria y se está trabajando sobre enfermedades neurodegenerativas. Pero al mismo tiempo se pretende impulsar desde el ámbito militar un módem cerebral implantable en el cráneo del soldado para ampliar capacidades cognitivas, buscando crear un “supersoldado” junto a otras herramientas de superación de capacidades físicas.
El proyecto Neuralink de Elon Musk ya no pertenece al terreno de la especulación. En enero de 2024 se realizó el primer implante en un ser humano, y los resultados han mostrado tanto posibilidades médicas concretas como nuevas preguntas éticas de gran calado. Un paciente tetrapléjico logró controlar una computadora con el pensamiento; otro, con ELA, recuperó la comunicación a través de un implante que trabaja combinado con inteligencia artificial generativa. Este último caso plantea una pregunta filosófica que no puede eludirse: ¿las respuestas mediadas por IA siguen siendo expresión auténtica del pensamiento del paciente, o comienza allí una colonización técnica de la subjetividad? La interfaz cerebro-máquina (bidireccional) no solo estimula el cerebro, sino que puede recibir e interpretar información proveniente de la mente humana. Hecha la conexión, se podrían identificar emociones, pero también inducirlas y crear estados de ánimo. Algunos especulan que en un futuro no muy lejano se podrá leer el pensamiento de una persona, penetrar en su memoria y controlarla.
¿Qué pasaría con el análisis de esta información por medio de técnicas de big data para el marketing o las campañas electorales? ¿Cómo afectaría a los fundamentos de los sistemas democráticos que presuponen la deliberación pública y racional entre personas mentalmente libres? Aunque algunos estudios actuales de neuropolítica atienden más al peso de las emociones y los marcos mentales que a los presupuestos racionalistas heredados de la Ilustración, la modificación del cerebro nos llevaría a escenarios no imaginados por los propios teóricos de la neuropolítica. Lo que hemos visto con el manejo de datos y el poder de las redes sociales es insignificante comparado con los desafíos que implicarían estos proyectos en materia de libertades y protección de derechos. Y ya se registran aplicaciones laborales concretas: empleadores que utilizan datos neurotecnológicos para evaluar cargas cognitivas, compararlas entre trabajadores y tomar decisiones de contratación, promoción o despido. Es un escenario que exige un mayor compromiso en la elaboración de normativas sobre derechos laborales.
El problema filosófico de fondo: ¿qué visión de la persona subyace?
Antes de entrar en el debate jurídico, conviene detenerse en una cuestión que suele pasar inadvertida a muchos expertos: los proyectos de neurotecnología más ambiciosos operan, en su mayoría, sobre una premisa metafísica no declarada pero filosóficamente muy controvertida. Esa premisa es el materialismo reduccionista: supone que la mente es el cerebro; que la identidad personal es un patrón neuronal y por tanto, leer neuronas equivale a leer pensamientos, y modificar circuitos equivale a modificar personas. Esta reducción no es un dato científico sino un supuesto metafísico materialista, y su aceptación acrítica tiene consecuencias directas sobre el diseño de las políticas de protección.
Como mostró Thomas Nagel hace años, el materialismo reduccionista es insuficiente para dar cuenta de la experiencia subjetiva. Hay una perspectiva de primera persona —lo que se siente ser alguien— que no se traduce a descripciones de tercera persona sin pérdida irreductible. Por su parte, David Chalmers acuñó el concepto del “problema difícil” de la conciencia: la experiencia subjetiva consciente no puede entenderse como la mera suma de componentes físicos más simples, por más detallada que sea la descripción neurológica. La conciencia sigue siendo el problema más resistente de la ciencia y la simplificación explicativa del reduccionismo neurológico se muestra muy limitada.
John Searle ofrece una posición particularmente útil desde el punto de vista bioético. Su “naturalismo biológico” sostiene que la mente y la conciencia son producidas por procesos cerebrales, pero no pueden ser reducidas a ninguna descripción funcionalista o computacional. No somos computadoras. La conciencia existe objetivamente como rasgo del cerebro humano, pero es irreductible a patrones de activación. La implicación para el debate sobre neurotecnología es directa: si la conciencia es irreductible, entonces “leer el cerebro” no equivale necesariamente a “leer el pensamiento”, y las promesas —y amenazas— de las interfaces cerebro-máquina están filosóficamente sobredimensionadas por sus propios creadores. Esto no disminuye los riesgos, pero sí obliga a precisarlos con mayor rigor.
Desde una perspectiva filosófica y antropológica más amplia, la cuestión de fondo es la noción de persona. La dignidad humana, fundamento de los derechos, no se deriva de la arquitectura cerebral, sino de la condición personal: la capacidad de relación, de autotrascendencia, de deliberación moral. Una neurotecnología que pretende reducir la libertad a patrones de activación o la identidad personal a una firma neuronal no es solo peligrosa en sus aplicaciones: está operando con una metafísica implícita que necesita ser cuestionada, no solo regulada.
Neuroderechos: de la propuesta al derecho positivo
En este escenario entran en juego los debates sobre los límites éticos y jurídicos. Está tomando forma un nuevo marco jurídico internacional llamado “neuroderechos”, imprescindible para proteger nuestra privacidad mental y la dignidad de toda persona. La literatura académica fundacional en este campo, especialmente los trabajos de Rafael Yuste y Marcello Ienca, propone cuatro grandes áreas de preocupación: la privacidad mental, la integridad mental, la continuidad psicológica y el libre albedrío cognitivo.
Chile abrió un antecedente singular al reformar en 2021 su texto constitucional para proteger la integridad física y psíquica frente al desarrollo científico y tecnológico, y en 2023 su Corte Suprema dictó una sentencia relevante en el caso Emotiv. En el plano regional, el Comité Jurídico Interamericano aprobó en 2023 sus Principios sobre neurociencias, neurotecnologías y derechos humanos. La OCDE ya había adoptado en 2019 una recomendación sobre innovación responsable en neurotecnología. Y UNESCO dio un paso mayor en 2025 al aprobar una Recomendación global sobre la ética de la neurotecnología. Es decir: el problema dejó de ser futurista. Ya entró en el lenguaje institucional del derecho internacional.
Los cinco neuroderechos que buscan sumarse al catálogo de derechos fundamentales son: la identidad personal (no alterar el sentido del yo bajo ninguna circunstancia); el libre albedrío (las personas tomarán sus decisiones sin manipulación neurotecnológica); la privacidad mental (no se podrán utilizar datos de la actividad cerebral sin consentimiento); la protección contra sesgos (no discriminar a partir de datos neurotecnológicos); y el acceso equitativo (las mejoras de capacidades cerebrales deben ser accesibles a todos).
¿Un problema solo de palabras?
Los neuroderechos son una categoría jurídicamente muy útil y no pretendo que busquemos una alternativa, pero me interesa señalar que es antropológicamente reduccionista, porque los derechos no son del cerebro ni de las neuronas, sino de la persona. Aunque es de destacar que el objetivo de estas propuestas es buscar que se respeten y protejan derechos y libertades fundamentales que se derivan de la dignidad humana y que están en riesgo ante proyectos transhumanistas, no es un detalle semántico criticar el concepto, porque tiene raíces en el problema filosófico que señalé antes. Si aceptamos que la persona es irreductible al sustrato neurológico, entonces un marco de protección que se llame a sí mismo “neuroderechos” corre el riesgo de confirmar, precisamente por su nombre, la premisa reduccionista que debería desafiar. No protegemos neuronas: protegemos personas. No regulamos cerebros: regulamos relaciones de poder sobre seres con dignidad.
Dicho esto, la iniciativa chilena aplica con acierto el principio de precaución y de responsabilidad intergeneracional, entendiendo que podemos afectar no solo a las nuevas generaciones, sino a la especie humana en sus derechos fundamentales. El principio de Hans Jonas -“obra de tal modo que los efectos de tu acción sean compatibles con la permanencia de una vida humana auténtica sobre la Tierra”- adquiere aquí una urgencia inédita: ya no hablamos solo de amenazas al entorno natural, sino de amenazas a la arquitectura interior de la libertad humana.
Un desafío para la bioética y la política contemporánea
El problema con las nuevas tecnologías es que van desarrollándose y aplicándose antes de que exista la debida reflexión y discernimiento que permitan la prudencia y precaución necesarias para evitar graves consecuencias para la vida humana. Si bien el entusiasmo en las ciencias biomédicas permite soñar una mejor calidad de vida para las personas más afectadas por discapacidades severas o enfermedades degenerativas, no es superfluo el impacto negativo que pueden tener estos proyectos sobre la convivencia social, la libertad de los individuos y, por ello, sobre la democracia tal como la conocemos.
La reflexión bioética enfrenta aquí un doble desafío. Por un lado, debe contribuir al diseño de marcos regulatorios que estén a la altura de la velocidad del desarrollo tecnológico, sin ceder ese espacio a los intereses económicos o militares que impulsan buena parte de la investigación. Por otro, debe sostener con rigor filosófico que la persona humana no puede ser tratada como un sistema de procesamiento de información cuyo “código” esté disponible para quien tenga la tecnología suficiente para leerlo. La bioética no puede ser la legitimación filosófica de lo que los tecnólogos ya decidieron hacer: debe ser el espacio en que esas decisiones son interrogadas y repensadas desde los cimientos.
Esto requiere, también, que la bioética sea interdisciplinar en un sentido exigente: que incorpore no solo la perspectiva jurídica y médica, sino la filosófica y antropológica, sin ceder a la ilusión de que el problema es meramente técnico y que sus soluciones son solo regulatorias. Los neuroderechos son necesarios, pero no son suficientes si no van acompañados de una reflexión más profunda y rigurosa sobre qué es una persona, qué hace a la vida humana digna de protección, y qué clase de mundo queremos construir para las generaciones que nos suceden.







