Home Sociedad Inteligencia Artificial: ¿un nuevo medioambiente? por Miguel Pastorino
0

Inteligencia Artificial: ¿un nuevo medioambiente? por Miguel Pastorino

Inteligencia Artificial: ¿un nuevo medioambiente? por Miguel Pastorino
0

Estos días se celebró en Uruguay la segunda Cumbre Mundial de Comisiones de Futuros (25 al 27 de setiembre), que reunió a más de 300 parlamentarios de diferentes países y representantes de empresas tecnológicas y desarrolladoras de inteligencia artificial (IA) aplicada. En el evento estuvieron presentes también investigadores de diferentes disciplinas que abordan la complejidad de las emergentes nuevas tecnologías y la gobernanza de la IA. Aprovecho la oportunidad para compartir una reflexión más filosófica sobre cuestiones de fondo y supuestos que se dan por obvios en las discusiones a propósito de su regulación.

La IA no es una herramienta, sino un ambiente.

Luca Varela, un filósofo y bioeticista italiano escribió un libro en 2022 (“Espejos: filosofía y nuevas tecnologías”, Herder), sobre las nuevas tecnologías donde a la luz de una discusión histórica en la filosofía, especialmente con Heidegger, plantea nuevos modos de comprender nuestra relación con la tecnología. Y fundamentalmente porque la tecnología dejó de ser una herramienta, un instrumento que decidimos si lo usamos para bien o para mal, para convertirse en un ámbito que interactúa con nosotros, nos condiciona, nos afecta y nos transforma. Ya no se puede pensar que la tecnología es un medio neutro, porque se ha transformado en el ambiente humano y ha cambiado nuestro modo de pensar y de vivir. Puede gustarnos más o menos, pero es más complejo que pensarla como una simple herramienta. La IA “comienza a fusionarse con nuestro ambiente físico y con nuestros cuerpos”, con todos los aspectos que hacen a nuestra vida cotidiana. Y esta transformación no es ni moral ni filosóficamente neutra.
El ambiente tecnológico tiene sus propias dinámicas y su propia lógica, no ha reemplazado el ambiente “natural”, sino que lo ha transformado, lo ha reconfigurado totalmente: “La tecnología ya no es un medio, sino que es el Medio, el ambiente en el que vivimos. Se trata de un Medio porque, debido a su autorregulación y sus automatismos, se configura como algo independiente y en continua evolución, capaz de rodearnos y de crear siempre nuevos contextos para el ser humano… Las nuevas tecnologías interactúan con el ambiente que las rodea, respondiendo a estímulos que llegan a ellas y que modifican sus comportamientos de manera independiente…” (cap. 2).
Nos encontramos en una dinámica de interacción mutua, de co-participación de operaciones. “Ya no se trata de pensar en acciones sobre los instrumentos, sino de interacciones con los instrumentos”.
Una de las preguntas fundamentales para quienes reflexionan sobre la IA es de carácter ético, porque nuevas posibilidades traen consecuencias evitables o imprevisibles. Que la tecnología abra nuevos espacios de acción implica necesariamente abrir una discusión ética sobre esas acciones que nunca son neutras. No es una novedad de que las nuevas tecnologías hacen muchas más cosas que aquellas para las que fueron pensadas y creadas. Pensar las acciones delegadas en la IA exige pensar en la responsabilidad por esas acciones y esto hace de la discusión un tema fundamentalmente ético, que no puede reducirse a pensar ingenuamente que se trata de aprender a usarla como si fuera una simple herramienta.

Cyberleviatán: ¿La libertad en extinción?

No es desconocido que nuestra interacción cotidiana con los sistemas informáticos entrega una inmensa cantidad de datos que revelan mucho de nosotros, desde nuestras preferencias, gustos e intereses, hasta nuestra situación familiar, laboral y académica. De esa masa informativa se alimentan algoritmos de todo tipo, que aspiran a saber más de nosotros. Muchos autores pensando en los extremos a lo que esto puede llevar, están preocupados porque vayamos renunciando progresivamente a libertades conquistadas, en la comodidad de una libertad asistida donde la IA, que adquiere un carácter “sagrado”, nos diga quiénes somos y qué queremos. Sin apenas discutirlo nos vamos abandonando a un nuevo poder tecnocrático imparable, aceptando que resuelvan gran parte de nuestra vida. A su vez, el rechazo a la responsabilidad hace más seductora la entrega de la libertad al poder tecnológico. En su obra Ciberleviatán, el filósofo José María Lasalle plantea la encrucijada que tenemos delante como humanidad, en ir perdiendo libertad por mayor seguridad o que, con responsabilidad política, exista un auténtico pacto que asegure la libertad de los ciudadanos, que proteja los datos y establezca nuevos derechos digitales.
La preocupación de varios investigadores es que nos encontramos sumergidos en un enjambre de humanos “sin capacidad crítica y entregado al consumo de aplicaciones tecnológicas dentro de un flujo asfixiante de información que crece exponencialmente” (Lasalle, p. 6).
Según Lasalle el liberalismo humanista tiene por vocación primera limitar el poder y ahora se enfrenta a la seducción del poder tecnológico que quiere ser omnipresente y omnisciente, sin resistencias.
Asistimos a una nueva reconfiguración del poder: “hoy, los datos que genera internet y los algoritmos matemáticos que los discriminan y organizan para nuestro consumo son un binomio de control y dominio que la técnica impone a la humanidad. Hasta el punto de que los hombres van adquiriendo la fisonomía de seres asistidos digitalmente debido, entre otras cosas, a su incapacidad para decidir por sí mismos” (Lasalle, 6).
Según Lasalle “el despotismo algorítmico está haciendo volver a los hombres a una nueva minoría de edad que desanda la tradición liberal del conocimiento que propició la Ilustración”.
La fascinación con un poder ilimitado de la tecnología, entendido como inevitable e ineludible, que asegura mayor control y niveles de certeza en decisiones, va desconfiando paulatinamente de la fragilidad y espontaneidad del factor humano. Así la libertad tan valorada y defendida, comienza a ser vista como un problema para el progreso, por lo cual los humanos deberían aceptar que su libertad sea asistida por una inteligencia superior, cuasi divina: la Inteligencia Artificial. Algunos autores comienzan a ver en este cambio sociocultural tecnocrático, la promesa de proteger a los humanos de su peligrosa espontaneidad y bajo una preferencia determinista, sería mejor programarnos para lo que se considere mejor.
Vamos perdiendo libertades con la ilusión de que “podemos acceder” a nuevas posibilidades de comunicación, como si para ser ilusoriamente más libres, tenemos que ir renunciando a libertades fundamentales. Y lo hacemos pasivamente y con cierta naturalidad.
Nos encontramos con un alineamiento entre lo técnico, lo económico y lo político donde el poder se centraliza de forma desmesurada sobre un progresivo número de actividades, incluyendo la salud, la educación y el trabajo.

Política, regulación y gobernanza de la tecnología.

En la dimensión política asistimos a una nueva forma de configuración del poder. Lasalle cree que mediando un pacto fundacional como el del Estado Moderno, pero sin debate ni conflicto, como el producto de una necesidad inevitable y querida por todos, nos alineamos en “un nuevo contrato social” bajo un poder único y centralizado tecnológicamente, que modifica la idea de soberanía, entregada totalmente a la IA.
La gobernanza de la tecnología será cada vez más un problema ineludible en la agenda política. Seguimos pensando y trabajando con instituciones y sistemas de regulación que son funcionales con la tecnología de tercera generación (revolución digital y de la información), pero son obsoletos para regular la Inteligencia Artificial y las redes de sistemas inteligentes, la robótica y las biotecnologías*.
Más allá de la ciencia ficción y los sueños transhumanistas, lo cierto es que la IA hoy no puede hacer todo lo que se piensa en el imaginario popular, o lo que se vende en algunas publicaciones de divulgación científica poco rigurosas con las evidencias que presentan. Gran parte de lo que hoy llamamos IA son sistemas de “minería de datos”, capaces de analizar cantidades masivas de información, procesar datos inimaginables y obtener de ellos patrones desconocidos que revelan nueva información sobre esos datos. Pero por más que nos impresione, no tiene la versatilidad y la flexibilidad de la inteligencia humana, ni tampoco conciencia propia, sino que lo que tiene de “inteligente” lo ha programado un humano. La IA no puede hacer tareas para las que no fue programada.
El filósofo español Antonio Dieguez, un especialista en filosofía de la tecnología, reconociendo los beneficios de la IA como instrumento eficaz en la persecución de delitos financieros, en la protección de seguridad de las personas, en la potenciación del progreso biomédico y en la protección del medio ambiente, no oculta su preocupación por el rostro problemático: “No conviene olvidar que, con independencia de si el desarrollo futuro de una inteligencia superior a la humana pudiera representar un peligro para la supervivencia de nuestra especie, lo que por el momento constituye un desafío desde el punto de vista de la salvaguarda de los derechos de las personas son ciertas aplicaciones de la IA cuyos efectos se están viendo ya, como es el caso del uso de nuestros datos personales por parte de sistemas de IA pertenecientes a las grandes empresas tecnológicas, cuyo poder a su vez se acrecienta aceleradamente, o los sesgos y opacidad de los algoritmos usados en la toma de decisiones importantes para la vida de las personas, como la contratación de personal en las empresas o la concesión de créditos bancarios. Mención aparte merecen los peligros del uso de la IA en la identificación de rostros y en la búsqueda de delincuentes y prevención del delito, en la vigilancia y represión de disidentes políticos, en la creación de armas autónomas, o en la proliferación de los ciberataques, de las noticias falsas y de la desestabilización política mediante la desinformación” (2021).
Para Dieguez lo más importante de este desafío es hasta donde los humanos aceptaremos la supervisión de nuestras decisiones por la IA y las posibles consecuencias de esas decisiones sobre nuestras vidas, cediendo el control. Por ello cree en la necesidad de promover instituciones y procedimientos de control que faciliten la defensa de los derechos de los ciudadanos, como la privacidad o la libertad de expresión, frente a los riesgos potenciales de la IA.

No es lo mismo información que sabiduría.

La IA desarrolla un tipo de funciones de manejo de datos que nos supera ampliamente en capacidad y velocidad, pero no sustituye otro tipo de capacidades humanas que tienen que ver sobre cómo lidiamos con nuestro entorno, sobre cómo nos relacionamos, sobre el sentido de la vida, que no se resuelven con estadísticas y patrones. La reducción del conocimiento a información lleva a un ingenuo optimismo sobre diversas posibilidades de la IA respecto de la vida humana. Sea cual sea la dirección que tome el desarrollo de la IA, no podemos delegarle la responsabilidad ni la sabiduría. Todavía existe cierta ingenuidad en pensar que todo se soluciona con mayor cantidad de datos, como si la respuesta a los dramas humanos dependiera exclusivamente de manejo de información y no de una profunda reflexión sobre lo que somos y qué queremos realmente hacer con el futuro de los que nos sucederán. Es claro que no podemos esquivar el progreso tecnocientífico y es deseable que pensemos responsablemente en cómo acompañamos estos procesos. Lo que sería irresponsable es caer en un determinismo que suponga que no hay nada más que hacer que subirse a la ola sin pensar, como si nada dependiera de nosotros más que aceptar un futuro ya programado. El futuro lo escribimos con nuestras decisiones del presente y es de celebrar que los actores políticos estén pensando en anticiparse a lo que vendrá de modo responsable y escuchando a los que saben desde diversas disciplinas.

*Algunas de estas reflexiones las desarrollé anteriormente en una publicación más extensa sobre siete desafíos a la política: La era de la responsabilidad (Konrad Adenauer Stiftung, Montevideo, 2021.

POR MÁS PERIODISMO, APOYÁ VOCES

Nunca negamos nuestra línea editorial, pero tenemos un dogma: la absoluta amplitud para publicar a todos los que piensan diferente. Mantuvimos la independencia de partidos o gobiernos y nunca respondimos a intereses corporativos de ningún tipo de ideología. Hablemos claro, como siempre: necesitamos ayuda para sobrevivir.

Todas las semanas imprimimos 2500 ejemplares y vamos colgando en nuestra web todas las notas que son de libre acceso sin límite. Decenas de miles, nos leen en forma digital cada semana. No vamos a hacer suscripciones ni restringir nuestros contenidos.

Pensamos que el periodismo igual que la libertad, debe ser libre. Y es por eso que lanzamos una campaña de apoyo financiero y esperamos tu aporte solidario.
Si alguna vez te hicimos pensar con una nota, apoyá a VOCES.
Si muchas veces te enojaste con una opinión, apoyá a VOCES.
Si en alguna ocasión te encantó una entrevista, apoyá a VOCES.
Si encontraste algo novedoso en nuestras páginas, apoyá a VOCES
Si creés que la información confiable y el debate de ideas son fundamentales para tener una democracia plena, contá con VOCES.

Sin ti, no es posible el periodismo independiente; contamos contigo. Conozca aquí las opciones de apoyo.

//pagead2.googlesyndication.com/pagead/js/adsbygoogle.js
Semanario Voces Simplemente Voces. Nos interesa el debate de ideas. Ser capaces de generar nuevas líneas de pensamiento para perfeccionar la democracia uruguaya. Somos intransigentes defensores de la libertad de expresión y opinión. No tememos la lucha ideológica, por el contrario nos motiva a aprender más, a estudiar más y a no considerarnos dueños de la verdad.