Una mujer de 76 años en Francia transfirió 830 mil euros luego de hablar por video llamada con quien creía era Brad Pitt. Un joven estadounidesne de 16 años recibió imágenes suyas generadas con IA; aparecía desnudo y lo extorsionaron. Se suicidó.
Vivimos en un tiempo en el que la posverdad ya había afectado los consensos sobre qué es un hecho. Ahora, la IA lleva esa fragilidad al plano visual y auditivo. La sospecha se vuelve condición de época: mirar una foto de un líder mundial, escuchar un audio viral o ver un supuesto testimonio puede ser un ejercicio de fe, más que de certeza. La verdad visual está en crisis: ya no basta con “ver para creer”.
La capacidad de la inteligencia artificial para generar y manipular imágenes y audios con realismo revolucionó a la industria de la comunicación, pero también genera problemas éticos, sociales y psicológicos graves.
En esta transformación de la cultura visual, el problema no es solo técnico, es político. Un retrato, una voz, una escena: ya no sabemos si pertenecen a la realidad o si pasaron por un prompt. El ojo humano, acostumbrado a descifrar la autenticidad, empieza a tambalear frente a imágenes que parecen verosímiles hasta en sus imperfecciones. Y la mentira digital no solo se perfecciona, también se democratiza: cualquiera puede fabricarla.

¿Por qué no es tan difícil caer en las trampas? Porque el hiperrealismo emocional juega: no basta con parecer real, el contenido busca generar una conexión emocional inmediata. La emoción, que solía funcionar como prueba íntima de autenticidad, también es manipulable. Además, tratan de explotar vulnerabilidades: afectivas, de salud, políticas o laborales. Y los daños son reales: perdidas económicas, de reputación, salud mental y la vida.
Por otra parte, que la IA pueda crear imágenes para provocar emociones específicas genera otras interrogantes éticas: ¿puede una imagen sin experiencia humana transmitir verdad? ¿Es la emoción una prueba de autenticidad? Las imágenes generadas: ¿son realmente “imágenes” si surgen de bases de datos entrenadas para producir algo a partir de un prompt? ¿Dónde reside la imagen: en el resultado visible o en el proceso técnico y computacional que la genera? ¿Alcanza con que una imagen nos conmueva para ser considerada auténtica? ¿Puede una creación sin experiencia humana transmitir verdad? Toda esa ambigüedad nos obliga a repensar qué entendemos hoy por ver, mirar o representar.

La tecnología no es el problema. De hecho aporta mucho al desarrollo. Ahorra tiempo y recursos, mejorada la creatividad, puede generar imágenes personalizadas según preferencias de cada usuario y, además, las imágenes con IA se usan en investigación científicas o diseño de productos que requieren imágenes realistas.
Alfabetización digital
El problema está en nuestra incapacidad para procesar su avance con las herramientas necesarias que garanticen un uso adecuado, ético y responsable. Y la respuesta está en nuestra capacidad crítica. Desconfiar, corroborar, aprender a leer imágenes como quien lee un texto. El rol del consumidor de información se vuelve crítico, escéptico, y necesita nuevas herramientas para discernir. Pero en la era de la inteligencia artificial, distinguir lo verdadero de lo falso ya no es solo una tarea técnica, sino una responsabilidad colectiva.
La educación en ciudadanía digital ya no es un lujo, sino una política de Estado imprescindible. Porque la brecha no está, al menos en Uruguay, en el acceso a dispositivos o conexiones, sino en el uso consciente de las tecnologías. Cuanto más avanzan, más se ensancha la distancia entre quienes saben leerlas críticamente y quienes quedan a merced de ellas.
Los marcos legales son necesarios para establecer límites y responsabilidades, pero no alcanzan sin una sociedad alfabetizada digitalmente. La regulación protege, pero la educación transforma.
Solo si entendemos que aprender a convivir con la tecnología es tan esencial como aprender a leer y escribir podremos evitar que el progreso corrompa más de lo que beneficia. Quizás la salida sea asumir que la verdad ya no se muestra, se busca.
La Estrategia de Ciudadanía digital de Agesic, propone integrar la educación digital en todos los niveles, desde la formación inicial hasta la continua. Destaca que sin una política educativa sólida, la brecha digital se amplía y los daños se multiplican.
La propia ONU advirtió que la IA puede ser una herramienta poderosa, pero también un factor de exclusión si no se acompaña de políticas de alfabetización digital y gobernanza inclusiva.
Ya somos una sociedad digital hace rato. Y estamos corriendo una carrera desigual contra la tecnología. La crisis de la verdad visual amenaza con minar no solo la confianza en lo que vemos, sino también los valores que sostienen la vida democrática. Si los Estados no convierten la educación digital y la regulación tecnológica en prioridades estratégicas, el riesgo es claro: la inteligencia artificial será más un factor de corrupción cultural que un motor de progreso humano.
La lógica de las redes sociales, que premia la visibilidad y la viralidad, convierte a la IA en un atajo perfecto para quienes buscan destacar. No se trata ya de contar lo que pasa, sino de inventar lo que emociona. Y esa es quizás la trampa más peligrosa: el fraude de la realidad se disfraza de noticia, de testimonio, de prueba irrefutable, y circula con la misma velocidad que lo auténtico.
El problema no es solo técnico, sino profundamente humano. La manipulación existe porque hay un terreno fértil: la necesidad de sobresalir, de captar atención en un mar de información infinita. La IA se vuelve la herramienta más eficiente para amplificar esa necesidad, para fabricar emociones a medida y distribuirlas en masa.
De ahí que la educación digital no pueda limitarse a aprender a detectar fraudes, sino que debe ir más hondo: formar ciudadanos capaces de comprender por qué esos fraudes existen, qué intereses los mueven y qué efecto tienen sobre nuestras emociones y decisiones colectivas.







