Hace unos días vi un video que, durante unos segundos, me pareció completamente real. El gesto, la voz, la cadencia, la pausa incómoda entre una frase y otra. Todo estaba ahí. Lo vi como vemos casi todo hoy: rápido, entre un mensaje y otro, con esa confianza distraída que tenemos cuando la pantalla nos entrega algo con buena producción. Luego descubrí que era falso. No “engañoso”. Falso. Hecho con inteligencia artificial para parecer legítimo. Y lo que me inquietó no fue el video. Fue mi reflejo automático de creerle.
Creo que ahí está el verdadero problema de esta etapa de la IA.
Más artículos del autor
No estamos entrando a una era donde habrá más contenido falso. Estamos entrando a una era donde la duda va a contaminar también lo verdadero.
En las últimas semanas, Reuters documentó cómo los deepfakes ya se están usando en campañas políticas de Estados Unidos con piezas fabricadas para parecer declaraciones reales, en un entorno con reglas fragmentadas y controles todavía débiles. Al mismo tiempo, el gobierno británico anunció un trabajo conjunto con Microsoft, académicos y especialistas para desarrollar estándares de detección de deepfakes, precisamente porque el volumen y la calidad de este material se dispararon de forma brutal en muy poco tiempo.
Y no tenemos que irnos muy lejos, hace un par de semanas, la famosa “rubia asoleándose en el palacio” generó un debate encarnizado durante varios días, en el que un video real quería ser cuestionado por ser “supuestamente” generado por IA.
Eso, para mí, cambia la forma en la que vamos a ir tomando decisiones en el futuro… (¿o en el presente?).
Durante mucho tiempo hablamos de la inteligencia artificial como una herramienta de productividad, de automatización, de eficiencia, de creatividad aumentada. Y sí, también es eso. Pero sería ingenuo quedarnos ahí. La IA generativa ya no solo escribe correos, resume juntas o diseña presentaciones. También puede fabricar evidencia emocional. Puede simular autoridad. Puede ponerse la cara de alguien, tomar su voz, copiar su tono y colocarlo frente a nosotros con una naturalidad que hace apenas dos años parecía exageración de conferencia.
Lo delicado es que el daño no termina en el engaño inicial.
Porque cuando una sociedad descubre que puede ser engañada con facilidad, deja de confiar incluso en aquello que sí es auténtico. Y esa erosión no se queda en la política, ni en los medios, ni en las grandes plataformas. Baja a lo cotidiano. A la llamada donde una madre duda si de verdad escucha a su hijo. Al audio de WhatsApp que ya no basta por sí solo. Al video que uno reenvía con la pregunta más reveladora de esta época: “¿Sí será cierto?”
Ese “sí será cierto” se volvió parte de la realidad con la que vivimos cada día. Y no es un detalle menor. Es un cambio cultural.
Durante años dijimos: “Ver para creer”. Luego nos movimos a “leer para entender”. Ahora estamos entrando, un poco a la fuerza, a una fase mucho más incómoda: ver ya no alcanza, oír tampoco, y entender requiere verificar múltiples fuentes.
No sé si todos hemos dimensionado lo que eso implica para la vida pública. Una democracia depende, entre muchas otras cosas, de una base mínima de realidad compartida. Un mercado depende de la confianza. Una marca depende de credibilidad. Una persona depende de reputación. Si esa base se fractura, lo que se rompe no es solo la información. Se rompe el tejido de decisión.
Y eso sale carísimo.
Porque la desconfianza sintética no solo afecta a quien cae en un fraude. También castiga a quien dice la verdad pero llega tarde a demostrarla. Castiga al medio serio que compite contra piezas falsas más emocionales y más veloces. Castiga al negocio legítimo que tiene que invertir más en validar su identidad. Castiga al personaje público, al periodista, al creador, al empresario y, sí, también al ciudadano común que ya no sabe qué prueba sigue siendo suficiente.
A veces siento que estamos discutiendo la IA con el lenguaje equivocado. Muy técnico por un lado, muy triunfalista por el otro. Como si todo se redujera a aprender prompts, integrar herramientas y no quedarse atrás. Pero el asunto de fondo no es solo tecnológico. Es humano. Es social. Es incluso moral, aunque esa palabra incomode. La pregunta ya no es únicamente qué puede hacer la IA. La pregunta es qué le está haciendo a nuestra relación con la realidad.
Y aquí hay una contradicción interesante: mientras más sofisticadas se vuelven las herramientas para generar falsedad convincente, más valor adquieren los mecanismos lentos de confianza. La verificación. La procedencia. La reputación construida durante años. La consistencia. El criterio. No suena espectacular, lo sé. No cabe tan bien en el discurso futurista. Pero justo ahora eso vale más.
Por eso me parece un error pensar que este problema se resolverá con avisos oportunos o con la típica reacción de plataforma que siempre llega cuando el daño ya circuló. Reuters reportó que muchas piezas manipuladas en política se están difundiendo con advertencias apenas perceptibles o bajo marcos regulatorios todavía muy desiguales. Eso no corrige el problema de origen. Apenas lo acompaña.
Tampoco creo que la solución sea vivir paranoicos.
Pero sí creo que tendremos que volvernos más exigentes con la evidencia. Más lentos con la indignación. Más disciplinados con lo que compartimos. Y más conscientes de que la confianza, en esta nueva etapa, ya no se da por sentada. Se demuestra. Se respalda. Se cuida.
La IA no vino solamente a automatizar tareas. Vino a ponerle precio a algo que creíamos abundante: la credibilidad.
Y cuando una época empieza a dudar de todo, el poder no se lo queda quien grita más fuerte ni quien publica más rápido. Se lo queda quién todavía puede probar que es real.
@sergiofesquivel
https://sfesquivel.com