Tecnología
De la excepción a la rutina: la IA se vuelve un motor de desinformación
Los contenidos manipulados con inteligencia artificial (IA) para desinformar se han disparado de forma sostenida en los últimos meses


Publicado el 03/05/2026 a las 14:51
La inteligencia artificial se ha integrado en la rutina de la desinformación de una forma cada vez más acelerada, donde los montajes y los "deepfakes" han pasado de ser excepcionales, fáciles de identificar, a integrarse en el flujo de actualidad, capaces hasta de alterar la percepción de la realidad.
Los datos recopilados por el Observatorio Europeo de Medios Digitales (EDMO) muestran una realidad evidente: los contenidos manipulados con inteligencia artificial (IA) para desinformar se han disparado de forma sostenida en los últimos meses. Una tendencia que también se aprecia en el trabajo de EFE Verifica.
Pero el cambio no es solo cuantitativo. La expansión de estas herramientas no solo facilita fabricar bulos cada vez más creíbles y adaptados a la actualidad, sino que también alimenta el nuevo fenómeno de acusar un vídeo o imagen de ser sintético para desacreditar pruebas auténticas.
MÁS VERIFICACIONES SOBRE IA
Aunque la evolución no es completamente lineal, los datos muestran una tendencia común al alza. El punto más alto se alcanza en marzo, cuando el 34 % de los desmentidos publicados por EFE Verifica fueron sobre contenidos sintéticos. En el conjunto de EDMO, esa proporción llegó al 20 %, el mayor porcentaje registrado en ambos casos.
Además, esta subida coincide con una sucesión de lanzamientos de modelos de imagen y vídeo más realistas y accesibles desde septiembre de 2025. En apenas meses se presentaron herramientas como Ray3, Sora 2, Veo 3.1, Firefly Image Model 5 o Nano Banana Pro, todas con mejoras en generación audiovisual.
Estas herramientas permiten fabricar imágenes, vídeos o audios falsos y adaptarlos a casi cualquier conversación pública, aprovechando vacíos de información o manipulando hechos reales para transformar la narrativa.
LA DESINFORMACIÓN VA ALLÁ DONDE ESTÉ LA ACTUALIDAD
La IA se adapta con facilidad a los temas que ocupan la parrilla de actualidad en cualquier momento. Además de servir como propaganda, los eventos que acaparan el debate público son objeto del llamado "AI slop", contenidos sensacionalistas que buscan generar clics e interacciones y su principal fin es la monetización.
En las verificaciones de EFE Verifica entre septiembre de 2025 y abril de 2026, los contenidos sintéticos aparecen directamente vinculados a eventos que marcaron la actualidad.
La guerra de Irán irrumpió con fuerza en marzo y se situó como el principal foco de narrativas desinformadoras con IA. Antes, la captura de Maduro ya había provocado en enero una ola de contenidos sintéticos, mientras que otros asuntos como el caso Epstein, la inmigración o los sucesos virales han concentrado materiales falsos desde septiembre.
El patrón es claro. La IA prende con más fuerza donde hay incertidumbre, tensión política, imágenes impactantes o poca información en los primeros momentos.
Aún así, no toda la desinformación generada con IA es igual. Un análisis de las verificaciones publicadas en marzo por los miembros de Iberifier en España —Newtral, Maldita, Verificat y EFE Verifica—muestra que la inteligencia artificial se usa sobre todo para fabricar escenas falsas, pero también puede generar un escepticismo generalizado sobre pruebas auténticas.
Fue el caso de los contenidos que acusaban al círculo próximo del primer ministro de Israel, Benjamín Netanyahu, de publicar vídeos sintéticos sobre el mandatario, quien, según se especulaba en redes, habría muerto en un ataque iraní.
UNA DESINFORMACIÓN CADA VEZ MÁS VISUAL
Los formatos visuales dominan las verificaciones sobre IA analizadas en marzo. El vídeo concentra más de la mitad de los casos, seguido de la imagen, mientras que los contenidos vinculados a chatbots o formatos mixtos tienen menos peso.
El vídeo predomina porque conserva una fuerza probatoria que no tienen otros formatos. Frente a una imagen fija o a un texto atribuido a un chatbot, una secuencia en movimiento suele percibirse como una prueba más completa de que algo ocurrió.
Varias investigaciones sobre 'deepfakes' sugieren que el contenido audiovisual suele generar más confianza que el verbal porque se aproxima más a la lógica de "ver para creer". La IA aprovecha esa confianza a base de escenas que parecen grabadas en directo como supuestas evidencias.
En este sentido, el impacto depende no solo del realismo de la escena, si no de que se pueda adaptar rápido a una crisis, conflicto o figuras públicas y que circulen como una prueba visual a un público vulnerable.