Un grupo de expertos publicó un artículo en la revista Science para alertar sobre la amenaza de los enjambres de inteligencia artificial (IA) en la democracia y cómo pueden afectar a la opinión pública.

Los “enjambres” son agentes de IA que trabajan en conjunto e interactúan entre sí, se utilizan en la robótica, logística, la investigación científica y también para algunas tareas en internet y redes sociales, pero en los últimos años se han identificado algunos con fines “maliciosos”.

Ahora, un equipo interdisciplinario de investigadores en informática, IA, ciberseguridad, psicología, ciencias sociales, periodismo y políticas públicas alerta que estos agentes maliciosos pueden manipular creencias y comportamientos en la población, promoviendo la desinformación y amenazando gravemente a la democracia.

“Creemos que la tecnología actual de IA permite a las organizaciones con intenciones maliciosas desplegar un gran número de agentes autónomos, adaptativos y coordinados en múltiples plataformas de redes sociales“, dijo para The Conversation, Filippo Menczer, uno de los autores del artículo, profesor de informática y ciencias de la computación de la Universidad de Indiana.

Cómo los enjambres de IA amenazan a la democracia

En el artículo de Science, los expertos exponen varias formas en las que los enjambres de IA están poniendo en riesgo a la democracia. Una de ellas es que pueden imitar a las personas reales en redes sociales.

De hecho, pueden incluso parecer auténticos y adaptarse a las dinámicas sociales según el contexto. “En lugar de generar publicaciones idénticas o spam evidente, los agentes de IA pueden generar contenido variado y creíble a gran escala”, explica Menczer.

Por otro lado, también son utilizados para realizar experimentos en línea para determinar cuáles de sus mensajes son más persuasivos y así perfeccionar sus estrategias de comunicación.

Y a partir de ello hacen lo que los expertos llaman un consenso sintético. “Una vez infiltrado un grupo en línea, los enjambres de IA maliciosa pueden crear la ilusión de un amplio consenso público en torno a las narrativas que están programados para promover“, plantea el informático.

“Esto explota un fenómeno psicológico conocido como prueba social: los humanos tendemos naturalmente a creer algo si percibimos que ‘todo el mundo lo dice’“, agrega.

Ante esta amenaza creciente, los investigadores sugieren medidas de mitigación, como regularlos y diseñar sistemas para detectarlos que puedan implementarse en las redes sociales. Cabe señalar que, a diferencia de los bots que copian y pegan, estos enjambres realizan acciones variadas, lo que dificulta su identificación.

“Tanto la IA como las redes sociales deberían adoptar estándares más rigurosos para aplicar marcas de agua al contenido generado por IA, así como reconocer y etiquetar dicho contenido”, señala Menczer.

También apunta a restringir la monetización en las redes para estas interacciones no auténticas, lo que “reduciría los incentivos financieros para que las operaciones de influencia y otros grupos maliciosos utilicen el consenso sintético”.

“La amenaza de enjambres de IA maliciosa ya no es teórica: nuestras pruebas sugieren que estas tácticas ya se están implementando. Creo que los responsables políticos y los tecnólogos deberían aumentar el coste, el riesgo y la visibilidad de este tipo de manipulación“, concluye.

Referencia: Daniel Thilo Schroeder y otros autores. How malicious AI swarms can threaten democracy. Revista Science, 2026.

Editor: contacto@noticiascomunitarias.cl
«Para pensar, comentar y compartir»
@destacar @seguidores #Temuco #Cautín #Malleco #Araucanía #Chile

error: ¡¡El contenido está protegido!!