
Un nouvel article académique avertit que les campagnes d’influence alimentées par des agents autonomes d’IA pourraient bientôt devenir beaucoup plus difficiles à détecter et à arrêter. Au lieu de réseaux de bots évidents, les opérations futures pourraient s’appuyer sur des systèmes qui se comportent comme de vrais utilisateurs et adaptent leurs actions au fil du temps. Les chercheurs affirment que ce changement pose de sérieux risques pour le débat public et la gouvernance des plateformes.
L’article Des essaims d’IA pourraient échapper aux systèmes de détection de la manipulation en ligne est apparu en premier sur Cointribune.
