OpenAI a banni un groupe de comptes ChatGPT liés à une opération d’influence iranienne qui générait du contenu sur l’élection présidentielle américaine, selon un communiqué de presse. article de blog vendredi. L’entreprise affirme que l’opération a créé des articles et des publications sur les réseaux sociaux générés par l’IA, même s’il ne semble pas qu’elle ait atteint un public très large.
Ce n’est pas la première fois qu’OpenAI bannit des comptes liés à des acteurs affiliés à un État qui utilisent ChatGPT de manière malveillante. En mai, l’entreprise a perturbé cinq campagnes utiliser ChatGPT pour manipuler l’opinion publique.
Ces épisodes rappellent acteurs étatiques utilisant les plateformes de médias sociaux Les groupes comme Facebook et Twitter tentent d’influencer les précédents cycles électoraux. Aujourd’hui, des groupes similaires (ou peut-être les mêmes) utilisent l’IA générative pour inonder les réseaux sociaux de fausses informations. À l’instar des sociétés de médias sociaux, OpenAI semble adopter une approche du type « whack-a-mole », en bannissant les comptes associés à ces efforts au fur et à mesure qu’ils apparaissent.
OpenAI affirme que son enquête sur ce groupe de comptes a bénéficié d’une Rapport Microsoft Threat Intelligence publié la semaine dernière, qui a identifié le groupe (qu’il appelle Storm-2035) comme faisant partie d’une campagne plus large visant à influencer les élections américaines en cours depuis 2020.
Microsoft a déclaré que Storm-2035 est un réseau iranien avec plusieurs sites imitant des médias d’information et « engageant activement des groupes d’électeurs américains aux extrémités opposées du spectre politique avec des messages polarisants sur des questions telles que les candidats à la présidentielle américaine, les droits LGBTQ et le conflit entre Israël et le Hamas ». Le plan d’action, comme il l’a prouvé dans d’autres opérations, ne consiste pas nécessairement à promouvoir une politique ou une autre, mais à semer la dissidence et le conflit.
OpenAI a identifié cinq sites Web pour Storm-2035, se présentant comme des organes d’information à la fois progressistes et conservateurs avec des noms de domaine convaincants comme « evenpolitics.com ». Le groupe a utilisé ChatGPT pour rédiger plusieurs articles longs, dont un affirmant que « X censure les tweets de Trump », ce que la plateforme d’Elon Musk n’a certainement pas fait (au contraire, Musk encourage l’ancien président Donald Trump à s’engager davantage sur X).
Sur les réseaux sociaux, OpenAI a identifié une douzaine de comptes X et un compte Instagram contrôlés par cette opération. L’entreprise affirme que ChatGPT a été utilisé pour réécrire divers commentaires politiques, qui ont ensuite été publiés sur ces plateformes. L’un de ces tweets affirmait de manière fausse et confuse que Kamala Harris attribuait « l’augmentation des coûts de l’immigration » au changement climatique, suivi de « #DumpKamala ».
OpenAI affirme n’avoir pas vu de preuves que les articles de Storm-2035 ont été largement partagés et a noté qu’une majorité de ses publications sur les réseaux sociaux n’ont reçu que peu ou pas de likes, de partages ou de commentaires. C’est souvent le cas avec ces opérations, qui sont rapides et peu coûteuses à mettre en place à l’aide d’outils d’IA comme ChatGPT. Attendez-vous à voir beaucoup plus d’avis comme celui-ci à l’approche des élections et à l’intensification des querelles partisanes en ligne.