Interdiction des robots téléopérateurs pour les élections présidentielles aux États-Unis


Dans de nombreux pays à travers le monde, l’intelligence artificielle joue un rôle de plus en plus important dans les campagnes électorales. Un exemple marquant de cette interférence s’est produit le 13 février aux États-Unis, lorsque le gouvernement a pris la décision d’interdire les robots téléopérateurs suite à un faux appel téléphonique prétendant être de Joe Biden. Cette mesure illustre l’impact croissant de l’IA sur le processus électoral et soulève des préoccupations quant à l’ingérence technologique dans le domaine politique.

Joe Biden victime des poursuites pour appels automatisés frauduleux

Quelques semaines plus tôt, une candidate démocrate au Congrès avait fait grand bruit en utilisant un robot pour appeler des électeurs et les persuader de voter pour elle. Cela a immédiatement soulevé des inquiétudes concernant les dérives potentielles de l’utilisation de l’intelligence artificielle en politique. Ces préoccupations se sont concrétisées lorsqu’il a été révélé que la voix de Joe Biden avait été clonée par l’intelligence artificielle pour envoyer des messages téléphoniques dissuadant les électeurs de participer aux primaires du New Hampshire. En réponse à cela, la FCC, l’organisme de réglementation des télécommunications aux États-Unis, a interdit les appels automatisés utilisant des voix générées par l’intelligence artificielle, à moins qu’il n’y ait un consentement écrit du destinataire.

Une enquête a révélé que jusqu’à 25 000 personnes avaient été contactées, ce qui aurait potentiellement un impact significatif sur les élections si elles étaient serrées. Cette situation souligne la nécessité d’interdire ces pratiques avant qu’elles ne deviennent monnaie courante.

Les créateurs d’IA prennent des mesures préventives

Face à ces événements, les développeurs d’outils d’intelligence artificielle prennent désormais des mesures préventives pour empêcher la prolifération de l’utilisation abusive de leurs technologies. Par exemple, Midjourney, l’outil ayant servi à créer l’image controversée du pape en doudoune, prévoit de bloquer la création d’images mettant en scène des personnalités politiques telles que Donald Trump ou Joe Biden. De même, Facebook et Instagram s’engagent à étiqueter clairement toutes les photos générées par intelligence artificielle sur leurs plateformes. Cependant, la situation est plus floue du côté de TikTok et de X, incitant l’Union européenne à exercer une pression réglementaire pour réguler l’utilisation de l’intelligence artificielle à des fins politiques, en particulier dans le contexte des élections européennes à venir.