Les campagnes ne servent à rien : l’IA imite les politiciens américains – OpenAI bloque les développeurs

Aucune utilité pour les campagnes
L’IA imite les politiciens américains – OpenAI bloque les développeurs

Il y a longtemps que des avertissements ont été lancés concernant l’utilisation de l’intelligence artificielle dans les campagnes électorales, mais c’est désormais l’urgence. Une équipe de développement utilise un robot pour se faire passer pour un politicien démocrate. En réponse, OpenAI interdit les créateurs.

Selon le Washington Post, l’opérateur ChatGPT OpenAI a bloqué le développeur d’un robot qui imite le candidat démocrate à la présidentielle Dean Phillips. Il s’agit de la première mesure prise par le partenaire de Microsoft en réponse à une utilisation abusive de ses outils d’intelligence artificielle (IA) dans le cadre d’une campagne politique, rapporte le journal.

« Nous avons récemment supprimé un compte de développeur qui violait sciemment nos directives d’utilisation, qui interdisent les campagnes politiques ou l’usurpation d’identité sans consentement », a déclaré OpenAI dans un communiqué.

Selon l’article du Washington Post, les deux entrepreneurs de la Silicon Valley, Matt Krisiloff et Jed Somers, seraient à l’origine du Dean.Bot, propulsé par ChatGPT d’OpenAI. Ils ont fondé le comité d’action politique « We Deserve Better » – qui a à son tour signé un contrat avec la startup d’IA Delphi.

OpenAI a bloqué le compte de la startup d’IA vendredi soir (heure locale), soulignant que les règles d’OpenAI interdisent l’utilisation de sa technologie dans les campagnes politiques. Le démarrage a supprimé le bot après le blocage du compte. Ni le comité d’action politique « Nous méritons mieux » ni Delphi n’ont encore fait de commentaires sur la question.

La semaine dernière, OpenAI a contrecarré les craintes d’ingérence électorale grâce à l’intelligence artificielle (IA). OpenAI souligne que ses politiques interdisent d’utiliser sa technologie d’une manière considérée comme potentiellement abusive. Cela inclut la création de chatbots qui peuvent se faire passer pour de vraies personnes, créer une ambiance et ainsi influencer le comportement électoral des gens.