Aveux au tribunal : l’ex-avocat de Trump : j’ai créé de fausses informations avec l’IA

Aveux au tribunal
L’ex-avocat de Trump : j’ai créé de fausses informations avec l’IA

L’ancien avocat de Trump, Cohen, a été condamné à la prison en 2018 pour abus des dons de campagne. L’avocat souhaite que l’affaire soit classée. L’homme de 57 ans affirme désormais devant le tribunal qu’il a fabriqué de fausses informations à l’aide d’un chatbot.

L’ancien avocat de Trump, Michael Cohen, a admis devant le tribunal qu’il avait utilisé l’intelligence artificielle pour générer de fausses informations et les avait transmises à son avocat. L’homme de 57 ans a utilisé le chatbot Google Bard pour trouver des documents pour une affaire judiciaire à New York créée par le logiciel. Cela ressort de documents récemment publiés par le tribunal fédéral de Manhattan, dans lesquels Cohen justifie son comportement.

Cohen a déclaré au tribunal dans un affidavit publié qu’il ignorait que Google Bard était un générateur de texte similaire à ChatGPT. Cohen a reconnu son erreur après que le juge chargé de l’affaire lui ait demandé une explication sur un total de trois cas cités qu’il n’a pas pu trouver.

Cohen a plaidé coupable de violations impliquant l’utilisation de dons de campagne pour Trump en 2018 et a été condamné à trois ans de prison, mais a été autorisé à purger une partie de sa peine en résidence surveillée en raison de la pandémie de coronavirus. Les informations incorrectes ont été trouvées dans la demande de Cohen au tribunal de classer l’affaire.

Reste à savoir si cet épisode aura un impact sur le procès en cours contre l’ancien président Donald Trump. Cohen y a témoigné comme un témoin clé et est décrit à plusieurs reprises comme indigne de confiance par la défense de Trump.

Les nouveaux programmes d’IA ont d’immenses capacités – mais la façon dont ils sont programmés les rend susceptibles de « halluciner » des faits supposés. Même avant Cohen, il y avait eu des cas d’avocats qui voulaient faciliter leur travail avec des chatbots IA, mais qui finissaient par fournir des informations incorrectes.