Il y a quelques jours, des centaines de photos pornographiques mettant en scène la star mondiale Taylor Swift avaient envahi les réseaux sociaux. Il s’agissait en réalité de Deepfakes (images générées par l’Intelligence Artificielle – IA) créées à partir de Designer. Cette application fournie par Microsoft pour créer des images à partir d’un énoncé ont trompé le web au point de devoir censurer les recherches sur X (ex-Twitter).
Le réseaux social X (ex-Twitter) a été le plus prolifique concernant la publication des deepfakes de Taylor Swift générés par intelligence artificielle à caractère pornographique. Une fausse vidéo est même restée 17 heures avant d’être supprimée. De quoi alimenter les critiques sur la modération, souvent critiquée, du réseau social racheté par Elon Musk en 2023. L’affaire avait été révélée par le média américain 404 qui a révélé que ces images ont été créées grâce à Designer. Le générateur d’images par intelligence artificielle créé Microsoft. Mais selon BFMTV, Microsoft assure avoir corrigé le bug.
Le géant américain a déclaré avoir renforcé les codes de protection de son logiciel dans le but de rendre plus compliquée la génération d’images qui intègrent le visage d’une personnalité. En réalité, les auteurs de ces images ont réussi à tromper les robots en modifiant l’orthographe de la star américaine de quelques lettres seulement et en veillant à ne pas utiliser de termes sexuels explicites. Quoiqu’il en soit, Microsoft a affirmé le 1er février que le bug était désormais réparé. Espérons ne plus trouver de deepfakes de Taylor Swift ou de quiconque d’autres sur les réseaux sociaux…