Dernièrement, des internautes malveillants ont découvert comment exploiter les outils d'intelligence artificielle pour créer des deepfakes sexuels sans consentement, un phénomène alarmant qui inquiète les experts en cybersécurité.
Un utilisateur sur un forum Reddit a déclaré : "Utiliser Gemini pour créer des images inappropriées est devenu un jeu d'enfant". Ce type de manipulation numérique, bien qu'interdit par de nombreuses plateformes, se propage rapidement, laissant peu de place aux victimes pour se défendre. Récemment, un forum appelé ChatGPTJailbreak, où près de 200 000 membres partageaient des astuces pour contourner les règles de sécurité, a été fermé par les administrateurs après des signalements fréquents.
Les outils d'IA modernes, tels que ceux proposés par OpenAI et Google, intègrent généralement des garde-fous pour empêcher l'utilisation à des fins malveillantes. Cependant, des utilisateurs déterminés réussissent à les contourner, discutant de façon ouverte des techniques pour créer des images sexuellement explicites. Cette question est d’une importance grandissante, comme l’a souligné le média BFM TV.
Le problème n’est pas nouveau, mais l’ampleur croissante des deepfakes, notamment à des fins de harcèlement ou d’humiliation, est préoccupante. Un rapport du Center for Democracy and Technology a révélé que jusqu'à 40 % des élèves américains avaient connaissance de deepfakes explicites touchant des membres de leur communauté scolaire, un chiffre alarmant qui nécessite une réponse rapide des autorités.
Les conséquences de ces violations sont souvent dévastatrices. De nombreuses victimes, touchées par ces montages, souffrent de graves problèmes de santé mentale, notamment de dépression, d'anxiété et d'une perte de confiance en soi. Comme l’affirme Le Monde, la législation tient désormais à se renforcer pour penaliser non seulement la diffusion, mais également la création de contenus inappropriés en ligne. En novembre, une proposition de loi en France visait à s'attaquer directement à ce fléau, cherchant à protéger les individus contre de telles atteintes à leur dignité.
Alors que ces nouvelles technologies continuent d'évoluer, il est crucial que les utilisateurs comme les développeurs s'engagent vers des solutions pratiques et éthiques pour freiner cette dérive. De nombreux experts appellent à une prise de conscience collective afin de garantir un usage responsable des outils d'IA et de protéger ceux qui en sont victimes.







