YouTube Agit Contre les Contenus IA Mettant en Scène des Victimes de Crimes
YouTube a récemment annoncé une mise à jour majeure de sa politique de contenu, visant à interdire les vidéos utilisant l’intelligence artificielle pour simuler des victimes de crimes. Cette décision fait suite à l’augmentation des contenus de type true crime sur YouTube et TikTok, où des victimes générées par IA décrivent leurs expériences tragiques. Des deepfakes mettant en scène même des enfants ont été rapportés, soulevant de graves préoccupations éthiques et morales.
La nouvelle politique de YouTube, qui entrera en vigueur le 16 janvier, vise à supprimer les vidéos qui “simulent de manière réaliste des mineurs décédés ou des victimes d’événements violents meurtriers ou bien documentés décrivant leur mort ou les violences subies”. Les utilisateurs qui enfreignent cette politique recevront un avertissement, et leur contenu sera retiré. Des sanctions supplémentaires, telles que l’interdiction
de publier du nouveau contenu pendant une semaine, peuvent être appliquées. En cas de récidive, les chaînes pourraient être totalement supprimées de la plateforme.
Cette mesure fait partie des efforts continus de YouTube pour lutter contre le harcèlement et la cyberintimidation sur sa plateforme. Elle reflète également une préoccupation croissante concernant l’utilisation éthique de l’intelligence artificielle dans la création de contenu. En novembre 2023, YouTube avait également annoncé l’obligation pour les créateurs de contenu de divulguer lorsqu’ils ont créé un contenu altéré ou synthétique réaliste, y compris en utilisant des outils d’IA, ce qui serait également signalé aux spectateurs via une étiquette.
Pour plus d’informations sur cette mise à jour de la politique de YouTube, veuillez consulter leur page de support.