Meta s’efforce de protéger les mineurs de « l’extorsion sexuelle » grâce à l’intelligence artificielle

Meta a déclaré jeudi qu’elle développait de nouveaux outils pour protéger les utilisateurs adolescents contre les escroqueries « d’extorsion sexuelle » sur sa plateforme Instagram, que les politiciens américains ont accusée de nuire à la santé mentale des jeunes.

Les gangs organisent des escroqueries sexuelles en incitant les gens à fournir des photos explicites d’eux-mêmes, puis en menaçant de les rendre publiques s’ils ne sont pas payés.

Meta a déclaré qu’elle testait un outil de « protection de la nudité » alimenté par l’IA qui trouverait et brouillerait les images de nudité envoyées aux mineurs via le système de messagerie de l’application.

“De cette façon, le destinataire n’est pas exposé à un contenu intime non désiré et a le choix de voir ou non l’image”, a expliqué à l’AFP Capucine Tuffier, chargée de la protection de l’enfance chez Meta France.

La société américaine a déclaré qu’elle offrirait également des conseils et des conseils de sécurité à toute personne envoyant ou recevant de tels messages.

Environ 3 000 jeunes ont été victimes d’escroqueries liées à l’exploitation sexuelle en 2022 aux États-Unis, selon les autorités du pays.

Par ailleurs, plus de 40 États américains ont commencé à poursuivre Meta en octobre dans une affaire accusant l’entreprise de « profiter de la douleur des enfants ».

Le procès alléguait que Meta exploitait les jeunes utilisateurs en créant un modèle commercial conçu pour maximiser le temps qu’ils passent sur la plateforme malgré le fait de nuire à leur santé.

– “Apprentissage automatique sur l’appareil” –

Meta a annoncé en janvier qu’elle introduirait des mesures pour protéger les moins de 18 ans, notamment en resserrant les restrictions de contenu et en renforçant les outils de contrôle parental.

L’entreprise a déclaré jeudi que les derniers outils s’appuient sur “nos années de travail pour protéger les jeunes contre les contacts indésirables ou potentiellement dangereux”.

“Nous testons de nouvelles fonctionnalités pour protéger les jeunes contre l’extorsion sexuelle et l’abus d’images intimes, et pour rendre plus difficile aux fraudeurs et criminels potentiels de trouver et d’interagir avec des adolescents”, a déclaré la société.

Il a ajouté que l’outil de « protection de la nudité » utilise « l’apprentissage automatique sur l’appareil », un type d’intelligence artificielle, pour analyser les images.

L’entreprise, qui a également été accusée à plusieurs reprises de violation de la confidentialité des données de ses utilisateurs, a souligné qu’elle n’aurait accès aux images que si les utilisateurs les signalaient.

Meta a déclaré qu’elle utiliserait également des outils d’IA pour identifier les comptes qui publient du matériel offensant et limiteraient considérablement leur capacité à interagir avec les jeunes utilisateurs sur la plateforme.

La lanceuse d’alerte Frances Haugen, ancienne ingénieure de Facebook, a publié une étude menée en 2021 en interne par Meta – alors connue sous le nom de Facebook – qui a révélé que l’entreprise était consciente depuis longtemps des dangers que ses plateformes représentaient pour la santé mentale des jeunes.

AFP

Back to blog

Leave a comment

Please note, comments need to be approved before they are published.