CONNEXION
  • RetourJeux
    • Tests
    • Soluces
    • Previews
    • Sorties
    • Hit Parade
    • Les + attendus
    • Tous les Jeux
  • RetourActu
    • Soldes
    • Culture Geek
    • Astuces
    • Réalité Virtuelle
    • Rétrogaming
    • Toutes les actus
  • Prime Day
  • RetourHigh-Tech
    • Actus JVTECH
    • Prime Day
    • Soldes
    • Bons plans
    • Tutoriels
    • Tests produits High-Tech
    • Guides d'achat High-Tech
    • JVTECH
  • Soldes
  • RetourVidéos
    • A la une
    • Gaming Live
    • Vidéos Tests
    • Vidéos Previews
    • Gameplay
    • Trailers
    • Chroniques
    • Replay Web TV
    • Toutes les vidéos
  • RetourForums
    • Hardware PC
    • PS5
    • Switch
    • Xbox Series
    • Overwatch 2
    • FUT 23
    • League of Legends
    • Genshin Impact
    • Tous les Forums
  • Smartphone et Tablette
  • Mobilité urbaine
  • Hardware
  • Image et son
  • WEB 3.0
  • Bons Plans
En ce moment Genshin Impact Valhalla Breath of the wild Animal Crossing GTA 5 Red dead 2
Créer un contenu
News JVTech Les photos de votre enfant ont surement été utilisées pour entraîner des IA. Un rapport alarmant dénonce cette absence de consentement
Profil de akazan,  Jeuxvideo.com
akazan - Rédaction jeuxvideo.com

Un rapport d’enquête récemment publié par l’organisation Human Rights Watch met en lumière l’une des manières qu’utilisent les intelligences artificielles pour se former. Et si vous avez déjà mis des photos de vos enfants en ligne, vous allez sans doute le regretter.

81 500 vues

On le sait depuis des années : afficher publiquement ses enfants sur Internet via des photos publiées sur les réseaux sociaux n’est pas une bonne idée. La première raison avancée concerne les risques que ces clichés atterrissent sur des réseaux pédopornographiques, mais aujourd’hui, une autre raison de ne pas le faire est avancée : les intelligences artificielles peuvent s’en servir pour s’entraîner à produire des visuels réalistes, le tout sans chercher à avoir votre consentement.

Des photos d’enfants pour entraîner les IA

L’organisation Human Rights Watch a récemment publié un rapport inquiétant qui met en avant les dérives des intelligences artificielles génératives dédiées à la création de visuels. « Les photos personnelles d’enfants brésiliens sont utilisées pour créer de puissants outils d’intelligence artificielle (IA) sans la connaissance ou le consentement des enfants », explique le rapport. « Ces photos sont moissonnées sur le Web et rassemblées dans un grand ensemble de données que les entreprises utilisent ensuite pour former leurs outils d’IA. »

Ce rapport se focalise principalement sur le cas de LAION-5B, une base de données créée par l’organisation allemande LAION ayant pour but précis de former des intelligences artificielles. Le système parcourt la Toile en récupérant des millions de photos d’enfants. « Certains noms d’enfants sont listés dans la légende d’accompagnement ou dans l’URL où l’image est stockée. Dans de nombreux cas, leur identité est facilement récupérable, y compris des informations sur le moment et l’endroit où l’enfant était au moment où sa photo a été prise », explique le rapport.

Près de 6 milliards de photos stockées

HRW se concentre sur le cas du Brésil où 170 enfants ont pu être identifiés sur les photos. Cependant, l’organisation souligne avoir examiné « moins de 0,0001 % des 5,85 milliards d’images et de légendes contenues dans l’ensemble de données. » Le Brésil n’est clairement pas le seul pays concerné, et de nombreux parents ont sans doute fourni, sans le savoir, des photos à la base de données allemande.

« Les photos examinées couvrent toute l’enfance. Ils capturent des moments intimes où les bébés naissent dans les mains gantées des médecins, des jeunes enfants qui soufflent des bougies le jour de leur gâteau d’anniversaire ou dansent dans leurs sous-vêtements à la maison, des élèves faisant une présentation à l’école et des adolescents posent des photos au carnaval de leur lycée. »

Ce sont donc des clichés intimes, qui ont été mis en ligne dans le but d’être partagés avec des proches. « Certains ont été mis en ligne des années, voire une décennie avant la création de LAION-5B », précise le rapport.

Une situation alarmante pour la vie privée

On le sait, les IA sont loin d’être infaillibles et elles sont capables de générer beaucoup d’erreurs. Le fait que des informations personnelles circulent avec ces photos « volées » sur le Web est également très dangereux. Et comme le souligne HRW, les intelligences artificielles sont capables de reproduire à l’identique des clichés qu’on leur a fournis pour se former.

Il s’avère que la base de données LAION-5B a déjà été utilisée pour générer des images mettant en scène de la maltraitance d’enfants, comme le révélait une enquête de l’Observatoire Internet de Stanford en décembre 2023. Le fait de savoir que des photos de véritables enfants ont été utilisées pour cela fait clairement froid dans le dos.

Alerté par HRW, l’organisation allemande LAION s’est engagée à supprimer toutes les photos personnelles identifiées par Human Rights Watch. Cependant, LAION a aussi déclaré que les seuls vrais responsables de la situation étaient « les enfants et leurs tuteurs » qui publient des clichés personnels sur Internet, et les encourage donc à faire le ménage. Pensez-y, la prochaine fois que vous désirez partager des photos de famille sur les réseaux sociaux…

Intelligence Artificielle et Robot
Commentaires
Vous devez être connecté pour poster un commentaire.
dricc1 dricc1
MP
Niveau 15
le 13 juin à 10:59

Faut arreter avec cette phobie des IAs .
Alors ici , oui , les IAs se servent de ces photos . Mais elles ne vont pas utiliser le visage des gamins , c'est meme un des benefice des IAs : elles peuvent créer des visages humains .
Il n'y a donc aucun préjudice , aucune violation de vie privée .

Lire la suite...
Les jeux attendus
1
Assassin's Creed Shadows
15 nov. 2024
2
Call of Duty : Black Ops 6
25 oct. 2024
3
Grand Theft Auto VI
2025
4
DRAGON BALL : Sparking! ZERO
11 oct. 2024
5
The Legend of Zelda : Echoes of Wisdom
26 sept. 2024
La vidéo du moment