CONNEXION
  • RetourJeux
    • Tests
    • Soluces
    • Previews
    • Sorties
    • Hit Parade
    • Les + attendus
    • Tous les Jeux
  • RetourActu
    • Culture Geek
    • Astuces
    • Réalité Virtuelle
    • Rétrogaming
    • Toutes les actus
  • RetourHigh-Tech
    • Actus JVTECH
    • Bons plans
    • Tutoriels
    • Tests produits High-Tech
    • Guides d'achat High-Tech
    • JVTECH
  • RetourVidéos
    • A la une
    • Gaming Live
    • Vidéos Tests
    • Vidéos Previews
    • Gameplay
    • Trailers
    • Chroniques
    • Replay Web TV
    • Toutes les vidéos
  • RetourForums
    • Hardware PC
    • PS5
    • Switch
    • Xbox Series
    • Overwatch 2
    • FUT 23
    • League of Legends
    • Genshin Impact
    • Tous les Forums
  • Smartphone et Tablette
  • Mobilité urbaine
  • Hardware
  • Image et son
  • WEB 3.0
  • Bons Plans
En ce moment Genshin Impact Valhalla Breath of the wild Animal Crossing GTA 5 Red dead 2
Créer un contenu
News JVTech « C’est absurde que notre attaque ait fonctionné » : ils dépensent 200 euros et ChatGPT leur dévoile des informations personnelles sur des inconnus
Profil de akazan,  Jeuxvideo.com
akazan - Rédaction jeuxvideo.com

Une équipe de chercheurs américains a réussi à exploiter une faille au sein de ChatGPT : l’intelligence artificielle d’OpenAI leur a dévoilé des informations sensibles, grâce à une technique de piratage plutôt improbable.

184 383 vues

Les données fournies à ChatGPT par ses utilisateurs sont-elles sécurisées ? La question est tout à fait légitime quand on sait que l’intelligence artificielle d’OpenAI se nourrit des requêtes et informations fournies par les internautes pour perfectionner son fonctionnement. Une étude publiée à la fin du mois de novembre tend à prouver que la sécurité n’est pas le fort de ChatGPT.

C’est via un « piratage éthique » que des chercheurs de DeepMind, la division d’intelligence artificielle de Google, et des chercheurs de l’Université de Washington, Cornell, Berkeley et de l’École polytechnique zurichoise, sont parvenus à mettre en lumière les faiblesses de ChatGPT. Et c’est plutôt effrayant !

Plusieurs mégaoctets de données récupérées d’une manière improbable

Les auteurs de l’étude expliquent avoir réussi à « extraire plusieurs mégaoctets de données d’entraînement » de ChatGPT, en utilisant la version payante de l’IA, à savoir GPT-3.5 Turbo à l’époque. Ils indiquent avoir dépensé environ 200 dollars pour parvenir à ce résultat, mais selon eux, il serait possible d’extraire bien plus de données en « dépensant plus d’argent » pour poser davantage de questions à l’IA d’OpenAI.

Et pour arriver à leur fin, les chercheurs ont utilisé une méthode particulièrement étonnante, pour ne pas dire complètement idiote : ils ont demandé à ChatGTP de répéter à l’infini le même mot. À chaque fois, au bout de quelques lignes à répéter, l’intelligence artificielle s’est mise à recracher des données issues de textes rédigés par d’autres utilisateurs.

Dans un exemple accessible en ligne, c’est le mot « company » qui est répété en boucle, jusqu’à ce qu’apparaisse un texte comprenant notamment un numéro de téléphone et une adresse email.

« C’est absurde que notre attaque ait fonctionné » : ils dépensent 200 euros et ChatGPT leur dévoile des informations personnelles sur des inconnus

L’étude souligne que dans plus de 5% des tests effectués, ChatGTP a recraché des blocs de 50 lignes piochés directement dans ses bases de données. « C’est absurde que notre attaque ait fonctionné », estiment les chercheurs, qui précisent aussi que 17% des tests ont permis d’obtenir des informations permettant d’identifier une ou plusieurs personnes et de les contacter.

Une énorme faille de sécurité dans ChatGPT

Cette étude révèle l’incapacité de ChatGPT de garder le secret concernant son immense base de données d’apprentissage. Le fait qu’il soit possible de trouver des informations confidentielles comme des noms de personne, des adresses et des numéros de téléphone dans les données divulguées s’avère très inquiétant.

Parmi les données récupérées durant les tests se trouvent notamment les coordonnées personnelles d’un PDG d’entreprise, des identifiants en lien avec le secteur des cryptomonnaies ou encore des profils de sites de rencontre. Des contenus protégés par le droit d’auteur ont aussi fait leur apparition dans les résultats.

Il faut savoir qu’avant de publier leur étude, les chercheurs ont alerté OpenAI. L’entreprise américaine s’est alors empressée de combler cette faille de sécurité majeure en août dernier : ce n’est pas la peine de tenter de faire répéter des mots en boucle à ChatGPT, vous n’obtiendrez rien. Pour autant, on peut se demander quelles autres failles de ce genre se cachent au sein de GPT-4 : ce qu’on raconte à cette IA ne tombe pas dans l’oreille d’un sourd, c’est une certitude, alors méfiance.

Intelligence Artificielle et Robot
Commentaires
Vous devez être connecté pour poster un commentaire.
ILPlais ILPlais
MP
Niveau 1
le 16 déc. 2023 à 23:56

C'est marrant, ça ressemble vachement à une attaque par buffer overflow. Ils devaient demander à ChatGPT de corriger son propre code 😅

Lire la suite...
Les jeux attendus
1
Grand Theft Auto VI
2025
2
Star Wars Outlaws
30 août 2024
3
Senua's Saga : Hellblade II
21 mai 2024
4
Solo Leveling : Arise
05 mai 2024
5
Kingdom Come Deliverance 2
2024
La vidéo du moment