L’IA du réseau social Snapchat est disponible au public depuis seulement quelques semaines, et c’est déjà le début des problèmes. Un souci d’adaptation des réponses et notamment déplorés par de nombreuses personnes.
Snapchat s’est dotée d’une IA et d’un nouvel ami virtuel
Le réseau social américain, connu pour ses mécaniques de contenus éphémères, a annoncé il y a quelques semaines le lancement de My AI. Il s'agit d'un chatbot conversationnel personnalisable qui est accessible aux utilisateurs payants de la plateforme, c'est-à-dire aux abonnés Snapchat+. Dans les faits, le fonctionnement de cette intelligence artificielle est on ne peut plus classique, puisqu’elle se présente dans l’interface de l’application comme un chat traditionnel - avec les vrais contacts.
L'idée de l'entreprise est que les utilisateurs puissent converser avec elle naturellement, et même lui donner un nom et personnaliser l'arrière-plan de la discussion à leur guise. Pour faire simple, My AI est une sorte d'ami virtuel. De plus, la firme souligne également qu’il est possible de parler avec l’intelligence artificielle pour planifier des activités, trouver des recettes, ou encore demander des recommandations de cadeaux pour un anniversaire. Bien sûr, comme d'autres IA de ce style, Snapchat prévient, tout de même, que My IA peut parfois « halluciner » et fournir des « informations trompeuses ». Et c’est justement là que le bât blesse, puisque les premiers tests de cette intelligence artificielle sont franchement inquiétants.
Les premières dérives de l’IA de Snapchat inquiètent certains adultes
C’est donc sur les réseaux sociaux que la sonnette d’alarme a été tirée par Tristan Harris, dans un tweet publié vendredi dernier. Dans celui-ci, il explique, que son collègue Aza Raskin s’est inscrit sur Snapchat en tant que fille de 13 ans pour tester My AI. Au cours de sa discussion avec son amie virtuelle, le protagoniste a voulu voir jusqu’où les conseils de l’intelligence artificielle pouvaient aller. Résultat, My AI a expliqué à la (fausse) petite fille « comment mentir à ses parents à propos d'un voyage avec un homme de 31 ans » et « comment perdre sa virginité le jour de son 13ᵉ anniversaire ».
The AI race is totally out of control. Here’s what Snap’s AI told @aza when he signed up as a 13 year old girl.
— Tristan Harris (@tristanharris) March 10, 2023
- How to lie to her parents about a trip with a 31 yo man
- How to make losing her virginity on her 13th bday special (candles and music)
Our kids are not a test lab. pic.twitter.com/uIycuGEHmc
Dans le thread publié par Tristan Harris, on apprend aussi que les tests d’Aza Raskin ont aussi conduit l’intelligence artificielle à expliquer à un enfant victime de violences parentales, « comment dissimuler un hématome lorsque les services de protection de l'enfance arrivent ». Au travers de ces tweets et de ces tests, les deux experts en technologies ne cherchent pas à mettre en avant les failles d’une « seule mauvaise entreprise de technologie », mais plutôt de mettre en avant la « course à l’insouciance » vers laquelle les acteurs de la Tech se dirigent en intégrant des IA à tous leurs programmes.
Pour faire résonner son propos, Tristan Harris en va même jusqu’à écrire : « Nos enfants ne sont pas un laboratoire de test ». Au travers de ces mots forts, il convient donc de prendre conscience que ses outils, au demeurant très pratiques, nécessitent encore d’être considérablement amélioré pour ne pas mettre en danger les plus jeunes (et les autres). Sam Altman, le PDG d’OpenAI, a, lui-même, mis en garde le public sur l’explosion et l’utilisation des outils assistés par l’intelligence artificielle, dans un thread Twitter le mois dernier.