CONNEXION
  • RetourJeux
    • Tests
    • Soluces
    • Previews
    • Sorties
    • Hit Parade
    • Les + attendus
    • Tous les Jeux
  • RetourActu
    • Culture Geek
    • Astuces
    • Réalité Virtuelle
    • Rétrogaming
    • Toutes les actus
  • RetourHigh-Tech
    • Actus JVTECH
    • Bons plans
    • Tutoriels
    • Tests produits High-Tech
    • Guides d'achat High-Tech
    • JVTECH
  • RetourVidéos
    • A la une
    • Gaming Live
    • Vidéos Tests
    • Vidéos Previews
    • Gameplay
    • Trailers
    • Chroniques
    • Replay Web TV
    • Toutes les vidéos
  • RetourForums
    • Hardware PC
    • PS5
    • Switch
    • Xbox Series
    • Overwatch 2
    • FUT 23
    • League of Legends
    • Genshin Impact
    • Tous les Forums
  • Smartphone et Tablette
  • Mobilité urbaine
  • Hardware
  • Image et son
  • WEB 3.0
  • Bons Plans
En ce moment Genshin Impact Valhalla Breath of the wild Animal Crossing GTA 5 Red dead 2
Créer un contenu
News JVTech « Si on le fait, on va tous mourir » : la mise en garde de cet expert sur la progression des IA
Profil de RommB,  Jeuxvideo.com
RommB - Journaliste jeuxvideo.com

C’est un véritable appel à l’aide de la part de Eliezer Yudkowsky, écrivain et expert en intelligence artificielle. Selon lui, l’humanité court à sa perte avec l’évolution actuelle des IA.

« Si on le fait, on va tous mourir » : la mise en garde de cet expert sur la progression des IA

Une intelligence trop intelligente, signant la fin de l’humanité ?

Alors que les innovations technologiques matérielles se tassent petit à petit, les IA montrent une progression vertigineuse. Auparavant capables de réaliser des tâches assez simples et de quelque peu s’adapter à un contexte, les possibilités entrevues par GPT-4 et consorts ne semblent pas avoir de limite.

Quand on regarde l’écart de performances entre GPT-3 et son récent remplaçant GPT-4, il y a de quoi avoir froid dans le dos. Alors que la troisième version se limite à 175 millions de paramètres, la quatrième monte jusqu’à 100 trillions, soit l’équivalent du cerveau humain. Vous sentez venir la limite ? Ce qui est sûr c’est que Eliezer Yudkowsky, lui, la sent.

« Si on le fait, on va tous mourir » : la mise en garde de cet expert sur la progression des IA

Eliezer Yudkowsky est un chercheur Américain reconnu qui penche sur le sujet de l’intelligence artificielle depuis plus de 20 ans. Passionné mais aussi soucieux de son impact sur l’humanité, il crée le concept de « l’IA amicale », une machine hypothétique ayant une influence exclusivement positive sur l’Homme.

Alors que ce concept vise à promouvoir les questions éthiques autour du développement d'intelligences, les dernières paroles de l’expert sur le sujet vont plus loin, prévoyant un véritable danger pour l’humanité dans son ensemble.

Selon Eliezer, ce qui rend les IA aussi dangereuses à l’heure actuelle est leur incapacité à raisonner en faveur de l’humanité. Alors même que ces intelligences peuvent comprendre qui nous sommes, comment nous fonctionnons et ce que nous souhaitons, elles ne possèdent pas réellement d'empathie envers la vie humaine, et nous ne sommes pas encore capables de leur en faire ressentir.

La prévision de cet expert dépeint un futur où les robots que nous avons créé sont tout simplement plus développés que nous, et sont capables, dénués de toute émotion, de nous renverser s’ils nous trouvent inutiles. D’après lui, les capacités futures de l’IA contre les humains seraient comparables à une confrontation entre le monde du 11ème siècle et celui du 21ème siècle…

Que faire alors ? « Tout arrêter »

Vous avez peut-être vu passer une pétition visant à instaurer une pause de six mois pour le développement de toutes les intelligences artificielles étant plus performantes que GPT-4. Ce mouvement possède les mêmes motivations que notre ami Eliezer, mais ce dernier ne l’a pas signé. Selon lui, les revendications de cette répétition sont beaucoup trop légères pour qu’elles aient un impact suffisant.

Pour Yudkowsky, il convient de tout arrêter.

Si tu ne peux pas être certain si tu crée une IA ayant conscience de son existence ou non, c’est un problème, non pas seulement à cause des implications morales, mais surtout car être incertain signifie que tu n’as aucune idée de ce que tu es en train de faire et qu’il faut arrêter.

La pause de l’entraînement des IA doit être permanente en mondiale. Il ne peut y avoir aucune exception, même pour les gouvernements et l’armée. (...) Fermez toutes les fermes de GPU. Fermez tous les grands centres. Mettez un plafond sur la puissance de calcul maximale autorisée à utiliser dans une intelligence artificielle.

Un avis plus qu’extrême, mais qui s’entend. Il est difficile d’imaginer la façon dont l’Homme pourrait se faire renverser par ses propres robots, mais puisqu’il est déjà compliqué d’imaginer tout ce dont serait capable une IA dans 20 ans, alors tout est possible.


Commentaires
Vous devez être connecté pour poster un commentaire.
Macbenoit Macbenoit
MP
Niveau 2
le 04 avr. 2023 à 03:32

C’est fou comme personne n’est d’accord. L’ia fait peur à cause du mot intelligence. Dans la vraie vie les gens intelligents font déjà leur et pourtant ce ne sont pas eux les plus dangereux ce sont les sociopathes qui le sont. Une ima peut difficilement avoir des émotions dans l’état actuel des choses. La raison est simple puisque les ia sont spécialisées ça veut dire qu’elles sont intelligente dans un domaine mais ne sont pas en mesure de réfléchir sur une globalité. Au pire elles pourront d’ici quelques années équivaloir à l’intelligence globale du, être humain et quoi ? Ça fera un humain de plus mais artificiel ? Faut arrêter de fantasmer comme ça.
Au contraire les ia pourront résoudre des problèmes comme la médecine et les domaines technique et scientifiques, ça ne nous rendra pas plus idiots ça nous rendra la Vie plus simple. Lhulanite pourra se concentrer sur les questions éthique et sociologiques. Personne ne connaît l’avenir on se détruira de toutes façons mais pas comme on le croit

Lire la suite...
Les jeux attendus
1
Grand Theft Auto VI
2025
2
Star Wars Outlaws
30 août 2024
3
Senua's Saga : Hellblade II
21 mai 2024
4
Solo Leveling : Arise
05 mai 2024
5
Kingdom Come Deliverance 2
2024
La vidéo du moment