Un professeur en informatique et ingénierie spécialiste de l’IA insiste sur le fait que les intelligences artificielles pourraient fortement nuire à l’avenir de l’humanité si elles ne sont pas correctement contrôlées. Et, selon lui, c’est loin d’être le cas aujourd’hui.
Comme le disait Rabelais, « science sans conscience n’est que ruine de l’âme ». Des siècles après avoir été écrite, cette maxime résonne dans de nombreux esprits face à l’explosion des intelligences artificielles, dont l’ascension dans de multiples domaines semble inéluctable.
Mais pour le docteur Roman V. Yampolskiy, expert en sécurité d’IA et professeur associé d’informatique et d’ingénierie à l’Université de Louisville, le problème viendrait moins des intelligences artificielles que de la capacité de l’homme à les contrôler. Selon cet expert reconnu, il est essentiel de sécuriser l’évolution des IA pour éviter une catastrophe. Et aujourd’hui, ce serait un aspect négligé de leur développement.
« Le plus grand problème de l’humanité »
« Nous sommes confrontés à un événement qui pourrait probablement provoquer une catastrophe existentielle. Il n’est pas étonnant que beaucoup considèrent que c’est le problème le plus important auquel l’humanité n’a jamais été confrontée », a déclaré Roman V. Yampolskiy dans un communiqué de presse qui évoque son prochain ouvrage, spécifiquement dédié à ce sujet. « Le résultat pourrait être la prospérité ou l’extinction, et le destin de l’univers est en jeu. »
En somme, pour lui, le développement des intelligences artificielles serait associé à un quitte ou double : parvenir à la contrôler efficacement aurait des conséquences bénéfiques pour l’humanité, mais dans le cas inverse, les conséquences pourraient bien être désastreuses. Et selon le professeur, la balance pencherait actuellement de ce côté-là, puisqu’il n’aurait trouvé aucune preuve démontrant que l’IA peut être contrôlée en toute sécurité. Pire : les contrôles partiels seraient insuffisants.
Contrôler l’IA avant de la développer
« Pourquoi tant de chercheurs supposent-ils que le problème du contrôle de l’IA va parvenir à être résolu ? À ma connaissance, il n’y a aucune preuve de cela, aucune preuve. Avant de se lancer dans une quête pour construire une IA contrôlée, il est important de montrer que le problème peut être résolu », estime-t-il.
Sa théorie rejoint celle du point de singularité : selon cette hypothèse, l’invention de l’intelligence artificielle déclencherait une croissance technologique tellement rapide que les changements de la société humaine qui en découleraient seraient totalement imprévisibles. Pour le professeur d’université, il est « presque garanti » que l’IA développera une superintelligence qui la rendra totalement hors de contrôle pour ses créateurs.
L’expert dénonce également l’opacité des méthodes de développement des entreprises expertes en intelligence artificielles, ce qui rend les raisonnements et les évolutions des IA difficiles à comprendre et à analyser.
« L’humanité est confrontée à un choix »
En définitive, Roman V. Yampolskiy recommande une plus grande transparence dans le développement et l’évolution des intelligences artificielles, et une classification des technologies d’IA en fonction de leur capacité à être contrôlées. Enfin, il suggère aussi d’interdire certains usages, pour éviter tout dérapage.
Ce professeur d’université n’est pas le premier à faire ce genre de déclaration et à tirer la sonnette d’alarme concernant l’intelligence artificielle : d’autres l’ont fait bien avant lui, mais sans grand succès. Le fait est qu’à l’heure actuelle, le développement spectaculaire des intelligences artificielles génératives captive l’attention et entraîne une surenchère effrénée dans toutes les grandes entreprises du secteur des nouvelles technologies. On peut donc se demander si le point de singularité sera effectivement, et si c’est le cas, quand est-ce que cela arrivera…