
Le futur de l'IA n'inquiète pas que les piliers de bar et nous autres humbles citoyens, mais aussi certains spécialistes, comme ce chercheur au MIT, qui dénonce le comportement des grosses sociétés technologiques.
L'IA va trop vite, tout le monde est d'accord
La réglementation de l'intelligence artificielle (IA) représente aujourd'hui un débat d'envergure internationale. Contrairement à d'autres révolutions technologiques récentes, où les entreprises innovantes ont souvent cherché à échapper aux contraintes réglementaires, les géants technologiques eux-mêmes, ainsi que d'éminents experts, pour une intervention gouvernementale dans le but de façonner un cadre juridique clair et éthique pour cette technologie émergente.
Les entreprises de premier plan, telles que Google, Meta (Facebook), Microsoft et Tesla, ont choisi d'engager des discussions avec les gouvernements et les organismes de réglementation pour solliciter leur aide dans la mise en place de réglementations spécifiques à l'IA.
L'engagement des géants de la tech montre l'impact profond que l'IA peut avoir sur la société. Il est important de noter que cette démarche peut susciter des interrogations quant aux motivations réelles des entreprises. Cependant, il semble que la prise de conscience croissante des enjeux liés à l'IA, notamment en matière de sécurité et d'éthique, soit le moteur principal de cette démarche.
Parmi les voix influentes en faveur de la réglementation de l'IA, on trouve Sam Altman, PDG d'OpenAI, la société derrière ChatGPT. Altman a plaidé devant le Sénat américain en faveur de la création d'une agence de surveillance de la sécurité de l'IA, afin de garantir que cette technologie soit utilisée de manière sûre et responsable. De même, Elon Musk, PDG de Tesla, a exprimé des inquiétudes concernant le développement de l'IA, allant jusqu'à demander une pause de six mois sur les modèles d'IA générative les plus puissants. Cette demande a été soutenue par des milliers de leaders de l'industrie, dont Steve Wozniak, le cofondateur d'Apple.
Personne ne fait de pause, donc personne ne fait de pause
Le Future of Life Institute, une organisation à but non lucratif, a joué un rôle majeur en soutenant l'appel à une pause sur l'IA. Son fondateur, Max Tegmark, chercheur au MIT, a récemment accordé une interview au Guardian, dans laquelle il a décrit les entreprises technologiques comme étant engagées dans une « course de longue distance » en ce qui concerne l'IA. Selon Tegmark, de nombreux dirigeants d'entreprises ressentent le besoin de ralentir le rythme effréné du développement de l'IA, mais ils se trouvent pris dans une compétition intense où aucune entreprise ne peut se permettre de marquer une pause. Cette situation crée une anxiété diffuse autour de l'IA, que peu osent reconnaître de peur d'être perçus comme des détracteurs.
Tegmark appelle également à l'action gouvernementale sur les modèles d'IA open source, disant que certaines IA ne devraient pas être mises à disposition du public sans réglementation appropriée. Difficile donc de superviser l'IA en faisant l'équilibre entre innovation et sécurité.
Alors que l'IA continue de se développer et de toucher de nombreux aspects de notre vie quotidienne, il est devenu impératif de créer un cadre réglementaire approprié qui garantisse l'éthique, la sécurité et la responsabilité dans son utilisation.