Comme à chaque présentation (ou presque) d’OpenAI, Elon Musk n’a pas mâché ses mots envers les travaux de ses anciens collègues.
Elon Musk fidèle à lui-même
Lors d'un événement récent visant à présenter de nouveaux modèles d'intelligence artificielle, Elon Musk, PDG de Tesla et SpaceX, n'a pas hésité à critiquer ouvertement OpenAI, dirigé par Sam Altman. Selon lui, la démonstration de l'entreprise n’était qu’une blague, allant même jusqu’à dire qu’il l’a trouvée super gênante. Comprenez par là qu’Elon Musk, qui est un hater acharné d'OpenAI, a répondu en critiquant la démonstration de l'entreprise, sans mâcher ses mots. Il semblerait donc que les tensions entre les deux parties ne se soient pas apaisées, notamment depuis que le milliardaire a intenté un procès envers OpenAI et son PDG, Sam Altman, en mars dernier, les accusant de violation de leurs accords contractuels initiaux autour de l'IA.
Demo made me cringe
— Elon Musk (@elonmusk) May 13, 2024
En dépit de ces tensions, OpenAI a récemment dévoilé son nouveau modèle phare, le GPT-4o, lors d'un événement en direct cette semaine. Ce modèle offre une intelligence de niveau GPT-4, mais est beaucoup plus rapide et améliore ses capacités dans les domaines du texte, de la voix et de la vision. De plus, ChatGPT, également développé par OpenAI, annonce désormais son support pour plus de 50 langues, marquant ainsi une avancée significative dans la démocratisation de l'IA à l'échelle mondiale.
GPT-4o quèsaco ?
Globalement, GPT-4o promet d'être plus rapide, plus performant et plus polyvalent que son prédécesseur, GPT-4. Mira Murati, la responsable de la technologie d’OpenAI, a souligné que cette dernière itération est dotée de capacités améliorées en termes d'interprétation de texte, d'images et d'audio. De plus, elle est plus efficace dans l'analyse de données, prenant en charge une gamme impressionnante de cinquante langues différentes. Alors que la transition entre GPT-3.5 et GPT-4 était déjà notable, le passage à GPT-4o s'annonce comme une avancée encore plus significative. OpenAI s'efforce de faire de son chatbot un outil véritablement intelligent et polyvalent, capable de traiter non seulement du texte, mais aussi des images et des sons. La vitesse de réponse a été améliorée de manière spectaculaire, avec des temps de réponse de 232 millisecondes pour les entrées audio et une moyenne de 320 millisecondes.
Say hello to GPT-4o, our new flagship model which can reason across audio, vision, and text in real time: https://t.co/MYHZB79UqN
— OpenAI (@OpenAI) May 13, 2024
Text and image input rolling out today in API and ChatGPT with voice and video in the coming weeks. pic.twitter.com/uuthKZyzYx
En plus de cette mise à niveau, OpenAI a revu son API, permettant une communication plus fluide avec le chatbot à partir d'autres applications. L'API est désormais deux fois plus rapide et 50 % moins chère. De plus, les limitations ont été considérablement augmentées par rapport à celles imposées avec GPT-4 Turbo, offrant ainsi plus de flexibilité aux utilisateurs. Mira Murati a confirmé que le déploiement de GPT-4o se fera dans les prochaines semaines, et que les abonnés à ChatGPT Plus ont eu accès à cette nouvelle version dès l’annonce de ce nouveau modèle.