Restez informé avec des mises à jour gratuites
Inscrivez-vous simplement L'intelligence artificielle myFT Digest – livré directement dans votre boîte de réception.
OpenAI et Meta sont sur le point de lancer de nouveaux modèles d'IA qui, selon eux, seront capables de penser et de planifier, étapes clés vers l'atteinte d'une cognition surhumaine dans les machines.
Cette semaine, les dirigeants d'OpenAI et de Meta ont indiqué qu'ils se préparaient à lancer les prochaines versions de leurs grands modèles de langage, les systèmes qui alimentent les applications d'IA générative comme ChatGPT.
Meta a déclaré qu'elle commencerait à déployer Llama 3 dans les semaines à venir, tandis qu'OpenAI, soutenu par Microsoft, a indiqué que son prochain modèle, qui devrait s'appeler GPT-5, arriverait « bientôt ».
« Nous faisons de notre mieux pour trouver comment faire en sorte que ces modèles non seulement parlent, mais aussi réfléchissent et planifient. . . « Il faut avoir de la mémoire », a déclaré Joelle Pineau, vice-présidente de la recherche en IA chez Meta.
Brad Lightcap, directeur des opérations chez OpenAI, a déclaré au Financial Times dans une interview que la prochaine génération de GPT montrera des progrès dans la résolution de « problèmes difficiles » comme le raisonnement.
« Nous commencerons à voir une intelligence artificielle capable d’effectuer des tâches plus complexes de manière plus sophistiquée », a-t-il déclaré. « Je pense que nous commençons tout juste à effleurer la façon dont ces modèles peuvent penser. »
Lightcap a ajouté que les systèmes d'IA d'aujourd'hui sont « vraiment efficaces pour effectuer de petites tâches ponctuelles », mais leurs capacités restent « assez limitées ».
Les mises à niveau Meta et OpenAI font partie d'une vague de nouveaux grands modèles de langage publiés cette année par des sociétés telles que Google, Anthropic et Cohere.
Alors que les entreprises technologiques s’efforcent de créer une intelligence artificielle générative toujours plus sophistiquée – des logiciels capables de générer des mots, des images, du code et des vidéos de type humain avec une qualité impossible à distinguer de la production humaine – le rythme des progrès s’accélère.
Le raisonnement et la planification sont des étapes clés vers ce que les chercheurs en IA appellent « l’intelligence générale artificielle » – la cognition au niveau humain – car ils permettent aux chatbots et aux assistants virtuels d’effectuer des séquences de tâches pertinentes et de prédire les conséquences de leurs actions.
S'exprimant lors d'un événement à Londres mardi, Yann LeCun, scientifique en chef de l'IA chez Meta, a déclaré que les systèmes d'IA actuels « produisent un mot après l'autre sans réflexion ni planification ».
Parce qu'ils ont du mal à traiter des questions complexes ou à conserver des informations pendant de longues périodes, ils « commettent toujours des erreurs stupides », a-t-il ajouté.
L'ajout de logique signifie que le modèle d'IA « recherche des réponses possibles », « planifie des séquences d'actions » et construit « un modèle mental de l'effet ». [its] Il a dit que les procédures le seraient.
Il a ajouté qu'il s'agit d'une « pièce manquante importante sur laquelle nous travaillons afin que les machines puissent atteindre le prochain niveau d'intelligence ».
LeCun a déclaré qu'elle travaillait sur des « agents » d'intelligence artificielle capables, par exemple, de planifier et de réserver chaque étape d'un voyage, du bureau d'une personne à Paris à une autre à New York, y compris l'arrivée à l'aéroport.
Meta prévoit d'intégrer son nouveau modèle d'IA dans WhatsApp et ses lunettes intelligentes Ray-Ban. Il se prépare à lancer Llama 3 dans une gamme de tailles de modèles pour diverses applications et appareils dans les mois à venir.
Lightcap a ajouté qu'OpenAI aura « bientôt plus à dire » sur la prochaine version de GPT.
« Je pense qu'avec le temps… nous verrons les modèles évoluer vers des tâches plus longues et plus complexes », a-t-il déclaré. « Et cela nécessite implicitement d'améliorer leur capacité de réflexion. »
Lors de l'événement à Londres, Chris Cox, directeur des produits de Meta, a déclaré que les caméras des lunettes Ray-Ban de Meta pourraient être utilisées pour examiner, par exemple, une machine à café cassée, et l'assistant IA – alimenté par Llama 3 – Expliquez au porteur comment le réparer.
« Nous parlerons tout le temps à ces assistants IA », a déclaré LeCun. « L’ensemble de notre système alimentaire numérique sera géré par des systèmes d’intelligence artificielle. »
« Évangéliste amateur de zombies. Créateur incurable. Fier pionnier de Twitter. Amateur de nourriture. Internetaholic. Introverti hardcore. »
More Stories
Fuite de documents marketing de Google Pixel 8a
Le SoundLink Max à 399 $ de Bose a jusqu'à 20 heures d'autonomie – et vous pouvez précommander maintenant
Oubliez la Nintendo Switch 2, Tetris et 7-Eleven en créant une console de jeu portable