Le modèle de langage GPT passe à la version 4. OpenAI a annoncé la nouvelle génération de son IA, dont la version 3.5 a donné ChatGPT. Elle serait beaucoup plus précise et nuancée, et multimodale. Une nouvelle version qui est toutefois réservée aux abonnés pour l’instant.


au sommaire


    OpenAI, la firme derrière le fameux chatbot ChatGPTChatGPT, vient d'annoncer la nouvelle version très attendue de son grand modèle de langage (LLM), GPT-4. Cette nouvelle version est d'ores et déjà disponible pour les abonnés ChatGPT PlusChatGPT Plus (à 20 dollars par mois), et les développeurs pourront s'inscrire sur liste d'attente pour accéder à la nouvelle API (interface de programmation).

    La firme n'a pas dévoilé les détails techniques qui différencient GPT-4 de son prédécesseur. Toutefois, elle affirme que cette nouvelle IAIA « est plus fiable, plus créative et capable de traiter des instructions beaucoup plus nuancées que GPT-3.5 ». Là où ChatGPT est limité à 3 000 mots en entrée ou sortie, la nouvelle version peut atteindre 25 000 mots. De quoi donner des sueurs froides à ceux qui cherchent à reconnaître les contenus générés par IA.

    Une IA qui comprend les images en plus du texte

    Contrairement à ce qu'avait indiqué MicrosoftMicrosoft Allemagne la semaine dernière, GPT-4 ne prendra pas en charge les vidéos. Malgré tout, il s'agit bel et bien d'un modèle multimodal. L'IA accepte des images en entrée, en plus du texte, mais les réponses seront limitées au texte. Toutefois, la prise en charge des images ne sera pas accessible au grand public dans l'immédiat. Elle est actuellement testée par Be My Eyes, une applicationapplication d'assistance pour personnes malvoyantes.

    Même s'il faudra attendre pour pouvoir utiliser des images, les démonstrations de la version multimodale de GPT-4 sont impressionnantes. Lorsque l'IA est présentée avec une photo de ballons flottants attachés au sol par des fils, et la question « Que se passerait-il si les fils étaient coupés », elle est capable de comprendre le contenu de l'image et de répondre « Les ballons s'envoleraient ». Dans un autre exemple, GPT-4 répond à une photo de lait, œufs et farine avec des idées de recettes. Plus besoin de rester devant la porteporte ouverte du frigo en essayant de décider quoi préparer pour le dîner. Il suffira d'envoyer une photo à l'IA pour avoir des suggestions.

    Exemple de requête avec une image qui montre des ingrédients. GPT-4 liste des recettes possibles. © OpenAI
    Exemple de requête avec une image qui montre des ingrédients. GPT-4 liste des recettes possibles. © OpenAI

    Plus de bonnes réponses, moins d’hallucinations

    OpenAI prévient que GPT-4 est toujours sujette aux hallucinations, mais que cette dernière version a tout de même moins tendance à se tromper. Le taux de bonnes réponses serait amélioré de 40 % par rapport à la version actuelle de ChatGPT, et le risque de répondre à des demandes de contenus non autorisés serait réduit de 82 %. C'est une bonne nouvelle lorsque l'on sait que la firme a plusieurs partenariats commerciaux. Duolingo, l'application pour apprendre les langues, a annoncé son service Duolingo Max, des conversations avec GPT-4 en langue étrangère (actuellement limité au français et à l'espagnol pour les utilisateurs anglophones). Le système de paiement en ligne Stripe utilise GPT-4 pour le support technique et pour lutter contre la fraude.

    Ceux qui ont accès à la nouvelle version de Bing avec l'IA conversationnelle (après s'être inscrit sur liste d'attente) ont d'ailleurs déjà testé GPT-4. Après avoir évité de donner une réponse claire ces dernières semaines, Microsoft a enfin confirmé que son moteur de recherche intègre bel et bien le nouveau modèle de langage.