OpenAI vient d’annoncer GPT-4o, une nouvelle version de son grand modèle de langage GPT. Fait rare, et c’est la première fois depuis le lancement de GPT-3.5, ce nouveau modèle sera accessible à tous via ChatGPT, avec ou sans abonnement.


au sommaire


    Voici un nouveau modèle de langage d'OpenAI, avec de nouvelles capacités. Baptisé cette fois GPT-4o, le « o » signifiant « omni », il succède à GPT-4GPT-4 Turbo. Selon OpenAI, ses résultats sur du texte en anglais restent similaires à GPT-4 Turbo. Ce n'est pas GPT-5 après tout. Mais ses performances avec d'autres langues, et donc avec le français, sont « sensiblement améliorées », et il répond beaucoup plus rapidement dans toutes les langues.

    Toutefois, la grande nouveauté est que GPT-4o est véritablement multimodal, car il comprend désormais de manière native les images et l'audio, et même la vidéo, comme en témoigne la vidéo de présentation où ChatGPTChatGPT complimente le sweat du présentateur.

    La vidéo d’annonce de GPT-4o, qui montre ses nouvelles capacités pour comprendre la vidéo et discuter de vive voix. En anglais, activez la traduction automatique des sous-titres. © OpenAI

    Un grand modèle de langage véritablement multimodal

    Jusqu'à présent, en utilisant les fonctions vocales de ChatGPT pour lui parler de vive voix, le chatbot faisait appel à trois modèles différents : un module pour convertir l'audio en texte, ensuite GPT-3.5 ou GPT-4 recevait le texte et y répondait au format texte, puis un troisième module convertissait le texte en audio. GPT-4o travaille directement au format audio de bout en bout, ce qui devrait lui permettre de distinguer le ton, les bruits de fond et les différents locuteurs. L'IAIA devrait également être capable de répondre avec différents tons, rappelant Evi de Hume, annoncé il y a six semaines.

    Selon OpenAI, ce nouveau modèle a un temps de réponse similaire à celui d'un humain, avec une moyenne de 320 millisecondes, contre 3 secondes pour les précédentes versions. Les fonctions texte et image de GPT-4o sont déjà disponibles pour tout le monde dans ChatGPT, y compris pour les comptes gratuits. La nouvelle fonctionnalité audio sera disponible dans les prochaines semaines, sous forme de version test uniquement disponible aux abonnés ChatGPT Plus.