OpenAI présente GPT-4o Mini
OpenAI a lancé GPT-4o Mini, dont l’objectif principal est de rendre l’intelligence avancée à la fois accessible et abordable, en élargissant la gamme des applications qui peuvent tirer parti de la technologie de l’IA.
GPT-4o Mini y parvient avec de solides performances, obtenant un score de 82 % sur le benchmark Massive Multitask Language Understanding (MMLU), et surpassant GPT-4 sur le leaderboard LMSYS pour les préférences de chat.
En termes de coût, le GPT-4o Mini est compétitif.
Les jetons d’entrée ne coûtent que 15 cents par million, tandis que les jetons de sortie coûtent 60 cents par million.
C’est un ordre de grandeur plus abordable que les modèles frontières précédents et plus de 60 % moins cher que le GPT-3.5 Turbo, ce qui en fait une solution rentable pour les entreprises qui cherchent à intégrer l’IA dans leurs opérations sans encourir de dépenses prohibitives.
Alimenter les applications d’IA avec GPT-4o Mini
Le GPT-4o Mini ouvre de nouvelles possibilités pour les tâches d’IA grâce à son faible coût et à sa latence. Il est performant dans les scénarios qui nécessitent le chaînage ou la parallélisation de plusieurs appels de modèle, ce qui en fait un bon choix pour les applications nécessitant un débit et une efficacité élevés.
Par exemple, les développeurs peuvent appeler plusieurs API simultanément, ce qui améliore considérablement les performances des systèmes complexes.
Une autre capacité clé de GPT-4o Mini est la façon dont il traite de grands volumes de contexte, y compris des tâches telles que le traitement d’une base de code complète ou le maintien d’historiques de conversation étendus, qui sont essentiels pour des analyses approfondies et des processus de prise de décision complexes.
Soutien et spécifications
Actuellement, GPT-4o Mini prend en charge les entrées textuelles et visuelles dans l’API, et de futures mises à jour sont prévues pour inclure la prise en charge des entrées et sorties textuelles, images, vidéo et audio – ce qui élargit le champ des applications potentielles et permet aux entreprises d’intégrer des fonctionnalités d’IA multimodales dans leurs flux de travail.
Le modèle dispose d’une fenêtre contextuelle de 128 000 jetons, ce qui lui permet de traiter de grandes quantités de données en une seule demande.
En outre, GPT-4o Mini prend également en charge jusqu’à 16 000 jetons de sortie par demande, ce qui permet d’obtenir des réponses détaillées et complètes.
Avec des connaissances jusqu’en octobre 2023, le GPT-4o Mini dispose d’informations relativement récentes, ce qui le rend très fiable pour les applications contemporaines.
Un tokenizer amélioré permet d’améliorer la rentabilité du traitement des textes non anglais, de sorte que GPT-4o Mini peut être utilisé dans des environnements multilingues, ce qui élargit son champ d’application à l’échelle mondiale.
Performances de référence de la GPT-4o Mini
- Tâches de raisonnement : GPT-4o Mini a fait preuve de compétence dans les tâches de raisonnement, obtenant un score de 82,0 % sur le benchmark MMLU – une amélioration majeure par rapport à Gemini Flash, qui a obtenu un score de 77,9 %, et Claude Haiku, qui a obtenu un score de 73,8 %.
GPT-4o Mini peut traiter des tâches de raisonnement complexes de manière plus efficace, ce qui en fait un atout précieux pour les applications nécessitant des fonctions cognitives de haut niveau.
- Mathématiques et codage : Le GPT-4o Mini est performant dans les tâches de raisonnement mathématique et de codage, comme le montrent ses résultats aux tests MGSM et HumanEval.
Il a obtenu un score de 87,0 % au MGSM, dépassant les 75,5 % de Gemini Flash et les 71,7 % de Claude Haiku.
Sur le benchmark HumanEval, qui mesure les performances de codage, GPT-4o Mini obtient un score de 87,2 %, surpassant Gemini Flash à 71,5 % et Claude Haiku à 75,9 %.
- Raisonnement multimodal : En matière de raisonnement multimodal, GPT-4o Mini a obtenu un score de 59,4 % au test de référence MMMU, devançant Gemini Flash (56,1 %) et Claude Haiku (50,2 %).
GPT-4o Mini peut intégrer et raisonner à travers plusieurs types de médias, ce qui en fait un outil polyvalent pour une série d’applications différentes.
Applications pratiques dans le monde réel
L’extraction de données structurées à partir de fichiers de reçus est un cas d’utilisation puissant, une tâche essentielle pour les entreprises qui traitent de gros volumes de transactions, telles que les chaînes de magasins et les institutions financières.
GPT-4o Mini automatise l’extraction des données des reçus, réduisant ainsi les efforts de saisie manuelle, augmentant la précision et accélérant les temps de traitement.
Ceci est particulièrement bénéfique pour les systèmes de gestion des dépenses, où l’extraction rapide et précise des détails de l’achat est une priorité pour un suivi et un rapport exacts.
Une autre application pratique majeure de GPT-4o Mini est la génération de réponses de haute qualité aux courriels sur la base de l’historique du fil de discussion.
La capacité de GPT-4o Mini à comprendre et à répondre de manière appropriée à des fils de discussion complexes aide les entreprises à maintenir des normes de communication élevées tout en réduisant la charge de travail des agents humains.
GPT-4o Mini est particulièrement utile pour les équipes d’assistance à la clientèle, les services de vente et toutes les unités commerciales qui dépendent fortement de la communication par courrier électronique.
Collaboration avec les partenaires
Pour affiner les capacités de GPT-4o Mini et comprendre ses limites pratiques, OpenAI s’est associée à des entreprises de premier plan telles que Ramp et Superhuman afin d’obtenir des informations précieuses sur les performances du modèle dans des scénarios réels.
Ramp, par exemple, a utilisé GPT-4o Mini pour extraire des données structurées à partir de fichiers de reçus, et l’a trouvé supérieur aux modèles précédents en termes de précision et de rapidité.
Superhuman a utilisé GPT-4o Mini pour générer des réponses de haute qualité par courrier électronique, améliorant ainsi la réactivité et l’efficacité de son service.
Sécurité et fiabilité intégrées
La sécurité est un aspect fondamental du processus de développement de GPT-4o Mini.
De la préformation au déploiement, OpenAI intègre des mesures de sécurité strictes pour s’assurer que le modèle fonctionne de manière fiable et éthique.
- Mesures de sécurité avant l’entraînement : Au cours de la phase de pré-entraînement, OpenAI met en œuvre des mécanismes de filtrage stricts pour exclure les contenus indésirables, notamment les discours haineux, les contenus pour adultes, les spams et les sites qui rassemblent principalement des informations personnelles.
- Mesures de sécurité post-formation : Après la formation, le comportement du modèle est aligné sur les politiques de l’OpenAI grâce à l’apprentissage par renforcement avec retour d’information humain (RLHF).
Cela implique généralement que des évaluateurs humains fournissent un retour d’information sur les réponses du modèle, qui est ensuite utilisé pour affiner son comportement.
- Évaluations par des experts : Pour améliorer encore la sécurité, GPT-4o Mini fait l’objet d’évaluations détaillées par plus de 70 experts externes issus de domaines tels que la psychologie sociale.
Les experts évaluent les risques et les biais potentiels du modèle et fournissent des informations qui permettent d’améliorer la sécurité.
- Nouvelles techniques de sécurité : GPT-4o Mini est le premier modèle à appliquer la nouvelle méthode de hiérarchie des instructions de l’OpenAI, une technique qui renforce la résistance du modèle aux menaces courantes telles que les jailbreaks, les injections d’invites et les extractions d’invites système.
Disponibilité, accès et prix du GPT-4o Mini
GPT-4o Mini est maintenant disponible via plusieurs API, y compris l’API des assistants, l’API des conversations et l’API des lots.
Les développeurs peuvent intégrer GPT-4o Mini dans une gamme d’applications dès maintenant.
Les développeurs paieront 15 cents pour 1 million de jetons d’entrée et 60 cents pour 1 million de jetons de sortie.
Pour donner un ordre d’idée, 1 million de jetons équivaut à peu près à 2 500 pages d’un livre standard, ce qui est intéressant pour les applications à fort volume.
Depuis l’introduction de text-davinci-003 en 2022, le coût par jeton a chuté de 99 %.
A partir d’aujourd’hui, GPT-4o Mini est accessible aux utilisateurs Free, Plus et Team de ChatGPT, en remplacement de GPT-3.5.
Les utilisateurs Enterprise y auront accès plus tard dans la semaine.