OpenAI lance le modèle d’inférence AI o3-mini, les utilisateurs gratuits peuvent également l’essayer

Lancement officiel du modèle d'inférence AI o3-mini
Le 1er février, Sam Altman, le PDG d'OpenAI, a lancé officiellement le modèle d'inférence AI o3-mini dans ChatGPT et les services API après l'avoir annoncé il y a deux semaines. Pour la première fois, une version à débit limité est disponible pour les utilisateurs gratuits de ChatGPT.
Amélioration des performances et affichage du processus d'inférence
Le modèle o3-mini montre une amélioration significative des performances, avec un temps de réponse 24 % plus rapide que le modèle précédent o1-mini et une meilleure précision des réponses. Comme o1-mini, o3-mini affiche le processus d'inférence, plutôt que de simplement fournir des réponses, ce qui permet aux utilisateurs de mieux comprendre le raisonnement de l'IA.
Utilisation par les développeurs
Les développeurs peuvent utiliser le modèle o3-mini via les services API d'OpenAI, y compris le Chat Completions API, Assistants API et Batch API, pour le développement de diverses applications. Cela offre aux développeurs plus d'options et des outils plus puissants pour créer des applications intelligentes.
Niveaux d'utilisateurs et limites d'utilisation
Dans ChatGPT, o3-mini utilise par défaut une intensité d'inférence moyenne. Les utilisateurs payants peuvent également choisir o3-mini-high pour obtenir une version plus intelligente, bien que le temps de réponse soit légèrement plus long. Les utilisateurs Pro peuvent utiliser o3-mini et o3-mini-high sans restrictions.
Les utilisateurs ChatGPT Plus, Team et Pro peuvent accéder à o3-mini. OpenAI a également augmenté la limite de messages quotidiens pour les utilisateurs Plus et Team, la portant à 150 messages par jour. Seuls les utilisateurs Pro payant 200 $ par mois (environ 1453 RMB) peuvent utiliser o3-mini sans restrictions.
Première expérience des utilisateurs gratuits avec un modèle d'inférence
Pour la première fois, les utilisateurs gratuits de ChatGPT peuvent expérimenter les modèles d'inférence d'OpenAI simplement en sélectionnant la fonction "Reason" dans la barre de chat, avec des limites de débit similaires à celles des limites GPT-4o existantes. Cette initiative permet à davantage d'utilisateurs d'accéder à une technologie IA avancée et de découvrir ses puissantes capacités de raisonnement.
Conclusion
Le modèle d'inférence AI o3-mini lancé par OpenAI offre non seulement des améliorations significatives en termes de performances et de précision, mais il permet également aux utilisateurs gratuits de l'essayer pour la première fois. Les développeurs et les utilisateurs de différents niveaux peuvent utiliser ce nouveau modèle de différentes manières, apportant plus de commodité et de possibilités pour le développement d'applications intelligentes et l'utilisation quotidienne.