OpenAI ramène le système de routeur modèle de ChatGPT pour la plupart des utilisateurs

OpenAI est silencieux Des millions de personnes ont apporté un grand changement dans la façon dont ils utilisent ChatGPT.

En profil bas Blog qui suit les modifications des produitsLa société affirme qu’il s’agit du modèle de routeur de ChatGPT, un système automatisé qui achemine les questions complexes des utilisateurs vers des modèles de « raisonnement » plus avancés, pour ses utilisateurs de niveau Go gratuits et à 5 $ par mois. Au lieu de cela, ces utilisateurs utiliseront désormais par défaut GPT-5.2 Instant, la version la plus rapide et la moins chère de la nouvelle série de modèles d’OpenAI. Les utilisateurs Free and Go pourront toujours accéder aux modèles logiques, mais ils devront les sélectionner manuellement.

Le modèle de routeur a été lancé il y a à peine quatre mois dans le cadre d’un effort visant à intégrer l’expérience utilisateur avec OpenAI. Début de GPT-5. La fonctionnalité analyse les requêtes des utilisateurs avant de choisir si ChatGPT y répond avec un modèle d’IA rapide et peu coûteux à servir ou un modèle d’IA rationnel plus lent et plus coûteux. Idéalement, le routeur dirige les utilisateurs vers les modèles d’IA les plus intelligents d’OpenAI exactement au moment où ils en ont besoin. Auparavant, les utilisateurs accédaient aux systèmes avancés via un menu déroutant de « sélecteur de modèle » ; Une fonctionnalité qui Le PDG Sam Altman a déclaré que l’entreprise détestait « autant que vous ».

En pratique, le routeur semble envoyer beaucoup plus d’utilisateurs gratuits vers les modèles logiques avancés d’OpenAI, dont le service est plus coûteux pour OpenAI. Immédiatement après son lancement, Altman a déclaré que le routeur avait augmenté l’utilisation du modèle logique parmi les utilisateurs gratuits de moins de 1 % à 7 %. Il s’agissait d’un pari coûteux visant à améliorer les réponses de ChatGPT, mais le modèle de routeur n’a pas été aussi largement adopté qu’OpenAI l’avait espéré.

Une source proche du dossier a déclaré à Wired que le routeur avait un impact négatif sur la mesure des utilisateurs actifs quotidiens de l’entreprise. Bien que les modèles logiques soient largement considérés comme la frontière des performances de l’IA, ils peuvent passer des minutes à traiter des requêtes complexes à des coûts de calcul nettement plus élevés. La plupart des consommateurs ne veulent pas attendre, même si cela signifie obtenir une meilleure réponse.

Selon Chris Clark, directeur de l’exploitation d’OpenRouter, un fournisseur d’inférences d’IA, les modèles d’IA à réaction rapide continuent de dominer les chatbots grand public typiques. Sur ces plateformes, dit-il, la rapidité et le ton des réponses ont tendance à être optimaux.

“Si quelqu’un tape quelque chose et que vous devez ensuite afficher les puces pendant 20 secondes, ce n’est pas très intéressant”, dit Clark. “Pour les chatbots IA typiques, vous êtes en concurrence avec Google (recherche). Google s’est toujours efforcé de rendre les recherches aussi rapides que possible ; ils n’ont jamais dit : ‘Mon Dieu, nous devrions obtenir de meilleures réponses, mais ralentissez-les'”

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici