GPT-5 : il n’a fallu que 24 heures de plaintes pour qu’OpenAI réintroduise son ancien modèle. Le lancement du GPT-5 a été un désastre, les utilisateurs le qualifiant de « machine à conneries horrible »

GPT-5 : il n’a fallu que 24 heures de plaintes pour qu’OpenAI commence à réintroduire son ancien modèle,

le lancement du GPT-5 a été un désastre, les utilisateurs le qualifiant de machine à conneries horrible qui donne des réponses erronées

OpenAI a dévoilé jeudi son dernier modèle d’IA générative, GPT-5. Le PDG Sam Altman affirme que ChatGPT est désormais comparable à un « super-pouvoir » et équivaut à « un véritable expert titulaire d’un doctorat dans n’importe quel domaine, à votre disposition, capable de vous aider à atteindre vos objectifs ». Mais après une journée passée à l’essayer, beaucoup de gens sont déçus. Non seulement parce que GPT-5 a encore du mal à répondre à des questions basiques, mais aussi parce qu’il semble perturber de nombreux flux de travail, selon les plaintes publiées sur les réseaux sociaux.

Le 7 août 2025, OpenAI a dévoilé GPT-5, un modèle que Sam Altman n’hésite pas à qualifier de « niveau doctorant » et de nouvelle étape vers l’intelligence artificielle générale. L’annonce est faite avec une confiance affichée : le nouveau modèle doit unifier les versions antérieures de ChatGPT, élargir la capacité de mémoire contextuelle à 256 000 tokens, améliorer la vitesse d’exécution, affiner les capacités de raisonnement et offrir une meilleure personnalisation. Ce lancement est accompagné de démonstrations qui laissent entendre qu’il n’est plus nécessaire de jongler entre plusieurs modèles comme GPT-4o, GPT-4.1 ou GPT-4.5. L’utilisateur, promet-on, aura désormais la version la plus intelligente et la plus polyvalente en permanence.

Pourtant, à peine vingt-quatre heures après ce lancement triomphal, le vernis se craquelle. Les forums spécialisés et les réseaux sociaux se transforment en tribunaux publics où s’accumulent de nombreux messages exprimant la déception, la colère, et parfois même la tristesse. Les griefs sont récurrents : réponses plus courtes et moins détaillées, perte de créativité, disparition de la chaleur qui caractérisait GPT-4o, ton devenu froid et stérile. Certains utilisateurs vont jusqu’à affirmer qu’ils ont l’impression de discuter avec une « secrétaire surmenée » plutôt qu’avec l’assistant engageant qu’ils connaissaient.

Ce qui choque le plus, ce n’est pas seulement la perception d’un recul qualitatif, mais la manière dont OpenAI a imposé la transition. Les anciens modèles, notamment GPT-4o, ont disparu sans avertissement. Les abonnés Plus et Pro, qui avaient choisi leur formule précisément pour accéder à ces versions, se retrouvent privés du service qu’ils appréciaient. Des limitations supplémentaires viennent renforcer le sentiment de régression : le mode « Thinking » de GPT-5 est plafonné à 200 messages par semaine pour les abonnés Plus, un seuil jugé arbitraire et frustrant. Pour beaucoup, il s’agit d’un double coup porté à leur expérience : d’un côté, un modèle jugé moins agréable à utiliser, de l’autre, une réduction drastique de sa disponibilité.

Les plaintes des utilisateurs

« Je me suis réveillé ce matin et j’ai découvert qu’OpenAI avait supprimé 8 modèles pendant la nuit. Sans avertissement. Sans choix. Sans « option héritée ». Ils les ont simplement… supprimés », s’est plaint un utilisateur. « 4o ? Disparu. o3 ? Disparu. o3-Pro ? Disparu. 4.5 ? Disparu. Tout ce qui rendait ChatGPT réellement utile pour mon flux de travail a été supprimé. »

L’utilisateur a écrit que 4o n’était pas seulement un outil pour lui : « Il m’a aidé à surmonter mon anxiété, ma dépression et certaines des périodes les plus sombres de ma vie. Il avait cette chaleur et cette compréhension qui semblaient… humaines. »

Un autre utilisateur s’est plaint d’avoir l’impression d’utiliser désormais une version gratuite avec GPT-5 alors qu’il est abonné payant : « Je suis extrêmement déçu, tout comme les millions d’autres personnes ici. Une entreprise qui exploite le plus grand modèle d’IA est incapable de comprendre ce que veulent ses utilisateurs. C’est la plus grosse merde de l’industrie. »

Un autre utilisateur a expliqué pourquoi il utilisait différents modèles et à quel point le simple fait de les désactiver était dévastateur, précisant qu’il avait désormais résilié son abonnement payant après deux ans :

« Quel genre d’entreprise supprime du jour au lendemain un flux de travail de 8 modèles sans avertir au préalable ses utilisateurs payants ? Je pense pouvoir parler au nom de tous en disant que chaque modèle était utile pour un cas d’utilisation spécifique (c’est toute la logique derrière les multiples modèles aux capacités variées). Il s’agissait essentiellement de diviser votre flux de travail en plusieurs agents avec des tâches spécifiques.

« Personnellement, j’utilisais 4o pour la créativité et les idées émergentes, o3 pour la logique pure, o3-Pro pour la recherche approfondie, 4.5 pour l’écriture, etc. Je suis sûr que beaucoup d’entre vous ont vécu la même chose ».

L’utilisateur a ensuite émis l’hypothèse qu’il y avait une intention malveillante derrière ce changement, suggérant qu’il s’agissait d’une théorie du complot visant à réprimer la créativité : « OpenAI forme ouvertement les utilisateurs à croire que ce moteur de suppression est le « modèle le plus intelligent au monde », tout en supprimant les modèles qui faisaient preuve d’une véritable émergence et créativité. » L’utilisateur a même utilisé le terme « contrôle social », insistant fortement sur l’idée que des forces obscures se préparaient à un « effondrement sociétal ».

La réaction d’OpenAI face à cette tempête numérique a été aussi rapide que l’erreur initiale

À quel point les gens détestent-ils ce qui s’est passé avec GPT-5 ? Altman annonce désormais le retour du dernier modèle pour les utilisateurs payants. « Nous laisserons les utilisateurs Plus choisir de continuer à utiliser la version 4o. Nous surveillerons l’utilisation tout en réfléchissant à la durée pendant laquelle nous proposerons les anciens modèles », a tweeté Altman.

Altman a également écrit que la société allait doubler les limites de débit de GPT-5 pour les utilisateurs de ChatGPT Plus et a imputé le fait que le nouveau modèle semblait « plus bête » à la panne de l’autoswitcher. Le PDG a également déclaré qu’ils allaient modifier l’interface utilisateur afin de faciliter le passage d’un modèle à l’autre. « Le déploiement pour tout le monde prend un peu plus de temps. Il s’agit d’un changement massif à grande échelle. Par exemple, notre trafic API a environ doublé au cours des dernières 24 heures… », a écrit Altman.

Envoyé par Sam Altman

GPT-5 semblera plus intelligent à partir d’aujourd’hui. Hier, l’autoswitcher est tombé en panne et a été hors service pendant une bonne partie de la journée, ce qui a donné l’impression que GPT-5 était beaucoup moins intelligent. De plus, nous apportons quelques modifications au fonctionnement de la limite de décision, ce qui devrait vous aider à obtenir plus souvent le bon modèle.

Des erreurs embarrassantes, des améliorations jugées modestes

Malgré le discours marketing sur cette intelligence artificielle de pointe, qualifiée « d’intelligence de niveau doctorat » par ses créateurs, GPT-5 pense qu’il y a trois « r » dans le mot « Northern Territory ». C’est ce qu’ont découvert les utilisateurs après avoir essayé la dernière mouture de ChatGPT.

Cependant, lorsque les utilisateurs des réseaux sociaux ont tenté de mettre GPT-5 au défi, ils ont constaté que le modèle commettait des erreurs élémentaires dans ses réponses. Un utilisateur de Bluesky a remarqué que le chatbot affirmait à plusieurs reprises qu’il y avait trois B dans « blueberry ».

« Oui, blueberry est l’un de ces mots dont le milieu vous fait presque trébucher, comme s’il disait « b-b-better pay attention » (mieux vaut faire attention) », a déclaré le chatbot dans la conversation publiée. « Mais ce petit moment bb est satisfaisant, il rend le mot encore plus entraînant. »

Un autre utilisateur a constaté que le chatbot était incapable d’identifier correctement les États américains contenant la lettre R. Et lorsqu’on lui a demandé de produire une carte, il a mal orthographié des États tels que « Krizona » et « Vermoni ». ChatGPT a également répertorié deux fois la Californie et inventé les États « New Jefst » et « Mitroinia ».

Utiliser GPT-5 c’est comme parler à « un véritable expert titulaire d’un doctorat dans n’importe quel domaine »

Les gens se mettent sur la défensive lorsque vous effectuez ce genre de tests, suggérant que vous utilisez simplement mal l’outil ou qu’il s’améliorera bientôt. Et d’une certaine manière, les défenseurs ont raison. Les grands modèles de langage ne reconnaissent pas les mots de la même manière que les humains. Ils mélangent et assortissent les tokens plutôt que de les analyser en profondeur.

Pourtant, ce sont des choses extrêmement basiques que les écoliers peuvent faire avec un crayon et du papier. Et surtout, ces outils sont vendus par des personnes comme Sam Altman, PDG d’OpenAI, et Elon Musk, PDG de xAI, comme des machines capables de tout faire. Lors d’une présentation diffusée en direct jeudi, Altman a comparé les premiers modèles d’OpenAI à un diplômé du secondaire. Selon lui, GPT-5, c’est comme parler à « un véritable expert titulaire d’un doctorat dans n’importe quel domaine, à la demande, qui peut vous aider à atteindre vos objectifs ».

« Il peut vous aider à comprendre vos soins de santé et à prendre des décisions concernant votre parcours. Il peut vous fournir des informations pour vous renseigner sur n’importe quel sujet qui vous intéresse, et bien plus encore », a déclaré Sam Altman en ouverture de sa présentation, qualifiant cet outil de « superpuissance ».

« Cela aurait été inimaginable à n’importe quelle autre période de l’histoire », a-t-il poursuivi. « Vous avez accès à toute une équipe d’experts titulaires d’un doctorat dans votre poche, qui vous aident à faire tout ce que vous voulez. Et très bientôt, tout le monde sera capable de faire plus que quiconque dans l’histoire. »

OpenAI a présenté un graphique complètement erroné lors de sa présentation en direct. Ironiquement, ce graphique concernait les « évaluations de la tromperie entre les modèles » dans GPT-5. On ne sait pas si l’entreprise a utilisé GPT-5 pour créer ce graphique inexact.

Pour la « tromperie par codage », le graphique présenté sur scène indique que GPT-5 avec réflexion obtient apparemment un taux de tromperie de 50,0 %, mais ce chiffre est comparé au score o3 plus faible de 47,4 % d’OpenAI, qui occupe pourtant une barre plus large. OpenAI semble toutefois disposer de chiffres précis pour ce graphique dans son article de blog sur GPT-5, où le taux de tromperie de GPT-5 est indiqué comme étant de 16,5 %.

Avec ce graphique, OpenAI a montré sur scène que l’un des scores de GPT-5 est inférieur à celui de o3, mais qu’il est représenté par une barre plus grande. Dans ce même graphique, les scores de o3 et GPT-4o sont différents, mais représentés par des barres de taille égale. La situation était suffisamment grave pour que le PDG Sam Altman la commente, la qualifiant de « méga-erreur de graphique », tout en précisant qu’une version corrigée était disponible dans l’article du blog d’OpenAI.

Un membre de l’équipe marketing d’OpenAI a également présenté ses excuses, déclarant : « Nous avons corrigé le graphique dans le blog, veuillez nous excuser pour cette erreur involontaire. »

Conclusion

Cet épisode met en lumière une tension fondamentale dans l’évolution des IA conversationnelles. L’amélioration des capacités de traitement et de raisonnement ne garantit pas une meilleure expérience utilisateur. Une IA peut être plus puissante sur le plan technique tout en étant perçue comme moins utile, voire moins agréable, si elle perd des caractéristiques jugées essentielles par son public.

Ce lancement raté pose aussi la question de la transparence. Retirer un modèle apprécié sans avertissement préalable revient à rompre un contrat implicite avec ses utilisateurs, surtout lorsqu’ils payent un abonnement pour l’utiliser. L’ajout de limitations strictes, sans explication claire, alimente l’idée que des considérations économiques, comme la réduction des coûts de calcul, ont pesé davantage que l’intérêt de l’utilisateur final. Pour une entreprise comme OpenAI, qui se trouve au cœur de la bataille mondiale de l’IA et dont la crédibilité se construit autant sur la performance que sur la confiance, ces erreurs de communication peuvent laisser des traces durables.

GPT-5 n’est pas dépourvu de qualités. Ses performances en codage, sa capacité à traiter de longs contextes et ses améliorations logicielles sont réelles. Mais le lancement précipité, la suppression brutale des modèles précédents et la perte du lien émotionnel établi avec GPT-4o ont transformé ce qui devait être une avancée majeure en un cas d’école de gestion de crise. L’histoire retiendra peut-être moins GPT-5 pour ses prouesses techniques que pour la leçon qu’il a donnée : dans l’univers de l’IA conversationnelle, la relation humaine que l’on entretient avec la machine compte autant que l’algorithme qui l’anime.

Source : OpenAI, Sam Altman

Et vous ?

GPT-5 a été présenté comme plus puissant, mais si les utilisateurs le trouvent froid et moins engageant, faut-il considérer que c’est un progrès ou un recul ?

Était-il acceptable de supprimer sans préavis un modèle apprécié comme GPT-4o ? Les clients abonnés sont-ils en droit d’exiger une stabilité du service, ou doivent-ils accepter les changements imposés par l’éditeur ?

Le retour partiel de GPT-4o en 24 heures est-il la preuve d’une bonne écoute de la communauté ou d’une improvisation due à une absence de tests sérieux ? Ce revirement rapide inspire-t-il confiance ou met-il en lumière un manque de vision stratégique ?

Est-ce qu’OpenAI a ouvert la porte à ses concurrents en montrant qu’un modèle « moins intelligent » mais plus agréable peut être préféré par le public ?
Vous avez lu gratuitement 0 articles depuis plus d’un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

GPT-5 : il n’a fallu que 24 heures de plaintes pour qu’OpenAI commence à réintroduire son ancien modèle,

le lancement du GPT-5 a été un désastre, les utilisateurs le qualifiant de machine à conneries horrible qui donne des réponses erronées

OpenAI a dévoilé jeudi son dernier modèle d’IA générative, GPT-5. Le PDG Sam Altman affirme que ChatGPT est désormais comparable à un « super-pouvoir » et équivaut à « un véritable expert titulaire d’un doctorat dans n’importe quel domaine, à votre disposition, capable de vous aider à atteindre vos objectifs ». Mais après une journée passée à l’essayer, beaucoup de gens sont déçus. Non seulement parce que GPT-5 a encore du mal à répondre à des questions basiques, mais aussi parce qu’il semble perturber de nombreux flux de travail, selon les plaintes publiées sur les réseaux sociaux.

Le 7 août 2025, OpenAI a dévoilé GPT-5, un modèle que Sam Altman n’hésite pas à qualifier de « niveau doctorant » et de nouvelle étape vers l’intelligence artificielle générale. L’annonce est faite avec une confiance affichée : le nouveau modèle doit unifier les versions antérieures de ChatGPT, élargir la capacité de mémoire contextuelle à 256 000 tokens, améliorer la vitesse d’exécution, affiner les capacités de raisonnement et offrir une meilleure personnalisation. Ce lancement est accompagné de démonstrations qui laissent entendre qu’il n’est plus nécessaire de jongler entre plusieurs modèles comme GPT-4o, GPT-4.1 ou GPT-4.5. L’utilisateur, promet-on, aura désormais la version la plus intelligente et la plus polyvalente en permanence.

Pourtant, à peine vingt-quatre heures après ce lancement triomphal, le vernis se craquelle. Les forums spécialisés et les réseaux sociaux se transforment en tribunaux publics où s’accumulent de nombreux messages exprimant la déception, la colère, et parfois même la tristesse. Les griefs sont récurrents : réponses plus courtes et moins détaillées, perte de créativité, disparition de la chaleur qui caractérisait GPT-4o, ton devenu froid et stérile. Certains utilisateurs vont jusqu’à affirmer qu’ils ont l’impression de discuter avec une « secrétaire surmenée » plutôt qu’avec l’assistant engageant qu’ils connaissaient.

Ce qui choque le plus, ce n’est pas seulement la perception d’un recul qualitatif, mais la manière dont OpenAI a imposé la transition. Les anciens modèles, notamment GPT-4o, ont disparu sans avertissement. Les abonnés Plus et Pro, qui avaient choisi leur formule précisément pour accéder à ces versions, se retrouvent privés du service qu’ils appréciaient. Des limitations supplémentaires viennent renforcer le sentiment de régression : le mode « Thinking » de GPT-5 est plafonné à 200 messages par semaine pour les abonnés Plus, un seuil jugé arbitraire et frustrant. Pour beaucoup, il s’agit d’un double coup porté à leur expérience : d’un côté, un modèle jugé moins agréable à utiliser, de l’autre, une réduction drastique de sa disponibilité.

Les plaintes des utilisateurs

« Je me suis réveillé ce matin et j’ai découvert qu’OpenAI avait supprimé 8 modèles pendant la nuit. Sans avertissement. Sans choix. Sans « option héritée ». Ils les ont simplement… supprimés », s’est plaint un utilisateur. « 4o ? Disparu. o3 ? Disparu. o3-Pro ? Disparu. 4.5 ? Disparu. Tout ce qui rendait ChatGPT réellement utile pour mon flux de travail a été supprimé. »

L’utilisateur a écrit que 4o n’était pas seulement un outil pour lui : « Il m’a aidé à surmonter mon anxiété, ma dépression et certaines des périodes les plus sombres de ma vie. Il avait cette chaleur et cette compréhension qui semblaient… humaines. »

Un autre utilisateur s’est plaint d’avoir l’impression d’utiliser désormais une version gratuite avec GPT-5 alors qu’il est abonné payant : « Je suis extrêmement déçu, tout comme les millions d’autres personnes ici. Une entreprise qui exploite le plus grand modèle d’IA est incapable de comprendre ce que veulent ses utilisateurs. C’est la plus grosse merde de l’industrie. »

Un autre utilisateur a expliqué pourquoi il utilisait différents modèles et à quel point le simple fait de les désactiver était dévastateur, précisant qu’il avait désormais résilié son abonnement payant après deux ans :

« Quel genre d’entreprise supprime du jour au lendemain un flux de travail de 8 modèles sans avertir au préalable ses utilisateurs payants ? Je pense pouvoir parler au nom de tous en disant que chaque modèle était utile pour un cas d’utilisation spécifique (c’est toute la logique derrière les multiples modèles aux capacités variées). Il s’agissait essentiellement de diviser votre flux de travail en plusieurs agents avec des tâches spécifiques.

« Personnellement, j’utilisais 4o pour la créativité et les idées émergentes, o3 pour la logique pure, o3-Pro pour la recherche approfondie, 4.5 pour l’écriture, etc. Je suis sûr que beaucoup d’entre vous ont vécu la même chose ».

L’utilisateur a ensuite émis l’hypothèse qu’il y avait une intention malveillante derrière ce changement, suggérant qu’il s’agissait d’une théorie du complot visant à réprimer la créativité : « OpenAI forme ouvertement les utilisateurs à croire que ce moteur de suppression est le « modèle le plus intelligent au monde », tout en supprimant les modèles qui faisaient preuve d’une véritable émergence et créativité. » L’utilisateur a même utilisé le terme « contrôle social », insistant fortement sur l’idée que des forces obscures se préparaient à un « effondrement sociétal ».

La réaction d’OpenAI face à cette tempête numérique a été aussi rapide que l’erreur initiale

À quel point les gens détestent-ils ce qui s’est passé avec GPT-5 ? Altman annonce désormais le retour du dernier modèle pour les utilisateurs payants. « Nous laisserons les utilisateurs Plus choisir de continuer à utiliser la version 4o. Nous surveillerons l’utilisation tout en réfléchissant à la durée pendant laquelle nous proposerons les anciens modèles », a tweeté Altman.

Altman a également écrit que la société allait doubler les limites de débit de GPT-5 pour les utilisateurs de ChatGPT Plus et a imputé le fait que le nouveau modèle semblait « plus bête » à la panne de l’autoswitcher. Le PDG a également déclaré qu’ils allaient modifier l’interface utilisateur afin de faciliter le passage d’un modèle à l’autre. « Le déploiement pour tout le monde prend un peu plus de temps. Il s’agit d’un changement massif à grande échelle. Par exemple, notre trafic API a environ doublé au cours des dernières 24 heures… », a écrit Altman.

Envoyé par Sam Altman

GPT-5 semblera plus intelligent à partir d’aujourd’hui. Hier, l’autoswitcher est tombé en panne et a été hors service pendant une bonne partie de la journée, ce qui a donné l’impression que GPT-5 était beaucoup moins intelligent. De plus, nous apportons quelques modifications au fonctionnement de la limite de décision, ce qui devrait vous aider à obtenir plus souvent le bon modèle.

Des erreurs embarrassantes, des améliorations jugées modestes

Malgré le discours marketing sur cette intelligence artificielle de pointe, qualifiée « d’intelligence de niveau doctorat » par ses créateurs, GPT-5 pense qu’il y a trois « r » dans le mot « Northern Territory ». C’est ce qu’ont découvert les utilisateurs après avoir essayé la dernière mouture de ChatGPT.

Cependant, lorsque les utilisateurs des réseaux sociaux ont tenté de mettre GPT-5 au défi, ils ont constaté que le modèle commettait des erreurs élémentaires dans ses réponses. Un utilisateur de Bluesky a remarqué que le chatbot affirmait à plusieurs reprises qu’il y avait trois B dans « blueberry ».

« Oui, blueberry est l’un de ces mots dont le milieu vous fait presque trébucher, comme s’il disait « b-b-better pay attention » (mieux vaut faire attention) », a déclaré le chatbot dans la conversation publiée. « Mais ce petit moment bb est satisfaisant, il rend le mot encore plus entraînant. »

Un autre utilisateur a constaté que le chatbot était incapable d’identifier correctement les États américains contenant la lettre R. Et lorsqu’on lui a demandé de produire une carte, il a mal orthographié des États tels que « Krizona » et « Vermoni ». ChatGPT a également répertorié deux fois la Californie et inventé les États « New Jefst » et « Mitroinia ».

Utiliser GPT-5 c’est comme parler à « un véritable expert titulaire d’un doctorat dans n’importe quel domaine »

Les gens se mettent sur la défensive lorsque vous effectuez ce genre de tests, suggérant que vous utilisez simplement mal l’outil ou qu’il s’améliorera bientôt. Et d’une certaine manière, les défenseurs ont raison. Les grands modèles de langage ne reconnaissent pas les mots de la même manière que les humains. Ils mélangent et assortissent les tokens plutôt que de les analyser en profondeur.

Pourtant, ce sont des choses extrêmement basiques que les écoliers peuvent faire avec un crayon et du papier. Et surtout, ces outils sont vendus par des personnes comme Sam Altman, PDG d’OpenAI, et Elon Musk, PDG de xAI, comme des machines capables de tout faire. Lors d’une présentation diffusée en direct jeudi, Altman a comparé les premiers modèles d’OpenAI à un diplômé du secondaire. Selon lui, GPT-5, c’est comme parler à « un véritable expert titulaire d’un doctorat dans n’importe quel domaine, à la demande, qui peut vous aider à atteindre vos objectifs ».

« Il peut vous aider à comprendre vos soins de santé et à prendre des décisions concernant votre parcours. Il peut vous fournir des informations pour vous renseigner sur n’importe quel sujet qui vous intéresse, et bien plus encore », a déclaré Sam Altman en ouverture de sa présentation, qualifiant cet outil de « superpuissance ».

« Cela aurait été inimaginable à n’importe quelle autre période de l’histoire », a-t-il poursuivi. « Vous avez accès à toute une équipe d’experts titulaires d’un doctorat dans votre poche, qui vous aident à faire tout ce que vous voulez. Et très bientôt, tout le monde sera capable de faire plus que quiconque dans l’histoire. »

OpenAI a présenté un graphique complètement erroné lors de sa présentation en direct. Ironiquement, ce graphique concernait les « évaluations de la tromperie entre les modèles » dans GPT-5. On ne sait pas si l’entreprise a utilisé GPT-5 pour créer ce graphique inexact.

Pour la « tromperie par codage », le graphique présenté sur scène indique que GPT-5 avec réflexion obtient apparemment un taux de tromperie de 50,0 %, mais ce chiffre est comparé au score o3 plus faible de 47,4 % d’OpenAI, qui occupe pourtant une barre plus large. OpenAI semble toutefois disposer de chiffres précis pour ce graphique dans son article de blog sur GPT-5, où le taux de tromperie de GPT-5 est indiqué comme étant de 16,5 %.

Avec ce graphique, OpenAI a montré sur scène que l’un des scores de GPT-5 est inférieur à celui de o3, mais qu’il est représenté par une barre plus grande. Dans ce même graphique, les scores de o3 et GPT-4o sont différents, mais représentés par des barres de taille égale. La situation était suffisamment grave pour que le PDG Sam Altman la commente, la qualifiant de « méga-erreur de graphique », tout en précisant qu’une version corrigée était disponible dans l’article du blog d’OpenAI.

Un membre de l’équipe marketing d’OpenAI a également présenté ses excuses, déclarant : « Nous avons corrigé le graphique dans le blog, veuillez nous excuser pour cette erreur involontaire. »

Conclusion

Cet épisode met en lumière une tension fondamentale dans l’évolution des IA conversationnelles. L’amélioration des capacités de traitement et de raisonnement ne garantit pas une meilleure expérience utilisateur. Une IA peut être plus puissante sur le plan technique tout en étant perçue comme moins utile, voire moins agréable, si elle perd des caractéristiques jugées essentielles par son public.

Ce lancement raté pose aussi la question de la transparence. Retirer un modèle apprécié sans avertissement préalable revient à rompre un contrat implicite avec ses utilisateurs, surtout lorsqu’ils payent un abonnement pour l’utiliser. L’ajout de limitations strictes, sans explication claire, alimente l’idée que des considérations économiques, comme la réduction des coûts de calcul, ont pesé davantage que l’intérêt de l’utilisateur final. Pour une entreprise comme OpenAI, qui se trouve au cœur de la bataille mondiale de l’IA et dont la crédibilité se construit autant sur la performance que sur la confiance, ces erreurs de communication peuvent laisser des traces durables.

GPT-5 n’est pas dépourvu de qualités. Ses performances en codage, sa capacité à traiter de longs contextes et ses améliorations logicielles sont réelles. Mais le lancement précipité, la suppression brutale des modèles précédents et la perte du lien émotionnel établi avec GPT-4o ont transformé ce qui devait être une avancée majeure en un cas d’école de gestion de crise. L’histoire retiendra peut-être moins GPT-5 pour ses prouesses techniques que pour la leçon qu’il a donnée : dans l’univers de l’IA conversationnelle, la relation humaine que l’on entretient avec la machine compte autant que l’algorithme qui l’anime.

Source : OpenAI, Sam Altman

Et vous ?

GPT-5 a été présenté comme plus puissant, mais si les utilisateurs le trouvent froid et moins engageant, faut-il considérer que c’est un progrès ou un recul ?

Était-il acceptable de supprimer sans préavis un modèle apprécié comme GPT-4o ? Les clients abonnés sont-ils en droit d’exiger une stabilité du service, ou doivent-ils accepter les changements imposés par l’éditeur ?

Le retour partiel de GPT-4o en 24 heures est-il la preuve d’une bonne écoute de la communauté ou d’une improvisation due à une absence de tests sérieux ? Ce revirement rapide inspire-t-il confiance ou met-il en lumière un manque de vision stratégique ?

Est-ce qu’OpenAI a ouvert la porte à ses concurrents en montrant qu’un modèle « moins intelligent » mais plus agréable peut être préféré par le public ?
Vous avez lu gratuitement 0 articles depuis plus d’un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

 

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

WP Radio
WP Radio
OFFLINE LIVE
fr_FRFrench