GPT-5 : un modèle puissant, mais pas (encore) un oracle

Depuis plusieurs mois, GPT-5 symbolise une nouvelle ambition pour l’intelligence artificielle générative : architecture repensée, multimodalité native, capacités de raisonnement renforcées.

Dydu Mathieu Changeat
By Mathieu Changeat Published on 19 janvier 2026 5h36
New York,usa,december,16,2024:,close Up,of,chatgpt,app,logo
GPT-5 : un modèle puissant, mais pas (encore) un oracle - © Economie Matin
80%OpenAI détiendrait environ 80 % du marché des chatbots génératifs.

OpenAI évoque un bond technologique, confirmé par certains benchmarks dans lesquels GPT-5 dépasse GPT-4o dans des tâches de codage, de mathématiques ou d’analyse d’images. Pourtant, malgré ces avancées, le modèle reste inachevé. Puissant, mais instable ; plus fin, néanmoins toujours faillible. GPT-5 marque une progression, pas une rupture.

Un modèle plus sophistiqué, mais pas révolutionnaire.

La principale évolution tient à son architecture : un routeur interne sélectionne, en temps réel, le sous-modèle le plus adapté selon la demande. Cette logique améliore la précision du raisonnement et la capacité à suivre des instructions complexes. La multimodalité — texte, image, audio — gagne également en fluidité. Pour autant, l’écart avec GPT-4 reste moins spectaculaire qu’attendu. Sur des tests de logique symbolique ou de raisonnement général, certains concurrents surperforment encore. Le benchmark GAIA, conçu pour évaluer la réalisation de tâches complexes, place ainsi GPT-5 Medium derrière d’autres modèles. Surtout, au-delà des scores, les limites apparaissent dans les usages concrets : sur des productions opérationnelles comme la création d’infographies, de présentations ou le développement de code structuré, les rendus de GPT-5 restent souvent en retrait par rapport à certains concurrents, notamment Gemini. L’IA générative progresse désormais davantage par ajustements successifs que par véritables sauts qualitatifs.

Une puissance qui amplifie aussi les risques.

Parce qu’il peut générer textes, images, audio ou code, GPT-5 renforce mécaniquement les risques liés à la désinformation. Les deepfakes deviennent plus réalistes, tandis que les méthodes de détection perdent en fiabilité. C’est ce qui a conduit l’Union européenne à imposer, via l’AI Act, une obligation de transparence sur les contenus synthétiques, et la France à renforcer la lutte contre les manipulations avec la loi SREN1. Mais ces dispositifs ne suffiront pas à eux seuls. L’éducation aux usages, la vérification des sources et une culture du doute raisonné restent les premières lignes de défense. Une IA plus performante exige des utilisateurs plus vigilants.

Des limites techniques qui rappellent que l’IA n’est pas une vérité automatique.

Malgré les améliorations annoncées, GPT-5 continue de produire des erreurs factuelles, des déductions incohérentes et des approximations. Sa performance est supérieure, mais sa fiabilité n’est pas garantie. Des analyses indépendantes pointent des difficultés persistantes : raisonnements fragiles sans instructions étape par étape, erreurs simples en mathématiques, projets de code complexes mal conduits. Même son taux d’hallucinations, bien qu’en baisse selon Vectara2, reste incompatible avec une délégation totale à la machine. Ces fragilités nourrissent un débat plus large : l’IA générative a-t-elle atteint un plateau ? Plusieurs chercheurs estiment que les architectures actuelles montrent leurs limites et qu’une véritable rupture technologique sera nécessaire pour franchir un nouveau cap.

Un modèle encore très anglo-centré.

Comme tous les grands modèles américains ou chinois, GPT-5 a été entraîné majoritairement sur des données anglophones. Le résultat est visible : biais culturels, nuances françaises mal perçues, tonalité fluctuante. Dès son lancement, GPT-5 a été critiqué pour un style plus froid que GPT-4, conséquence directe d’optimisations internes. Pour les langues moins représentées, les performances restent mécaniques. Les nuances, les sous-entendus, la culture locale : tout cela demeure difficile à reproduire. Les modèles européens progressent, mais la domination américaine et chinoise en matière de données et de puissance de calcul reste écrasante.

GPT-5 confirme que l’IA générative est devenue un outil incontournable, tout en restant loin d’une véritable autonomie. La réception plus contrastée de GPT-5.2 illustre d’ailleurs les tensions actuelles du secteur : dans un contexte de concurrence accrue, notamment face aux avancées rapides de Gemini, certains observateurs évoquent une sortie perçue comme accélérée, accompagnée de performances inégales selon les usages. Ce climat alimente des attentes parfois déçues et rappelle que la course aux annonces ne garantit pas, à elle seule, un saut qualitatif durable.

Ses limites montrent qu’aucun modèle ne remplace l’analyse, le discernement ou la responsabilité humaine. Les entreprises ont donc intérêt à intégrer ces technologies avec lucidité : l’IA sert à augmenter les équipes, non à s’y substituer. L’avenir du secteur ne se jouera pas uniquement sur la taille ou la vitesse de déploiement des modèles, mais sur la capacité à articuler innovation, transparence et usages maîtrisés. GPT-5 marque une nouvelle étape, et la vigilance humaine demeure l’élément déterminant.

1La loi SREN (Sécuriser et réguler l’espace numérique), promulguée en mai 2024, renforce l’encadrement des grandes plateformes en matière de protection du public et de lutte contre la manipulation de l’information, notamment les contenus générés ou altérés par IA. Le texte élargit les pouvoirs de l’ARCOM pour identifier, signaler et sanctionner les deepfakes, et impose de nouvelles obligations de transparence aux acteurs numériques. Sources : Légifrance (Loi n° 2024-449 du 21 mai 2024), Assemblée nationale.

2Vectara est une plateforme spécialisée dans l’évaluation de la fiabilité factuelle des grands modèles de langage. Elle a développé un modèle d’évaluation des hallucinations (Hughes Hallucination Evaluation Model, HHEM) et un Hallucination Leaderboard, qui servent à mesurer et à comparer le taux d'“hallucinations”, c’est-à-dire d’informations factuellement incorrectes ou inventées, de différents LLM lorsqu’ils résument ou génèrent du contenu.

Dydu Mathieu Changeat

co-fondateur de Dydu

No comment on «GPT-5 : un modèle puissant, mais pas (encore) un oracle»

Leave a comment

* Required fields