Un rapport gouvernemental australien de 237 pages, facturé plus de 440 000 dollars australiens, a provoqué un tollé national. Réalisé en partie avec une intelligence artificielle, le document truffé d’erreurs a forcé Deloitte à rembourser une partie du contrat.
Scandale en Australie : Deloitte utilise l’IA pour un rapport rempli d’erreurs

Début octobre 2025, l’Australie découvre que le rapport stratégique commandé par le Department of Employment and Workplace Relations (DEWR) au cabinet Deloitte contient des erreurs majeures, des citations inventées et des références universitaires inexistantes. L’intelligence artificielle, employée via un modèle génératif Azure OpenAI GPT-4o, est directement mise en cause. Le gouvernement fédéral, embarrassé par l’ampleur du scandale, exige des comptes et obtient un remboursement partiel de la mission.
Deloitte : un rapport fait par l’IA au cœur d’un scandale national
Commandé fin 2024, le rapport devait examiner le Targeted Compliance Framework (TCF), un dispositif de sanctions automatisées appliqué aux demandeurs d’emploi australiens. L’objectif affiché : évaluer la performance et les impacts des outils numériques de gestion des allocations. Mais dès sa publication en juillet 2025, des incohérences apparaissent.
Selon AP News, plusieurs passages du rapport contenaient « des citations fabriquées, des sources incorrectes et des références à des travaux universitaires inexistants ». Le chercheur Chris Rudge, de l’Université de Sydney, y a relevé jusqu’à 20 erreurs distinctes, dont une citation inventée attribuée à un juge fédéral.
Face à la polémique, Deloitte reconnaît avoir intégré dans la rédaction « un modèle de langage génératif », comme précisé dans la version révisée. Le cabinet admet avoir utilisé Azure OpenAI GPT-4o pour produire certains passages. Dans un communiqué cité par The Guardian, la société souligne que « l’usage de l’IA n’a pas modifié la substance ni les recommandations principales du rapport ».
Cependant, la réaction politique est immédiate. La sénatrice travailliste Deborah O’Neill dénonce « un problème d’intelligence humaine » avant d’ajouter : « Ce serait risible si ce n’était pas aussi lamentable ; un remboursement partiel ressemble à des excuses partielles pour un travail sous-standard ».
Remboursement et embarras public pour Deloitte
Le montant du contrat, évalué à 440 000 dollars australiens (environ 250 000 euros), devait être versé en plusieurs tranches. Après vérification, Deloitte a accepté de restituer la dernière échéance, selon AP News. Le DEWR a confirmé que ce remboursement correspondait à la clause finale du contrat.
La version corrigée du document, publiée à l’automne, supprime douze références fictives, corrige la bibliographie et ajoute une mention explicite sur la méthode de travail. Business Insider rapporte en outre que les notes de bas de page ont été réécrites après qu’un audit interne a détecté des erreurs liées à la génération automatique du texte.
Malgré ces ajustements, la sénatrice verte Barbara Pocock réclame un remboursement intégral, estimant que « l’IA a été mal utilisée, mal citée et non vérifiée ». L’affaire atteint ainsi un rare niveau d’exposition pour un cabinet de conseil parmi les “Big Four”.
Un avertissement mondial pour l’usage de l’intelligence artificielle
Ce scandale prend une résonance particulière en Australie, déjà marquée par des controverses autour de l’automatisation de ses politiques sociales. Entre 2022 et 2024, le programme JobSeeker a suspendu 946 paiements à tort, via le même système TCF que celui audité par Deloitte. Le Commonwealth Ombudsman a qualifié plusieurs de ces suspensions d’« illégales ». Selon News.com.au, un précédent rapport interne de Deloitte – non publié – avait déjà alerté sur « l’instabilité » et les « effets inattendus » de ce dispositif automatisé. Pour de nombreux observateurs, cette crise illustre la tension entre efficacité automatisée et rigueur scientifique. Les systèmes génératifs comme GPT-4o, bien que puissants, demeurent susceptibles de produire des contenus erronés – un phénomène connu sous le nom d’« hallucination ».
Le Financial Express note que ce cas pourrait servir d’exemple à d’autres gouvernements : imposer des clauses de vérification humaine, des audits indépendants et une traçabilité totale de l’usage de l’IA.
