⚖️ Productivité ou rigueur ? L’IA vient de rappeler à Deloitte que le droit, lui, n’hallucine pas.
Le gouvernement australien avait mandaté Deloitte pour auditer un programme d’aide sociale.
Montant du contrat : 247 000 €.
Objectif : comprendre les dysfonctionnements d’un dispositif accusé de pénaliser injustement les demandeurs d’emploi.
Mais en septembre 2025, les autorités découvrent que le rapport rendu par Deloitte contenait… des sources inventées par une IA.
Des références universitaires fictives, attribuées à de vrais chercheurs, mais n’ayant jamais existé.
Le gouvernement exige alors le remboursement partiel du contrat, évoquant un manquement grave à la rigueur attendue d’un cabinet international de conseil.
💬 Les faits derrière la faute
Deloitte aurait utilisé un modèle GPT hébergé sur Azure OpenAI pour assister la rédaction du rapport.
Le cabinet affirme que “les erreurs n’affectaient pas les conclusions de fond”.
Mais peut-on réellement parler de conclusions fiables quand la base documentaire elle-même est fausse ?
La situation illustre un écueil classique : la confiance aveugle dans la machine.
L’IA n’a pas “inventé” par malveillance, elle a fait ce qu’elle sait faire : produire du texte plausible.
C’est à l’humain, et à lui seul, de vérifier la véracité.
🔍 Rappel pour les praticiens du droit
Cette affaire rappelle une évidence 👉 La délégation ne supprime pas la responsabilité.
Qu’il s’agisse d’un audit public, d’une analyse contractuelle ou d’une note juridique, la diligence humaine demeure un pilier intangible.
Le droit, qu’il soit civil, administratif ou déontologique repose sur l’idée que le professionnel doit exécuter sa mission avec compétence et vigilance.
L’outil n’efface ni la faute, ni l’obligation de vérification.
Une référence erronée, un raisonnement biaisé, un texte non relu : autant d’éléments qui peuvent engager la responsabilité du professionnel… pas celle de la machine.
🧠 Quelle leçon retenir de cette histoire ?
Ce fiasco dépasse le cas Deloitte.
Il interroge la place réelle de l’IA dans les métiers de la connaissance.
Peut-on déléguer l’analyse critique, la vérification ou le discernement ? Certainement pas.
Même le futur AI Act européen impose un contrôle humain effectif (“human-in-the-loop”) pour les systèmes à haut risque, comme ceux utilisés dans la décision publique.
L’IA accélère, structure, assiste, mais elle ne comprend pas ; alors que le droit, lui, repose sur la compréhension, le sens et la nuance.
Le cas Deloitte n’est pas un scandale, c’est un rappel déontologique : Quand la productivité prime sur la rigueur, c’est la crédibilité qui vacille.



