Kill the 80/20

Comment la data transforme l’audit

Si je gagnais un euro à chaque fois qu’un auditeur invoque la loi de Pareto, je pourrais m’offrir un abonnement à LinkedIn Sales Navigator…

L’audit financier repose encore trop souvent sur la règle du 80/20 : on concentre les efforts sur les plus gros montants, les plus grosses entités, les fournisseurs majeurs, les comptes clients les plus exposés. Et ce, souvent par contrainte technique : temps limité, outils rudimentaires, audit manuel. C’était une approche certes pragmatique, mais elle est désormais obsolète.

L’approche 80/20 un réflexe de survie devenu un biais structurel

Le 80/20, c’est l’héritage d’une époque où auditer tout était matériellement impossible. On échantillonne, on cible les plus gros montants, les comptes les plus visibles, puis on définit les critères de la recherche et on les applique manuellement. Et on espère que les signaux faibles ne feront pas trop de dégâts.

Mais dans les faits, cette logique reste très chronophage : retraitements manuels, fichiers Excel à la chaîne, validations difficilemnt retraçables. Le traitement reste linéaire : il faut autant de consultants que de fichiers Excel pour faire l’audit.

Surtout, cette méthode repose sur un pari qui biaise l’approche et qui génère des angles morts. On part du principe que les erreurs et fraudes se cachent forcément dans les gros montants. Alors que les plus gros montants sont déjà ceux qui sont les plus audités, les plus gros fournisseurs sont ceux qui sont les plus surveillés et les plus gros clients sont ceux qui sont les mieux intégrés. Cela fait que les “petites lignes” ne passent jamais le radar d’un audit 80/20 alors que c’est aussi là que se glissent les anomalies. C’est le cas classique : on pose un seuil de contrôle à 100k€, et on retrouve des factures habilement fractionnées à 99k€.

Et puis il y a le biais humain, on a tendance à chercher là où on est à l’aise, là où on a déjà trouvé et ça finit par structurer les réflexes des équipes: on refait les mêmes opérations, on trouve les mêmes résultats.

Le 80/20 formate l’analyse au lieu de la libérer.

L’analyse data : tout regarder avec moins de moyens et plus de certitudes

Avec les outils d’analyse de données, on peut désormais appliquer des règles à 100 % des flux, dans toutes les entités, sur toutes les lignes. Et surtout, sans effort marginal significatif : automatiser la recherche 1 ou 1000 fichiers, c’est (presque) le même coût.

Ce que ça change, fondamentalement, c’est la façon de travailler :

  • On ne perd plus de temps à choisir où chercher

  • On investit ce temps à définir quoi chercher

Autre impact : on peut enfin sizer les phénomènes. L’audit classique adore ce que j’appelle les cas “stylés” : un contournement malin, une fraude à l’ancienne, un schéma de provisionnage douteux. On le trouve une fois et il devient l’exemple qu’on veut retrouver partout.

Mais ce n’est pas parce qu’un cas est spectaculaire qu’il est structurant.

Sans mesure d’occurrence, on surinvestit dans l’anecdote. La data, elle, remet les choses à leur juste place, on peut quantifier et hiérarchiser les phénomènes sur l’ensemble de l’entreprise.

D’un audit ponctuel à un pilotage récurrent

Avant :

  • On définit des critères,

  • On échantillonne avec un 80/20,

  • On audite manuellement quelques lignes,

  • On extrapole les résultats à tout le périmètre

Après :

  • On définit les mêmes critères,

  • On audite automatiquement toutes les lignes,

  • On identifie les anomalies sur toute l’entreprise,

  • On mesure l’ensemble du phénomène avec certitude

  • Et grâce à la data science et à l’IA, on peut même faire émerger des critères ou signaux faibles que l’intuition humaine ne repère pas spontanément

On ne parle plus d’un audit figé dans le temps, mais d’un système où les analyses sont reproductibles avec des résultats comparables dans le temps que les directions financières peuvent piloter

Next
Next

L’IA ne remplacera JAMAIS les contrôleurs de gestion