Les solutions de génération d'images par IA ouvrent la porte à de nouvelles formes de fraude sur les justificatifs, et particulièrement sur les notes de frais. Quels sont les principaux risques ? Comment s'en prémunir ?
2025 : quand l'IA facilite la génération de faux justificatifs comptables
Ce début d'année 2025 marque un tournant dans la fraude aux notes de frais avec l'émergence d'outils d'intelligence artificielle capables de produire ou modifier des justificatifs comptables. La dernière mise à jour de ChatGPT, en particulier, avec ses capacités améliorées de génération d'images, a mis en lumière une vulnérabilité dans les systèmes traditionnels de vérification documentaire.
Depuis début 2025, plusieurs cas emblématiques ont été médiatisés. En mars, Raphaël Chenol, directeur Digital Learning au Ynov Campus, a démontré qu'en utilisant ChatGPT, il était possible de transformer un ticket de restaurant en modifiant la date et le montant. Le résultat était si convaincant que son application de saisie de notes de frais n'avait alors détecté aucune anomalie.
Une facilité déconcertante, mais pas nouvelle
« Il est vrai qu'on peut désormais modifier très facilement une facture avec l'intelligence artificielle, voire en créer une entièrement nouvelle. Pour autant, le phénomène n'est pas nouveau : l'IA ne fait qu'accélérer le mouvement. », analyse Florent Dujardin, Directeur Général de Dext France.
Les fraudes aux notes de frais existaient en effet bien avant l'arrivée de l'IA générative. Qu'il s'agisse de modifier manuellement un montant sur un reçu ou d'utiliser le justificatif d'un collègue, les manipulations sont nombreuses, y compris au format papier. La différence réside désormais dans la facilité d'accès et la qualité du résultat
Détection des traces d'IA et analyse des métadonnées : les contre-mesures techniques
Face à cette menace, les éditeurs de logiciels se mobilisent. Dext a déployé début avril, quelques jours à peine après l'alerte évoquée plus haut, une fonctionnalité permettant de détecter les images générées par IA, mise en place début avril 2025, témoignant de la réactivité de l'industrie face à cette nouvelle forme de fraude.
« Nous analysons les traces d'intelligence artificielle dans les documents générés par ces technologies et affichons un message d'alerte indiquant que le document semble avoir été généré par l'IA », explique Florent Dujardin.
Cette détection s'appuie sur deux approches complémentaires :
- d'une part, la recherche de « tendances » caractéristiques des documents générés par intelligence artificielle, comme des numéros de facture trop génériques (du type 123456789), une mise en page trop parfaite, ou d'autres types d'incohérences ;
- d'autre part, l'analyse des métadonnées incluses dans les images. « Lorsque ChatGPT génère une image, des métadonnées sont intégrées en arrière-plan. C'est une signature indiquant la provenance de l'image », précise le directeur général de Dext France.
OpenAI a effectivement mis en place le standard C2PA (Coalition for Content Provenance and Authenticity) qui intègre automatiquement des métadonnées dans toutes les images générées par ses outils. Ces informations, invisibles à l'½il nu, permettent d'identifier l'origine artificielle du document.
Des bonnes pratiques à mettre en place ou à renforcer
Les contre-mesures technologiques ont leurs limites. Les éditeurs reconnaissent qu'il n'est jamais possible de garantir à 100% l'authenticité d'une facture : « une personne disposant de connaissances techniques suffisantes peut supprimer ces métadonnées relativement facilement. » précise Florent Dujardin.
Il est donc indispensable d'adopter en parallèle des approches plus traditionnelles, comme exiger le justificatif du paiement avec la note de frais, ou mettre en place des cartes spécifiques, du type Mooncard, ou Spendesk.
Plus globalement, la sensibilisation des collaborateurs et des clients aux risques liés à la falsification de documents par IA s'avère essentielle.
Vers une régulation européenne ?
À plus long terme, une partie de la solution pourrait venir de la régulation européenne. L'AI Act, qui entre progressivement en vigueur, pourrait apporter une réponse plus structurelle.
Ce texte classe en effet les systèmes d'IA selon 4 niveaux de risque :
- les systèmes à « risque inacceptable », totalement interdits (scoring social, manipulations subliminales...) ;
- les systèmes à « risque élevé », strictement réglementés (recrutement, éducation, crédit...) ;
- les systèmes à « risque limité », soumis à des obligations de transparence (chatbots, deepfakes...) ;
- les systèmes à « risque minimal », qui restent non réglementés (jeux vidéo, filtres anti-spam...).
Si la création de faux documents n'est pas explicitement mentionnée dans les usages prohibés, elle peut imaginer qu'elle puisse par exemple tomber sous le coup des interdictions concernant les IA « déployant des techniques subliminales, manipulatoires ou trompeuses pour fausser le comportement ».
Intelligence artificielle mais vigilance humaine
L'IA générative constitue indéniablement un nouvel outil au service des fraudeurs, notamment en matière de notes de frais. Pour autant, elle n'appelle pas à une révolution des contrôles mais plutôt à un renforcement des bonnes pratiques, comme le recoupement avec le justificatif de paiement ou la mise en place de cartes spécifiques. Les innovations technologiques des éditeurs de solution de reconnaissance automatique et de pré-comptabilité constituent un complément efficace pour détecter les premières tentatives de fraude par IA.