Basé sur des discussions d’experts et des analyses en renseignement
Par Benoît Grenier
Conseiller stratégique — Intelligence, gestion des risques et contre-renseignement
PARTIE I
Diriger dans un monde où la vérité n’existe plus par défaut
Les dirigeants d’aujourd’hui font face à une transformation sans précédent. On passe d’un environnement où l’information pouvait être collectée, vérifiée et considérée fiable… à un écosystème où les données deviennent instables, contaminées et parfois carrément hostiles. L’intelligence artificielle, jadis perçue comme un accélérateur décisionnel, est devenue à la fois un partenaire indispensable et un risque systémique.
Autrement dit, la promesse de clarté a été remplacée par une réalité de volatilité permanente.
Le constat est brutal : on demande aux dirigeants de prendre des décisions qui engagent l’allocation de capital, la stabilité opérationnelle et l’orientation globale de leur organisation… dans un monde où la certitude informationnelle s’est effondrée. Les discussions que j’ai eues récemment avec des spécialistes et collègues montrent jusqu’où la crise s’étend.
Des experts en IA, en renseignement et en gestion des risques décrivent un environnement numérique saturé de contenu synthétique, d’identités artificielles, de flux d’information pollués et de données dégradées.
Le message dominant est clair — et inquiétant :
“La base même de la prise de décision corporative, soit la confiance dans l’information, est en train de s’éroder à vitesse accélérée.”
Quand un dirigeant ne peut plus faire confiance aux données qui alimentent ses tableaux de bord, ses prévisions ou ses systèmes d’IA, c’est toute l’entreprise qui glisse vers une vulnérabilité structurelle.
Ce texte explore ce nouveau contexte et propose des pistes pour rétablir une clarté stratégique. Le but n’est pas d’alimenter la peur, mais de dresser un portrait réaliste des risques, des enjeux de renseignement et des vulnérabilités qui façonnent déjà 2025 et les années à venir.
Les organisations qui veulent survivre — et performer — doivent accepter qu’elles évoluent désormais dans un environnement marqué par la guerre économique informationnelle, une fragmentation géopolitique, une contamination massive des données et une ambiguïté croissante alimentée par l’IA.
Seules celles qui intégreront l’intelligence, la validation et un scepticisme méthodique dans leurs processus décisionnels conserveront un avantage réel.
En d’autres mots : Un véritable programme corporatif de contre-ingérence.
L’effondrement du “ground truth”
Pendant plus d’une décennie, les dirigeants ont fonctionné avec une idée simple :
Plus une organisation accumule de données, meilleures seront ses décisions.
La “big data” représentait la puissance. L’apprentissage automatique promettait l’exactitude prédictive. L’IA offrait vitesse, automatisation et optimisation.
Mais les discussions que j’ai eues révèlent aujourd’hui une inversion inquiétante.
Nous évoluons désormais dans un contexte où accumuler davantage de données ne garantit plus une meilleure précision. Au contraire, cet excès crée plus de bruit, plus de signaux trompeurs et plus de portes ouvertes à la manipulation.
Les experts décrivent un phénomène appelé empoisonnement autonome des données.
Il se produit lorsque des systèmes génératifs d’IA consomment du contenu en ligne, le transforment, le reproduisent et réinjectent de l’information synthétique dans l’écosystème général. Avec le temps, cette boucle dégrade le contenu humain authentique et remplit l’espace informationnel de motifs artificiels que les modèles interprètent comme étant vrais.
Comme un collègue l’a résumé crûment :
« Le contenu humain est digéré, dilué et submergé par du contenu synthétique au point où la distribution de probabilité de l’information originale disparaît. »
Ce n’est pas théorique. Une étude de l’Université d’Oxford a démontré que lorsque les modèles s’entraînent sur les productions d’autres modèles, ils dérivent rapidement vers des patterns fictifs et incohérents — une dégradation complète du sens.
Pour les entreprises, les impacts sont majeurs :
- Les données de marché peuvent refléter des amplifications algorithmiques plutôt que des comportements réels.
- Les flux de menace (“threat intelligence”) peuvent être pollués par de faux comptes ou des narratifs artificiels.
- Les modèles prédictifs en logistique ou en finance peuvent s’appuyer sur des bases contaminées.
Dans un tel contexte, la prise de décision devient un exercice risqué, où des illusions mathématiquement “précises” masquent des fondations instables.
Au Québec, on pourrait imaginer l’effet sur :
- les prévisions d’Hydro-Québec basées sur des données de consommation polluées par des bots,
- les analyses de marché du secteur minier alimentées par des signaux artificiels,
- la surveillance cyber d’entreprises financières comme Desjardins ou la Banque Nationale contaminée par de faux modèles d’activité.
L’hallucination comme risque stratégique
Les modèles de langage (LLM) possèdent un danger silencieux : Ils hallucinent.
Ils ne se contentent pas de se tromper : Ils génèrent des réponses convaincantes… mais totalement fausses. Dans les contextes financiers, réglementaires, juridiques, sécuritaires ou de conformité, ces hallucinations ne sont pas tolérables. Un analyste humain qui invente une donnée est fautif. Un algorithme qui invente une donnée… crée un risque systémique.
Comme l’a rappelé un expert : “Un taux d’erreur de 0,5 % dans un processus automatisé de conformité ou d’analyse financière n’est pas une réussite — c’est un désastre.”
Une seule “interprétation inventée” peut :
- mal représenter une obligation réglementaire,
- créer une fausse exposition au risque,
- déclencher une mauvaise réponse opérationnelle.
Et comme l’IA s’exprime avec assurance, les dirigeants risquent de lui faire plus confiance qu’à des rapports humains prudents.
Ce glissement cognitif — la perte du scepticisme — devient l’un des risques les plus graves.
On observe déjà, chez plusieurs jeunes gestionnaires québécois et canadiens, une tendance à accepter la première réponse générée par un outil d’IA simplement parce qu’elle “sonne bien”.
Résultat : Lles décisions gagnent en vitesse, mais perdent en profondeur et en robustesse.
Ce biais de “première réponse” constitue un danger structurel pour la gouvernance.
Et les humains ne sont pas mieux.
Sous pression, même des professionnels expérimentés comblent les vides avec :
- des suppositions,
- des souvenirs imprécis,
- des narratifs convenables mais faux.
La frontière entre erreur humaine et hallucination algorithmique est plus mince qu’on le croit.
La disparition de l’attribution : qui est réel… et qui ne l’est plus?
L’une des transformations les plus troublantes concerne la capacité d’identifier la provenance réelle d’une information. Les identités synthétiques explosent : Visages, voix, CV, commentaires, avis, profils “sociaux”…
Bientôt, aucun dirigeant ne pourra affirmer avec certitude qui est humain et qui est artificiel. Et ce n’est pas futuriste — c’est déjà en cours.Quelques exemples concrets :
- Une entreprise québécoise évaluant ses clients sur les réseaux sociaux pourrait analyser 40 % de profils artificiels.
- Un processus d’embauche dans une multinationale basée à Montréal pourrait recevoir des CV entièrement générés par IA.
- Un audit de chaîne d’approvisionnement pourrait reposer sur des fournisseurs… inexistants.
- Une analyse géopolitique pourrait se baser sur des narratifs amplifiés par des “fermes de contenu”.
- Un incident de sécurité attribué à un employé fâché pourrait provenir d’une fausse identité numérique créée par un réseau hostile.
Dans ces conditions, le modèle traditionnel d’OSINT (collecter — observer — interpréter) ne tient plus. Le web ouvert est désormais un environnement adversarial.
Pour retrouver un ancrage dans la réalité, les équipes de renseignement misent sur des sources :
- hors ligne,
- physiques,
- validées par capteurs,
- ou même issues de l’observation satellitaire.
Les entreprises qui n’adopteront pas ce type de validation perdront progressivement leur capacité à distinguer le vrai du faux — un échec fatal en gestion des risques.
Géopolitique et intelligence économique : les nouveaux déterminants de la vulnérabilité corporative
L’effondrement de l’intégrité informationnelle survient en parallèle d’un réalignement géopolitique mondial. Les chaînes d’approvisionnement ne suivent plus la logique économique, mais la logique géopolitique. Les flux énergétiques se réorganisent en fonction des conflits et des sanctions. Les grandes puissances utilisent l’information, la technologie et l’accès au marché comme armes stratégiques. Dans ce contexte, ignorer la géopolitique revient à naviguer une tempête sans radar.
Les exemples abondent :
- les perturbations maritimes qui touchent les exportateurs québécois,
- les restrictions sur les semi-conducteurs qui affectent le secteur manufacturier canadien,
- les sanctions internationales qui redessinent des chaînes d’approvisionnement entières,
- le repositionnement des marchés énergétiques qui impacte directement l’Alberta et Terre-Neuve.
Au cours de mes discussions, un expert a illustré une tendance inquiétante : Certaines entreprises développent des stratégies d’expansion hyper-localisées alimentées par l’IA, capables d’absorber ou d’éliminer des catégories complètes de compétiteurs en cinq ans.
Il ne s’agit plus d’affaires. “C’est une forme de guerre économique par domination technologique.”
Les conflits en Europe de l’Est, au Moyen-Orient et en mer de Chine méridionale démontrent à quelle vitesse les événements géopolitiques affectent les opérations corporatives :
- des reroutages maritimes qui coûtent des milliards,
- des sanctions qui font disparaître des chaînes logistiques entières du jour au lendemain,
- des restrictions d’exportation qui redéfinissent des industries.
Les entreprises n’évoluent plus dans des marchés. Elles évoluent sur un échiquier géopolitique. Les programmes modernes d’intelligence économique — comme ceux enseignés dans plusieurs universités canadiennes et européennes — ont justement été créés pour aider les dirigeants à :
- anticiper les déstabilisations,
- détecter l’influence hostile,
- cartographier la stratégie des compétiteurs,
- intégrer le renseignement au cœur de la gouvernance.
Ce n’est plus un avantage.C’est une condition de survie.







