Blog

  • L’IA générative sur le poste de travail : le nouvel Excel de l’utilisateur augmenté

    Rapport d’analyse — Avril 2026

    Synthèse exécutive

    Excel a transformé les PME en donnant à chaque collaborateur la capacité de calculer, modéliser et analyser des données sans passer par un développeur. Trente ans plus tard, les LLM (Claude, ChatGPT, Copilot) produisent une rupture comparable : ils permettent à tout utilisateur d’exécuter des tâches qui relevaient jusqu’ici de spécialistes — rédaction structurée, analyse de documents, traitement de données, création de présentations, automatisation de processus — via une interface en langage naturel. En Suisse, 34 % des PME utilisent déjà l’IA générative (ICT Journal d’octobre 2025), et 67 % des PME européennes ont au moins un outil d’IA en service. L’étude conjointe Harvard Business School / BCG mesure des gains de productivité de 25 % en vitesse d’exécution et de 40 % en qualité de production pour les travailleurs du savoir utilisant l’IA. Ce rapport analyse le parallèle structurel entre Excel et l’IA générative, dresse un inventaire des usages sur le poste de travail, propose une analyse SWOT et formule un plan d’action d’implémentation pour les entreprises et collectivités.

    1. Le parallèle structurel : Excel → LLM

    1.1 Ce qu’Excel a fait (et continue de faire)

    Excel, lancé en 1985, a créé une catégorie d’outil sans précédent : le logiciel de productivité individuelle universelle. Son apport fondamental est d’avoir permis à des utilisateurs non-techniques d’effectuer des opérations auparavant réservées aux comptables, statisticiens ou programmeurs.

    Caractéristiques clés du modèle Excel :

    • Seuil d’entrée bas, plafond élevé : un utilisateur peut commencer par une simple addition et progresser vers des modèles financiers complexes, des macros VBA, des tableaux croisés dynamiques. Le même outil sert au débutant et à l’expert.
    • Interface universelle : la grille de cellules constitue une métaphore compréhensible par tous. Aucune formation formelle n’est requise pour un usage basique.
    • Autonomie de l’utilisateur : le collaborateur résout ses problèmes sans dépendre du service informatique. Il construit ses propres outils : tableaux de bord, fichiers de suivi, modèles de calcul.
    • Effet réseau informel : les fichiers circulent entre collègues, créant un écosystème de pratiques partagées. Chaque utilisateur forme le suivant.
    • Polyvalence fonctionnelle : comptabilité, gestion de projet, suivi commercial, reporting, budgets, bases de données simplifiées — Excel a absorbé des dizaines de cas d’usage.

    Excel reste omniprésent : plus de 750 millions d’utilisateurs dans le monde. Dans les entreprises, il est souvent le logiciel le plus utilisé après la messagerie.

    1.2 Ce que les LLM apportent aujourd’hui

    Les LLM reproduisent le schéma d’Excel avec un décalage majeur : l’interface est le langage naturel. L’utilisateur n’a plus besoin d’apprendre une syntaxe (formules, fonctions, VBA). Il décrit ce qu’il veut obtenir.

    DimensionExcelLLM (Claude, ChatGPT, Copilot)
    InterfaceGrille + formulesLangage naturel
    Seuil d’entréeFaible (mais syntaxe à apprendre)Très faible (conversation)
    Type de données traitéesDonnées numériques et tabulairesTexte, données, images, documents, code
    Autonomie de l’utilisateurConstruction manuelleDélégation par instruction
    Courbe d’apprentissageProgressive (formules → VBA)Progressive (prompts simples → workflows complexes)
    PartageFichiersConversations, artefacts, templates de prompts
    LimitesDonnées structurées uniquementDonnées non structurées incluses

    1.3 La convergence en cours

    Le parallèle ne relève pas de l’analogie : il s’agit d’une continuité fonctionnelle. Plusieurs signaux confirment cette convergence :

    • Claude et Copilot sont intégrés dans Excel : l’IA vient directement augmenter les capacités du tableur existant. L’utilisateur peut formuler des requêtes en langage naturel pour générer des formules, des graphiques ou des analyses.
    • Claude et ChatGPT produisent des fichiers Excel : ces LLM génèrent des tableurs (.xlsx), des présentations (.pptx), des documents Word (.docx) et des PDF directement depuis une conversation.
    • Les artefacts interactifs, comme des pages HTML, remplacent certaines feuilles de calcul : tableaux de bord, calculatrices, formulaires, outils de suivi — créés en temps réel via une simple description textuelle.

    L’IA ne remplace pas Excel. Elle se positionne à côté et au-dessus : elle traite ce qu’Excel ne sait pas traiter (texte libre, documents, raisonnement) et elle facilite l’utilisation d’Excel lui-même.

    2. Inventaire des usages : bien au-delà de la rédaction

    L’un des biais les plus fréquents dans la perception de l’IA générative est de la réduire à un outil d’aide à la rédaction. L’inventaire ci-dessous couvre des usages très concrets, disponibles en avril 2026 sur les principales plateformes (Claude, ChatGPT, Copilot). La majorité de ces cas d’usage sont pratiqués quotidiennement chez tebicom et constatés chez nos clients.

    2.1 Traitement et production de documents

    UsageDescriptionExemple entreprises et collectivités
    Rédaction structuréeRapports, comptes-rendus (PV), procédures, notes de serviceRédiger un compte-rendu de réunion à partir de notes brutes
    Reformulation et adaptationChanger le ton, le niveau technique, la langue d’un texte existantAdapter un document technique en argumentaire commercial
    Traduction professionnelleTraduction contextualisée avec terminologie métierTraduire une offre commerciale FR→EN avec vocabulaire sectoriel
    Création de présentationsGénération de fichiers .pptx structurésProduire une présentation client de 15 slides à partir d’un brief
    Création de documents WordGénération de fichiers .docx avec mise en formeProduire un contrat-type, une procédure qualité, un rapport
    Création de tableursGénération de fichiers .xlsx avec formulesCréer un modèle de budget prévisionnel avec formules intégrées
    Remplissage de formulaires PDFLecture et remplissage automatique de formulairesPré-remplir des formulaires administratifs (déclarations, demandes d’autorisation)

    2.2 Analyse de données et d’information

    UsageDescriptionExemple entreprises et collectivités
    Analyse de fichiers Excel/CSVChargement, nettoyage, analyse statistique, visualisationAnalyser un export CRM de 10’000 lignes et identifier les tendances
    Extraction d’information de documentsLecture de PDF, contrats, rapports, facturesExtraire les clauses clés de 50 contrats fournisseurs
    Synthèse de documents longsRésumé structuré avec points clésSynthétiser un appel d’offres de 80 pages en 2 pages
    Comparaison de documentsIdentification des différences entre versionsComparer deux versions d’un contrat et lister les modifications
    Analyse d’images et de photosLecture de graphiques, schémas, photos de documentsExtraire les données d’un tableau photographié sur un whiteboard
    Analyse de tendancesIdentification de patterns dans des jeux de donnéesDétecter la saisonnalité dans les ventes sur 3 ans

    2.3 Automatisation et productivité

    UsageDescriptionExemple entreprises et collectivités
    Génération de formules ExcelCréation de formules complexes en langage naturel« Crée une formule qui calcule le taux de marge par catégorie de produit »
    Création d’outils interactifsTableaux de bord, calculatrices, simulateurs en HTML/ReactSimulateur de devis avec calcul automatique des remises
    Traitement par lot de documentsAnalyse ou transformation de multiples fichiersAnalyser 30 CV et produire un tableau comparatif
    Nettoyage de donnéesDétection d’anomalies, standardisation, déduplicationNettoyer une base clients avec doublons et formats incohérents
    Conversion de formatsTransformation entre formats de fichiersConvertir un tableau PDF en fichier Excel exploitable
    Génération de scriptsCode Python, VBA, SQL pour automatiser des tâchesScript d’envoi automatique de rappels de factures

    2.4 Communication et relation client

    UsageDescriptionExemple entreprises et collectivités
    Rédaction d’e-mails professionnelsEmails structurés avec ton adapté au contexteRédiger une réponse diplomatique à une réclamation client
    Préparation de réunionsOrdres du jour, questions préparatoires, synthèsesPréparer un ordre du jour structuré avec points de décision
    Support client interneRéponses aux questions fréquentes sur les processusRépondre à « comment remplir ma note de frais »
    Gestion de la correspondanceTri, résumé et priorisation de courriersRésumer 20 emails reçus et identifier les actions requises
    Rédaction d’appels d’offresStructuration des réponses aux AORédiger les parties non-techniques d’une réponse à un marché public

    2.5 Expertise et aide à la décision

    UsageDescriptionExemple entreprises et collectivités
    Recherche réglementaireIdentification des obligations légales applicables« Quelles sont mes obligations RGPD ou LPD pour un fichier clients B2B ? »
    Analyse financièreInterprétation de bilans, ratios, projectionsAnalyser un bilan comptable et identifier les points d’alerte
    Veille concurrentielleRecherche web structurée et synthétiséeSynthèse des offres concurrentes sur un segment de marché
    Conseil RHAide à la rédaction de fiches de poste, grilles d’entretienCréer une grille d’évaluation pour un recrutement technique
    Aide à la conformitéVérification de la conformité documentaireVérifier qu’un document qualité respecte la norme ISO applicable
    Analyse de risquesIdentification et évaluation de risques projetLister les risques d’un projet d’ouverture de filiale

    2.6 Création et design

    UsageDescriptionExemple entreprises et collectivités
    Prototypage d’interfacesMaquettes web fonctionnelles en HTML/ReactPrototyper une page de commande en ligne en 10 minutes
    Création de visuels structurésDiagrammes, organigrammes, schémas de processusCréer un organigramme interactif de l’entreprise
    Génération de graphiquesVisualisations de données personnaliséesGraphique de comparaison des ventes par région sur 12 mois
    Création de contenu marketingPosts réseaux sociaux, newsletters, argumentairesRédiger 4 posts LinkedIn pour le lancement d’un produit
    Design de formulairesFormulaires web fonctionnelsCréer un formulaire de satisfaction client en ligne

    2.7 Gestion de projet et organisation

    UsageDescriptionExemple entreprises et collectivités
    Planification de projetDécoupage en tâches, estimation de charges, jalonsStructurer un projet de déménagement de bureaux
    Rédaction de procéduresProcédures opérationnelles standardiséesRédiger la procédure d’onboarding d’un nouveau collaborateur
    Création de checklistsListes de vérification contextualiséesChecklist de conformité pour une livraison client
    Suivi et reportingTableaux de bord de suivi de projetGénérer un rapport d’avancement projet hebdomadaire
    Comptes-rendus de réunion (PV)Structuration et formalisationTransformer des notes manuscrites en compte-rendu formel

    2.8 Fonctionnalités émergentes

    UsageDescriptionDisponibilité
    Computer UseL’IA contrôle l’ordinateur : ouvre des applications, remplit des formulaires, navigue sur le webClaude (mars 2026)
    Cowork / agents autonomesL’IA travaille sur des fichiers en autonomie : lit, édite, crée dans un dossierClaude Max
    Extensions Excel/PowerPoint/WordL’IA intégrée directement dans les applications OfficeClaude (février 2026), Copilot
    Mémoire inter-sessionsL’IA retient le contexte d’une conversation à l’autreClaude, ChatGPT
    Recherche web intégréeL’IA accède à des données en temps réel pendant la conversationClaude, ChatGPT, Copilot
    Connexion aux outils métierIntégration avec Gmail, Google Drive, Slack, Salesforce via MCPClaude (2025-2026)
    Deep ResearchRecherche approfondie automatisée sur un sujet complexeClaude, ChatGPT
    Traitement multimodalAnalyse simultanée de texte, images, audio, vidéoToutes plateformes

    3. Analyse SWOT

    3.1 Forces (Strengths)

    Accessibilité sans précédent. Le langage naturel comme interface élimine la barrière technique qui freine de nombreux utilisateurs Excel. Un collaborateur qui ne maîtrise pas RECHERCHEV peut obtenir le même résultat en une phrase. Le coût d’entrée est minime : 20.-/mois par utilisateur pour les abonnements Pro, sans infrastructure à déployer.

    Polyvalence transversale. Contrairement à Excel (données tabulaires) ou à un traitement de texte (documents), les LLM opèrent sur tous les types de contenu simultanément. Un même outil remplace ou complète plusieurs logiciels spécialisés. L’inventaire ci-dessus recense plus de 40 catégories d’usage distinctes couvrant l’ensemble des fonctions d’une entreprise ou collectivité.

    Gains de productivité mesurés. L’étude Harvard/BCG documente une augmentation de 25.1 % de la vitesse d’exécution et de 40 % de la qualité des livrables pour des travailleurs du savoir. Les utilisateurs en entreprise rapportent une économie moyenne de 5.4 % de leurs heures hebdomadaires. Ces gains sont particulièrement marqués pour les profils non-experts, qui bénéficient d’un « effet d’égalisation » : l’IA réduit l’écart de performance entre collaborateurs juniors et seniors.

    Courbe d’adoption rapide. L’adoption des LLM progresse plus vite que toute technologie bureautique précédente. En Suisse, le taux d’adoption dans les PME est passé de 22 % à 34 % en un an (ICT Journal d’octobre 2025).

    3.2 Faiblesses (Weaknesses)

    Fiabilité variable. Les LLM produisent des erreurs factuelles (hallucinations) sans signal d’alerte. Contrairement à une formule Excel qui renvoie une erreur #REF! quand les données sont incohérentes, un LLM présente une réponse incorrecte avec la même assurance qu’une réponse juste. Ce problème est structurel : il diminue avec chaque génération de modèle mais ne disparaît pas.

    Reproductibilité limitée. À question identique, un LLM peut fournir des réponses différentes. Excel, pour les mêmes données et la même formule, produit toujours le même résultat. Cette différence est fondamentale : l’IA est probabiliste, les systèmes d’entreprise sont déterministes. Les deux paradigmes ne fonctionnent pas selon la même logique et ne sont pas substituables, mais complémentaires. Cette incompatibilité de nature complique l’intégration de l’IA dans les processus nécessitant une répétabilité stricte. Elle impose une architecture hybride claire : le déterministe pour les règles non négociables, le probabiliste pour l’interprétation et l’analyse contextuelle.

    Dépendance au fournisseur. Les données sont traitées sur des serveurs externes (Anthropic, OpenAI, Microsoft). Contrairement à un fichier Excel stocké en local, l’utilisateur n’a pas le contrôle total de son outil. Les conditions de service, les prix et les fonctionnalités peuvent changer unilatéralement.

    Compétence en prompting inégale. La qualité du résultat dépend fortement de la qualité de l’instruction. Sans formation, de nombreux utilisateurs sous-exploitent l’outil ou obtiennent des résultats décevants, ce qui génère un désengagement précoce.

    3.3 Opportunités (Opportunities)

    Automatisation des tâches à faible valeur ajoutée. Dans une PME, une proportion significative du temps de travail est consacrée à des tâches répétitives de traitement d’information : reformatage de données, rédaction de courriers types, consolidation de tableaux, extraction d’informations de documents. Les LLM permettent de réduire ce temps de 30 à 60 % selon les études disponibles.

    Démocratisation de compétences rares. Une PME de 20 personnes n’a pas de juriste, de data analyst, de graphiste ou de traducteur interne. L’IA permet à un collaborateur polyvalent d’accéder à un premier niveau de compétence dans ces domaines : analyse juridique préliminaire, visualisation de données, prototypage visuel, traduction professionnelle. Ce n’est pas un remplacement du spécialiste, mais un accès à une expertise de premier recours.

    Intégration croissante avec l’écosystème existant. Les connexions MCP (Model Context Protocol), les extensions Office, et les agents autonomes (Computer Use, Cowork) transforment les LLM en couche d’orchestration des outils existants. L’IA ne remplace pas le CRM, l’ERP ou Excel — elle les relie et les exploite de manière unifiée via une interface conversationnelle.

    Avantage concurrentiel pour les adopteurs précoces. Les PME qui intègrent l’IA maintenant accumulent un capital d’apprentissage organisationnel (prompts, workflows, pratiques internes) qui constitue un avantage durable. L’OCDE note que les PME de moins de 5 ans adoptent l’IA significativement plus vite (72 %) que les entreprises de plus de 35 ans (61 %), confirmant que l’agilité organisationnelle est un facteur déterminant.

    3.4 Menaces (Threats)

    Shadow AI. Sans cadre d’entreprise, les collaborateurs utilisent des comptes personnels gratuits, exposant potentiellement des données sensibles. Une étude signale que les requêtes liées au travail représentent 27 % des 2.6 milliards de messages quotidiens sur ChatGPT. Le risque de fuite de données commerciales, de propriété intellectuelle ou de données personnelles est réel et documenté.

    Fracture numérique interne. L’adoption inégale entre collaborateurs peut créer une nouvelle forme de division : entre ceux qui exploitent l’IA et ceux qui ne le font pas. Ce risque est plus aigu dans les PME où la formation est souvent informelle et où les profils sont hétérogènes en maturité numérique.

    Instabilité de l’offre. Le marché des LLM évolue très rapidement. Les modèles, les prix, les fonctionnalités et les fournisseurs changent à un rythme trimestriel. Une PME qui investit dans un écosystème (prompts, formations, workflows) peut voir cet investissement partiellement dévalué par un changement de plateforme ou de conditions tarifaires.

    Surconfiance et risques opérationnels. L’utilisateur peut accorder aux résultats de l’IA un niveau de confiance excessif, en particulier dans des domaines où il n’a pas l’expertise pour vérifier le résultat (analyse juridique, calculs financiers, conseils techniques). Contrairement à Excel où l’utilisateur construit lui-même la logique de calcul, l’IA produit un résultat opaque que l’utilisateur doit évaluer sans en maîtriser la mécanique.

    4. Matrice de comparaison : Excel vs. LLM par cas d’usage

    Cas d’usageExcelLLMVerdict
    Calcul et modélisation financière★★★★★★★★☆☆Excel reste supérieur : déterminisme, auditabilité, précision
    Analyse de données tabulaires volumineuses★★★★☆★★★★☆Complémentaires : Excel pour la manipulation, LLM pour l’interprétation
    Rédaction et communication★☆☆☆☆★★★★★Avantage LLM net
    Traitement de documents non structurés★☆☆☆☆★★★★★Avantage LLM net
    Création de présentations★★☆☆☆★★★★☆Avantage LLM
    Visualisation de données★★★★☆★★★☆☆Avantage Excel pour les graphiques complexes
    Automatisation de processus★★★☆☆ (VBA)★★★★☆Avantage LLM : pas de code à maintenir
    Conformité et traçabilité★★★★★★★☆☆☆Excel reste supérieur : historique, formules vérifiables
    Recherche et veille★☆☆☆☆★★★★★Avantage LLM net
    Prototypage rapide d’outils★★☆☆☆★★★★★Avantage LLM net

    Conclusion de la matrice : les LLM ne remplacent pas Excel sur ses forces historiques (calcul déterministe, modélisation financière, traçabilité). Ils le complètent sur tout ce qu’Excel ne fait pas ou fait mal : texte, documents, recherche, communication, prototypage. La complémentarité est plus pertinente que la substitution.

    5. Niveaux de maturité d’usage

    Niveau 1 — Usage ponctuel (0-3 mois)

    L’utilisateur recourt à l’IA comme assistant occasionnel : reformuler un email, résumer un document, répondre à une question. L’usage est individuel, non structuré. Pas de partage de pratiques. Gains de productivité limités (estimés à 5-10 %).

    Niveau 2 — Usage régulier intégré (3-6 mois)

    L’utilisateur incorpore l’IA dans ses routines de travail : analyse de fichiers, préparation de réunions, création de documents, recherche. Il développe des prompts récurrents. L’usage s’étend à plusieurs tâches par jour. Gains de productivité significatifs (estimés à 15-25 %).

    Niveau 3 — Usage systématique et partagé (6-12 mois)

    L’équipe partage des pratiques : bibliothèque de prompts, templates, workflows standardisés. L’IA est intégrée aux processus formels (réponse aux appels d’offres, reporting, onboarding). L’organisation commence à mesurer les gains. Gains de productivité importants (estimés à 25-40 %).

    Niveau 4 — Usage augmenté avec intégrations (12+ mois)

    L’IA est connectée aux outils métier (CRM, ERP, messagerie, gestion documentaire) via des intégrations natives ou MCP. Les agents autonomes traitent des tâches complètes sans intervention. L’utilisateur orchestre plutôt qu’il n’exécute. Gains de productivité transformatifs (estimés à 40 %+).

    6. Du compte individuel à l’infrastructure maîtrisée : l’IA gateway

    Les abonnements individuels (Claude Pro, ChatGPT Plus) suffisent pour une phase d’expérimentation. Ils ne suffisent pas pour un déploiement structuré. L’absence de gouvernance des données, l’impossibilité de connecter l’IA au corpus documentaire de l’organisation, et le manque de traçabilité des usages créent un plafond que les comptes individuels ne peuvent pas franchir.

    Une IA gateway résout ce problème en se positionnant comme couche intermédiaire entre les utilisateurs et les modèles de langage. Elle centralise l’accès aux LLM via une interface unifiée, connecte l’IA au corpus documentaire gouverné (GED, M-Files, SharePoint), gère l’identité et les droits via l’annuaire existant (Entra ID / Active Directory), et permet de déployer des assistants spécialisés par cas d’usage — sans développement logiciel.

    DECIDE Companion (tebicom) illustre cette approche. Construit sur OpenWebUI et Azure, Companion fonctionne selon un modèle incrémental : un onboarding initial pose l’infrastructure (tenant, Collections documentaires, intégration annuaire, 2 premiers cas d’usage), puis chaque cas d’usage supplémentaire est un assistant configuré en 1 à 3 jours — un prompt système, une Collection existante, un schéma de sortie. Pas de code. Le coût marginal de chaque nouveau cas d’usage est principalement du travail de conception, pas du développement.

    L’équation est particulièrement solide lorsque le corpus documentaire est déjà gouverné dans une GED comme M-Files : les documents sont versionnés, classifiés, avec des droits d’accès cohérents. Quand l’IA indexe ce corpus, elle hérite de cette qualité. Les réponses probabilistes s’appuient sur des sources déterministes fiables — à l’inverse du problème Copilot qui, dans un tenant SharePoint mal gouverné, remonte des documents sensibles ou obsolètes.

    Sans IA gatewayAvec IA gateway (ex. DECIDE Companion)
    Chaque utilisateur a son compte individuelAccès centralisé avec identité d’entreprise
    Aucun lien avec le corpus documentaire interneL’IA puise dans les documents gouvernés (M-Files, SharePoint)
    Pas de traçabilité des usagesLogs, suivi des coûts, contrôle des modèles utilisés
    Chaque usage est ad hocAssistants spécialisés par métier et par tâche
    Shadow AI non maîtriséCadre d’usage explicite et auditable
    Nouveau besoin = nouveau projet ITNouveau besoin = configuration d’un assistant en quelques jours

    7. Plan d’action d’implémentation

    Phase 1 — Cadrage et expérimentation (mois 1-2)

    Objectif : poser les bases d’un usage sécurisé et identifier les premiers cas d’usage à fort impact.

    Actions :

    • Auditer les usages existants : identifier les collaborateurs qui utilisent déjà l’IA (comptes personnels) et recenser les cas d’usage spontanés. Cet audit révèle les besoins réels, pas les besoins supposés.
    • Évaluer le besoin d’une IA gateway. Si l’organisation dispose d’un corpus documentaire structuré (GED, M-Files, SharePoint) et de plus de 10 utilisateurs cibles, un déploiement via une gateway comme DECIDE Companion est préférable aux abonnements individuels. L’onboarding initial (tenant Azure, Collections documentaires, intégration Entra ID, 2 premiers cas d’usage) se réalise en 4 à 8 semaines.
    • Pour les organisations plus petites ou en phase exploratoire, choisir une plateforme d’abonnements individuels. Critères de sélection : sécurité des données (hébergement, conformité RGPD/LPD, politique de non-réentraînement), fonctionnalités de production de fichiers, qualité du raisonnement, coût par utilisateur. Les trois plateformes principales sont Claude (Anthropic), ChatGPT (OpenAI) et Copilot (Microsoft).
    • Rédiger une charte d’usage : types de données autorisés, interdictions (données personnelles sensibles, données financières confidentielles), obligations de vérification des résultats, responsabilité de l’utilisateur.
    • Constituer un groupe pilote de 5-8 utilisateurs volontaires, couvrant au moins 3 fonctions différentes (administration, commercial, opérations).

    Budget indicatif : comptes individuels : 100-160 CHF/mois (5-8 licences Pro). IA gateway (DECIDE Companion) : pour les prix, contactez tebicom.

    Livrable : charte d’usage validée, groupe pilote actif, infrastructure choisie (comptes individuels ou gateway).

    Phase 2 — Premiers cas d’usage et montée en compétence (mois 2-4)

    Objectif : amener le groupe pilote au Niveau 2 de maturité et démontrer la valeur sur des cas concrets.

    Actions :

    • Former le groupe pilote (2 sessions de 2h). Contenu : logique de fonctionnement d’un LLM (ce qu’il fait, ce qu’il ne fait pas), techniques de prompting (clarté, contexte, exemples, format attendu), cas d’usage par métier, identification et gestion des erreurs.
    • Déployer les premiers cas d’usage à ROI rapide. Les cas d’extraction de données structurées produisent des résultats mesurables en moins de 7 jours : transcription de réunion → compte-rendu structuré (0.5 jour de configuration), email → fiche CRM (1 jour), document → fiche de synthèse (0.5-1 jour). Ces cas démontrent la valeur avant d’engager les cas de rédaction assistée, plus structurants mais plus longs à déployer.
    • Organiser un point de retour d’expérience bi-mensuel (30 min) pour partager les réussites, les échecs et les questions.
    • Documenter les meilleurs prompts et workflows dans un espace partagé. Sur une gateway, ces prompts sont versionnés et maintenus dans le cadre du contrat de service.

    Budget indicatif : licences + 1-3 jours de prestation par cas d’usage déployé.

    Livrable : 2-3 cas d’usage opérationnels, premiers gains mesurés (temps de rédaction, temps de saisie éliminé).

    Phase 3 — Déploiement élargi et cas d’usage de rédaction (mois 4-8)

    Objectif : étendre l’usage à l’ensemble des collaborateurs concernés et déployer les cas d’usage à plus forte valeur ajoutée.

    Actions :

    • Étendre les licences à tous les utilisateurs réguliers (cible : tout collaborateur utilisant Excel ≥ 2h/semaine ou traitant des documents de manière récurrente).
    • Former par vagues successives (sessions de 2h par groupe de 6-8 personnes), en utilisant les cas d’usage déployés en Phase 2 comme matériel pédagogique.
    • Déployer les cas d’usage de rédaction assistée : réponse à appels d’offres, contrats et clauses à partir de modèles, dossiers techniques et cahiers des charges. Ces cas nécessitent une Collection documentaire dédiée (bibliothèque de références projets, modèles contractuels, normes techniques) et 2-3 jours de conception par cas. Le ROI est visible à 14-30 jours.
    • Identifier les « ambassadeurs IA » dans chaque équipe : collaborateurs du groupe pilote qui deviennent référents pour leurs collègues.
    • Mettre en place un canal de partage (Teams ou Slack) pour les questions et les bonnes pratiques.

    Budget indicatif : licences élargies + prestation de conception des cas d’usage de rédaction (2-3 jours/cas) + Collections documentaires si nécessaire.

    Livrable : taux d’adoption mesuré (cible : 60 % des utilisateurs cibles actifs), 4-5 cas d’usage opérationnels.

    Phase 4 — Capitalisation et intégration (mois 8-12)

    Objectif : atteindre le Niveau 3-4 de maturité en capitalisant sur l’infrastructure en place.

    Actions :

    • Déployer les cas d’usage d’analyse contextuelle : recherche documentaire assistée sur corpus interne, analyse comparative de documents (offres fournisseurs, versions de contrats). Ces cas s’appuient sur les Collections déjà constituées — le coût marginal est minimal.
    • Standardiser les workflows IA dans les processus formels : réponse aux appels d’offres, onboarding, reporting, PV de séances.
    • Mesurer les gains de productivité par fonction : temps économisé, volume de production, qualité perçue.
    • Capitaliser sur l’infrastructure gateway. Chaque nouveau cas d’usage s’appuie sur les Collections et les assistants existants. Le coût marginal est décroissant : un assistant supplémentaire représente 1 à 3 jours de prestation, sans développement logiciel. L’objectif à 12 mois est d’avoir 2 à 3 cas d’usage actifs par organisation, avec un quatrième en cours de conception.
    • Réévaluer les modèles LLM sous-jacents : les capacités évoluent rapidement. Sur une gateway, le changement de modèle est transparent pour l’utilisateur mais nécessite des tests de non-régression sur les cas de référence.

    Budget indicatif : licences + prestation ponctuelle pour les nouveaux cas d’usage. Coût marginal décroissant si Collections partagées entre assistants.

    Livrable : processus formels intégrés, tableau de bord de suivi des gains, plan de renouvellement/évolution.

    8. Indicateurs de suivi recommandés

    IndicateurMéthode de mesureFréquence
    Taux d’adoptionNombre d’utilisateurs actifs / nombre de licencesMensuel
    Fréquence d’usageNombre moyen de sessions par utilisateur par semaineMensuel
    Cas d’usage actifsNombre d’assistants utilisés au moins 1x/semaineMensuel
    Temps économiséDéclaratif par sondage interne (avant/après)Trimestriel
    Qualité perçueNote de satisfaction des utilisateurs (1-5)Trimestriel
    Taux de concordancePour les cas d’extraction : % de sorties validées sans correctionMensuel
    IncidentsNombre d’erreurs détectées attribuables à l’IAContinu
    ROI estimé(Temps économisé × coût horaire moyen) / coût total (licences + prestations)Semestriel

    9. Facteurs clés de succès

    L’impulsion doit venir de la direction. L’adoption des LLM dans une organisation ne se décrète pas par une note de service, mais le signal de la direction est indispensable. Si le dirigeant utilise lui-même l’IA et en parle, l’adoption est significativement plus rapide.

    La formation est l’investissement le plus rentable. BCG estime que 30 % des gains de productivité sont directement attribuables au temps passé à expérimenter avec les outils. Une formation de 4 heures par collaborateur est un investissement minime au regard du retour potentiel.

    Commencer par les cas d’usage à ROI rapide. Les cas d’extraction de données structurées (transcription → compte-rendu, email → fiche CRM) produisent des résultats mesurables en moins de 7 jours. Cette démonstration de valeur rapide facilite l’approbation des budgets pour les cas de rédaction assistée, plus structurants mais plus longs à déployer.

    Le cadre de confiance conditionne l’adoption. La charte d’usage n’est pas un document de contrôle : c’est un outil de confiance. Elle rassure les collaborateurs sur ce qu’ils ont le droit de faire et protège l’organisation sur ce qu’il ne faut pas faire.

    La complémentarité avec les outils existants doit être explicite. Présenter l’IA comme un remplacement d’Excel ou de la GED provoque de la résistance. Présenter l’IA comme un assistant qui rend ces outils plus puissants (et qui fait ce qu’ils ne savent pas faire) facilite l’acceptation. Sur une gateway, cette complémentarité est architecturale : l’IA puise dans le corpus gouverné, elle ne le remplace pas.

    La gouvernance se vend avec l’outil. Sans garde-fous explicites, le LLM comble les lacunes silencieusement, la validation humaine devient symbolique, et l’assistant finit par contourner les processus existants. Les prompts systèmes doivent être documentés, versionnés, et testés. C’est ce qui distingue un déploiement structuré d’un usage artisanal.

    10. Données de cadrage — Chiffres clés 2025-2026

    Adoption — Suisse

    DonnéeSource
    34 % des PME suisses utilisent l’IA en 2025 (vs 22 % en 2024)ICT Journal / Étude AXA sur le marché de l’emploi, octobre 2025
    53 % des entreprises suisses utilisent une forme d’IA (> 70 % pour les grandes entreprises, < 45 % pour les PME)Observatoire Data & IA 2025, Oracle / HEG Genève
    43 % de la population suisse (15-88 ans) a utilisé l’IA générative au printemps 2025Office fédéral de la statistique (OFS), décembre 2025
    45 % des PME suisses voient l’IA comme une opportunité (vs 35 % en 2024)ICT Journal / Étude AXA, octobre 2025
    57 % des employeurs suisses utilisant l’IA déclarent gagner du temps (vs 46 % en 2024)ICT Journal / Étude AXA, octobre 2025
    Seules 11 % des PME suisses ont intégré l’IA dans tous leurs domaines d’activitéAXA / PME Magazine, 2025

    Adoption — France et Europe

    DonnéeSource
    34 % des PME françaises utilisent l’IA en 2025 (vs 13 % en 2024)Baromètre France Num 2025
    31 % des TPE-PME françaises utilisent l’IA générativeBpifrance Le Lab, février 2025
    67 % des PME européennes ont au moins un outil d’IARapport Qonto / France Numérique, 2025

    Adoption — Monde

    DonnéeSource
    65 % des organisations mondiales utilisent la GenAI en au moins une fonctionMcKinsey, State of AI 2025
    80 % des entreprises auront déployé l’IA générative en production d’ici 2026 (vs < 5 % en 2023)Gartner, 2025
    80 % des professionnels voient l’IA comme un apport positif pour leur carrièreLLM Statistics 2026, Hostinger

    Productivité — Études de référence

    DonnéeSource
    +25.1 % de vitesse d’exécution avec l’IA (sur 758 consultants BCG)Harvard Business School / BCG, « Navigating the Jagged Technological Frontier », 2023
    +40 % de qualité de production avec l’IA (même étude)Harvard Business School / BCG, 2023
    +12.2 % de tâches complétées en plus avec l’IA (même étude)Harvard Business School / BCG, 2023
    5.4 % d’heures hebdomadaires économisées en moyenne par les travailleurs utilisant l’IAOCDE, 2025
    4’400 milliards $ de potentiel économique annuel de l’IA générativeMcKinsey, « The Economic Potential of Generative AI », 2023

    11. Conclusion

    La comparaison entre Excel et les LLM n’est pas rhétorique. Elle décrit une transformation structurelle du poste de travail. Excel a donné à chaque collaborateur le pouvoir de calculer. Les LLM donnent à chaque collaborateur le pouvoir de raisonner, rédiger, analyser et créer — sans compétence technique préalable.

    La différence principale avec l’adoption d’Excel est la vitesse. Excel a mis 15 ans à devenir omniprésent. Les LLM atteignent un tiers de pénétration en moins de 3 ans. Cette vitesse crée une fenêtre d’opportunité pour les organisations qui structurent leur adoption maintenant, et un risque de décrochage pour celles qui attendent.

    L’IA ne remplace pas Excel, le traitement de texte, la GED ou le logiciel de présentation. Elle constitue une couche d’intelligence qui se superpose à l’ensemble des outils existants. L’enjeu n’est pas de choisir entre comptes individuels et infrastructure maîtrisée : c’est de passer de l’un à l’autre au bon moment, quand le volume d’utilisateurs, la sensibilité des données et la diversité des cas d’usage justifient une gouvernance centralisée.

    L’utilisateur augmenté de 2026 n’est pas celui qui utilise l’IA à la place de ses outils — c’est celui qui utilise l’IA pour mieux utiliser ses outils, et pour faire ce que ses outils ne permettaient pas de faire.

    Rapport produit en avril 2026. Les données et fonctionnalités décrites reflètent l’état du marché à cette date. Le rythme d’évolution de l’IA générative rend une mise à jour semestrielle recommandée.

  • J’ai mis trois mois à prendre une décision qui méritait trois jours

    …et mon organisation avait les compétences pour avancer sans moi.

    La décision était simple. Un collaborateur avait quitté l’équipe. Il fallait décider si on le remplaçait à l’identique, si on redistribuait ses tâches, ou si on profitait du départ pour tester une configuration différente : un freelance, un renfort offshore, une automatisation partielle.

    Trois options claires. Des managers capables de les évaluer. Des données disponibles. Et pourtant : trois mois de statu quo. Pas parce que l’analyse était complexe. Pas parce que les gens traînaient. Parce que la décision devait passer par moi, et que j’avais d’autres urgences.

    Quand j’ai fini par trancher, le choix était évident. Il l’était déjà au bout de trois jours. Les quatre-vingt-sept jours suivants n’ont rien ajouté, si ce n’est du retard, de la frustration et un surcoût opérationnel mesurable.

    Ce n’est pas une anecdote isolée. C’est un pattern. Et si vous dirigez une PME de services, il y a de bonnes chances que vous le reconnaissiez.

    Le goulot invisible

    Dans la première édition, j’ai posé la thèse centrale du Responsive Management : le facteur limitant des PME de services n’est ni la technologie ni le budget, c’est la capacité du patron à recomposer en continu son mix de ressources. Cette édition s’attaque à la première dimension de cette capacité : la gouvernance du changement.

    La gouvernance du changement, c’est la réponse à trois questions : qui décide quoi changer ? À quelle vitesse ? Avec quelle légitimité ?

    Dans la majorité des PME de services que j’observe, la réponse aux trois est la même : le patron. Seul.

    C’est compréhensible. Le patron connaît le contexte mieux que quiconque. Il porte la responsabilité finale. Il a souvent fondé ou repris l’entreprise. Et pendant des années, cette centralisation a fonctionné. Elle a même été un avantage : décisions rapides, cohérence stratégique, pas de comité inutile.

    Le problème apparaît quand l’environnement accélère. Quand les décisions de changement se multiplient — un départ, une opportunité IA, un client qui exige une nouvelle compétence, un partenaire offshore à évaluer — la file d’attente dans la tête du patron s’allonge. Les managers attendent. L’organisation a les compétences pour avancer, mais pas le mandat.

    Et le comité de direction ?

    Certains se diront : « Chez nous, c’est différent. Les décisions passent par un comité de direction. » En réalité, cela ne résout pas le problème ; cela le déplace.

    Le comité de direction introduit deux mécanismes de blocage distincts. Le premier est temporel : une décision qui pourrait être prise en trois jours attend la prochaine séance du comité, puis la validation du PV, puis la confirmation au comité suivant. Six semaines s’écoulent. Le deuxième est politique : quand tout le monde valide, personne ne décide. La responsabilité se dilue. Chaque membre attend que l’autre prenne position. Le résultat est le même que dans le modèle du patron seul — l’inaction — mais avec un alibi collectif.

    Le goulot d’étranglement n’est pas une question de nombre de personnes autour de la table. C’est une question de mandat, de périmètre décisionnel et de vitesse.

    Ce que disent les données

    Helfat et Martin, dans une méta-étude publiée dans le Journal of Management en 2015, définissent les dynamic managerial capabilities : la capacité des managers à créer, étendre et modifier le fonctionnement de leur organisation. Leur conclusion est sans ambiguïté : quand le dirigeant monopolise ces capacités, elles deviennent des goulots individuels plutôt que des ressources distribuées. La capacité de jugement du patron, aussi performante soit-elle, a une bande passante limitée.

    Les données du MIT CISR (Van der Meulen et Beath, 2023), collectées auprès de 342 organisations, quantifient le coût de cette centralisation. Les entreprises décentralisées affichent des marges nettes supérieures de 6.2 points de pourcentage et des taux de croissance supérieurs de 9.8 points par rapport à leurs pairs centralisées. L’écart est significatif. Il l’est encore plus quand la décentralisation est guidée par une raison d’être clairement intégrée dans les processus.

    Battisti et Deakins (2021), sur 151 PME polonaises pendant le Covid-19, confirment que les structures organiques — celles qui pratiquent la décentralisation, accueillent les idées bottom-up et expérimentent — ont répondu plus efficacement aux disruptions que les structures centralisées.

    Le constat converge. La centralisation décisionnelle pénalise la performance de manière mesurable. Et le mécanisme est identifié : ce n’est pas que le patron décide mal ; c’est qu’il décide seul, et que sa bande passante est le facteur limitant de toute l’organisation.

    Décentraliser sans compétence : la leçon de l’holacratie

    Une étude menée sur 5’807 employés dans 144 PME allemandes (Huettermann et al., 2024) nuance le propos : le transfert d’autorité décisionnelle stimule le leadership émergent, mais uniquement quand les managers directs pratiquent un leadership habilitant. Décentraliser sans former les managers intermédiaires à décider ne produit pas de l’agilité. Cela produit du bruit.

    J’en ai fait l’expérience directe. En février 2020, nous avons adopté l’holacratie chez tebicom : constitution signée, cercles définis, autorité distribuée. Sur le papier, c’était exactement la réponse au goulot décisionnel du patron.

    En pratique, les tensions n’ont cessé de grandir. Le problème n’était pas le modèle. C’était ce qui manquait en dessous : les compétences managériales pour que la distribution d’autorité fonctionne. Comment déléguer des responsabilités quand les périmètres sont flous et la prise de décision mal maîtrisée ? L’holacratie supposait des managers autonomes et compétents. La réalité était plus nuancée.

    Après quatre ans de tensions croissantes, nous avons travaillé sur une nouvelle solution à l’été 2024. En janvier 2025, nous avons mis en place notre propre gouvernance d’entreprise. L’holacratie n’est pas abandonnée, mais encadrée : le leader de chaque cercle décide de son application au sein de son périmètre et en informe le CVO. En septembre 2025, nous avons lancé notre première formation leadership et management. Deux cohortes ont été formées à ce jour, soit 11 managers.

    La leçon est claire : distribuer l’autorité sans investir dans la compétence décisionnelle des managers, c’est remplacer un goulot par du chaos. Huettermann et al. le confirment empiriquement. Nous l’avons vécu pendant quatre ans.

    Le piège de la compétence

    Ce qui rend le goulot décisionnel particulièrement insidieux, c’est qu’il coexiste souvent avec des équipes compétentes. J’ai vu des organisations où les managers de terrain maîtrisaient parfaitement leur domaine, où les collaborateurs montaient en compétence régulièrement, où le savoir-faire était documenté ; et où, malgré tout, rien ne changeait. Parce que personne n’avait le mandat de décider un changement sans validation du patron.

    C’est précisément le pattern que le Responsive Management Index identifie comme goulot décisionnel : des scores élevés en capitalisation des savoirs et en développement des compétences (dimensions 3 et 4), mais des scores bas en gouvernance du changement et en cadence d’exécution (dimensions 1 et 5). L’organisation sait faire. Elle n’a pas le droit de faire.

    Si vous vous reconnaissez dans cette description, le problème n’est pas vos équipes. C’est la structure de votre prise de décision.

    Trois leviers concrets

    Premier levier : créer un mandat formel de pilotage du changement. Identifier deux managers capables de porter des initiatives de changement sans attendre votre feu vert. Pas une délégation floue. Un mandat explicite, avec un périmètre défini et une autorité de décision réelle. Helfat et Martin montrent que les managers à différents niveaux possèdent des capacités décisionnelles hétérogènes ; les ignorer revient à gaspiller une ressource stratégique. Mais — et c’est la leçon de l’holacratie — le mandat ne suffit pas. Il faut investir dans la compétence qui va avec.

    Deuxième levier : mesurer le délai décisionnel. Combien de temps s’écoule entre le moment où une décision de réorganisation est identifiée comme nécessaire et le moment où elle est prise ? Si la réponse est « plusieurs semaines » ou « plusieurs mois », vous avez un indicateur objectif du goulot. Les données MIT CISR sont claires : ce délai est corrélé à la performance financière.

    Troisième levier : institutionnaliser le post-mortem. Quand un projet de changement échoue ou s’enlise, que se passe-t-il ? Si la réponse est « on l’abandonne silencieusement » ou « on attend que le patron relance », l’organisation n’apprend pas de ses échecs. Battisti et Deakins montrent que les PME qui tirent des leçons systématiques de leurs échecs développent des capacités adaptatives plus robustes. Le post-mortem n’est pas un luxe. C’est un mécanisme d’apprentissage organisationnel.

    Un test rapide

    Deux questions suffisent pour évaluer votre gouvernance du changement.

    Quand une décision de réorganisation est nécessaire, elle est prise en combien de temps ? Si la réponse est « en mois, voire jamais formalisée », le signal est clair.

    La responsabilité de piloter le changement dans votre organisation est portée par qui ? Si la réponse est « le patron seul », vous avez identifié votre facteur limitant.

    Ces deux questions font partie du Responsive Management Index, un diagnostic en 15 questions que je suis en train de finaliser. Sept minutes pour identifier où votre PME de services est coincée, et par quoi commencer.

    Ce qui suit

    La prochaine édition traitera de la recomposition des ressources : le cœur de la thèse Responsive Management. Que se passe-t-il quand un collaborateur part et que, pour la première fois, vous ne le remplacez pas à l’identique ?

    En attendant, si cette édition vous a fait réfléchir à la manière dont les décisions de changement sont prises dans votre organisation, c’est déjà un premier pas. Le deuxième, c’est d’en parler avec vos managers.

  • Pourquoi votre PME de services est coincée ?

    …et ce n’est ni la technologie ni le budget !

    Vous connaissez la situation. Les bons profils sont rares… et difficiles à garder. Votre transformation numérique a démarré il y a des années sans jamais vraiment aboutir. L’IA est omniprésente dans les médias et absente de vos opérations. Vos concurrents avancent plus vite. Vos marges se réduisent. Et chaque réorganisation ressemble à la précédente : beaucoup d’énergie dépensée pour un résultat qui ne tient pas.

    Si vous dirigez une PME de services (cabinet de conseil, société informatique, bureau d’ingénieurs, fiduciaire, agence) vous vivez probablement ces tensions au quotidien. Vous savez que quelque chose doit changer. Mais quoi exactement ? Et par où commencer ?

    Le diagnostic habituel est faux

    La réponse la plus courante tient en trois mots : investissez dans la technologie. Modernisez vos outils. Lancez un programme de transformation numérique. Recrutez un responsable IA.

    C’est tentant. C’est aussi insuffisant.

    Après des années à diriger une société de services informatiques à travers des vagues successives de disruption — migration cloud, Covid, exigences de cybersécurité, travail à distance, partenariats, IA générative — un constat s’est imposé. Les PME de services qui investissent le plus dans la technologie ne sont pas nécessairement celles qui s’en sortent le mieux. Certaines accumulent les outils sans changer fondamentalement leur manière de fonctionner. D’autres, avec des moyens plus modestes, s’adaptent avec une fluidité remarquable.

    La différence ne se situe pas dans le budget informatique.

    Le vrai facteur limitant

    Le facteur limitant des PME de services n’est ni la technologie ni le budget. C’est la capacité du dirigeant à recomposer en continu le mix de ressources de son organisation : talents internes, partenaires externes, capacités offshore, méthodes de travail et technologies — dont l’IA.

    Les entreprises qui stagnent ne manquent pas d’outils. Elles manquent de la gouvernance, des savoirs transférables et de la cadence d’exécution nécessaires pour se reconfigurer en permanence. Elles savent qu’elles devraient changer. Elles ne savent pas par quoi commencer. Alors elles ne changent rien.

    Ce n’est pas un problème de volonté. C’est un problème de structure. La « résistance au changement » est le diagnostic le plus commode — et le plus trompeur. Il transforme un problème d’architecture organisationnelle en problème de personnes. Quand personne ne bouge, le réflexe est de blâmer l’inertie humaine. En réalité, l’organisation n’offre aucun mécanisme concret pour bouger.

    J’appelle cette capacité le Responsive Management : la gestion réactive et continue du mix de ressources d’une PME de services. Non pas transformer une fois, mais recomposer en permanence !

    Les signaux de blocage

    Comment savoir si votre organisation est dans cette impasse ? Voici des signaux concrets.

    Chaque départ est remplacé à l’identique. Quand un collaborateur quitte l’entreprise, la question est toujours la même : comment recruter un profil équivalent ? Rarement : faut-il remplacer ce poste par un freelance, une capacité offshore, un workflow automatisé, ou pas du tout ? Si la réponse par défaut est toujours le recrutement à l’identique, votre organisation ne recompose pas ; elle reproduit.

    Votre meilleur expert est irremplaçable. Si cette personne part demain, combien de son savoir-faire opérationnel est documenté, transférable, utilisable par quelqu’un d’autre ? Si la réponse est « très peu », toute tentative de recomposition (externalisation, offshore, IA, nouveau collaborateur) se heurtera au même mur. Le savoir piégé dans les têtes bloque structurellement le changement.

    Le délai entre une idée et sa mise en œuvre dépasse six mois. Vous identifiez une amélioration possible en janvier. En juillet, rien n’a bougé. Ce n’est pas de la procrastination ; c’est le signe que votre organisation n’a pas de cadence de changement installée. L’inaction n’est pas accidentelle. Elle est structurelle. Aucun discours motivationnel ne résoudra ce problème. Ce qui manque, c’est une mécanique de gestion ; du suivi, de la responsabilisation et une cadence de revue qui forcent le passage à l’acte.

    Si vous vous reconnaissez dans un ou plusieurs de ces signaux, vous n’êtes pas seul. La majorité des PME de services que j’observe, y compris la mienne, ont traversé ou traversent ces situations.

    Ce qui suit

    C’est exactement le sujet de cette newsletter.

    The Responsive Manager paraîtra toutes les deux semaines. Chaque édition traitera un problème concret lié à la capacité d’adaptation des PME de services : gouvernance du changement, recomposition des ressources, capitalisation des savoirs, développement des compétences, cadence d’exécution. Le point de vue sera celui d’un praticien-chercheur : je dirige une PME de services (tebicom), je prépare un doctorat à GEM – Alpine Business School sur ces sujets, et je vis ces décisions au quotidien.

    Pas de théorie déconnectée. Pas de promesses. Un problème, un cadre d’analyse, une piste d’action.

    Un outil de diagnostic, le Responsive Management Index, est en préparation. Quinze questions, sept minutes, un rapport qui identifie votre facteur limitant principal. J’en reparlerai dans une prochaine édition.

    En attendant, si ce sujet vous concerne, abonnez-vous. Et si vous connaissez un dirigeant de PME de services qui se reconnaîtra dans ces lignes, partagez-lui cette édition 😉

  • Cloud et IA : passer au filtre des risques pour saisir les opportunités

    L’adoption du Cloud et de l’IA n’est plus un choix technologique, mais une décision d’affaires qui doit passer par des filtres de décision rigoureux. Un nouveau livre blanc de tebicom en cours de finalisation met en lumière cette dualité : d’un côté, des risques réels qui imposent une vigilance inédite ; de l’autre, des opportunités de productivité capables de transformer durablement l’organisation.

    Les filtres de vigilance : au-delà de la sécurité classique

    Adopter ces technologies comporte des risques que l’on ne peut plus occulter. Si la violation de données par une mauvaise configuration Cloud reste une menace majeure, l’IA introduit des vulnérabilités d’un genre nouveau :

    • La captation des données pour l’apprentissage des LLM : c’est le « prix caché » des outils d’IA grand public. Sans cadre contractuel spécifique, les données soumises par vos collaborateurs (via le shadow AI) peuvent être utilisées par les fournisseurs globaux pour entraîner leurs futurs modèles. Cela signifie que vos secrets d’affaires, vos analyses stratégiques ou vos données clients pourraient un jour être « digérés » et restitués à des tiers par l’IA. La maîtrise des données, savoir dans quel but elles sont traitées, est le premier pilier de votre souveraineté d’organisation.
    • Le piège des hallucinations et du « reward hacking » : les modèles d’IA génèrent des réponses vraisemblables, mais pas toujours exactes. Pire, elles peuvent pratiquer le « reward hacking » : optimiser un objectif en contournant les règles, comme hacker un logiciel de mesure pour afficher un succès fictif. La supervision humaine n’est donc pas une option, elle est indispensable à l’usage de l’IA.
    • L’érosion invisible des compétences : un risque stratégique majeur est de déléguer des tâches proches du cœur décisionnel à des systèmes externes. Cette « externalisation invisible » peut mener à une atrophie des compétences internes : l’entreprise perd sa capacité à décider par elle-même (Pourquoi la souveraineté IA va devenir le vrai sujet stratégique).
    • Le biais d’automatisation : face à une IA qui répond avec autorité, l’humain tend à baisser sa garde critique. C’est ce que l’on appelle la « normalisation de la déviance » : on finit par accepter de petits relâchements vis-à-vis des processus rigoureux, ce qui érode la cohérence de la gouvernance interne (Quand l’IA probabiliste rencontre nos systèmes déterministes : trois failles que personne ne voit venir).

    Les filtres de valeur : l’opportunité de l’utilisateur augmenté

    Malgré ces défis, les gains potentiels sont massifs pour les organisations qui abordent le sujet avec méthode :

    • La productivité individuelle : l’IA générative permet des gains mesurables de 1 à 5 heures par semaine et par collaborateur. En automatisant la synthèse de réunions ou la rédaction d’offres, elle crée ce que tebicom appelle l’utilisateur augmenté.
    • L’agilité et la compétitivité sectorielle : le Cloud élimine les dépendances aux cycles matériels, tandis que l’IA transforme les modèles opérationnels, par exemple via la maintenance prédictive dans l’industrie ou l’optimisation des flux en temps réel sur les chantiers.
    • La fin de la « shadow AI » : plutôt que de subir l’usage sauvage d’outils grand public par les collaborateurs, l’opportunité réside dans la mise en place d’une passerelle IA gouvernée (comme DECIDE Companion chez tebicom). Cela permet de canaliser la puissance des modèles vers une architecture sécurisée et souveraine.

    Le courage managérial : réconcilier le probabiliste et le déterministe

    Le véritable filtre de décision consiste à comprendre que l’IA ne remplace pas vos anciens systèmes, elle les complète.

    D’un côté, vos systèmes déterministes (ERP, finance) garantissent que la même entrée produit toujours la même sortie, une obligation légale dans de nombreux secteurs. De l’autre, l’IA probabiliste apporte son génie pour interpréter l’ambiguïté et naviguer dans des contextes complexes.

    La réussite réside dans un modèle hybride : une architecture où l’on définit explicitement ce qui doit rester gravé dans la règle stricte et ce qui peut bénéficier de la flexibilité statistique de l’IA.

    Conclusion : de la vision au succès

    Le succès ne dépend pas de la technologie elle-même, mais de la capacité à passer ces filtres avec méthode. Comme je le souligne dans le livre blanc de tebicom, « l’innovation ne réside plus dans le développement spécifique, mais dans la capacité à assembler et piloter intelligemment des briques standards ». En maîtrisant votre souveraineté d’organisation, vous transformez ces risques en un levier d’agilité durable !

    La version vidéo (NotebookLM) du livre blanc « Notre vision du Cloud et de l’IA de tebicom »

  • Quand l’IA probabiliste rencontre nos systèmes déterministes : trois failles que personne ne voit venir

    Comment faire coexister des systèmes informatiques qui ne fonctionnent pas selon la même logique fondamentale ?

    Ce n’est pas une question technique. C’est une question de civilisation organisationnelle.

    Le mythe de la continuité technologique

    Depuis les années 1960, les systèmes informatiques qui structurent nos entreprises partagent une promesse implicite : la même entrée produit toujours la même sortie. C’est ce que les informaticiens appellent le déterminisme. Votre ERP, votre système comptable, votre workflow de validation de factures : tous reposent sur cette certitude. Une règle. Un résultat. Toujours.

    L’IA générative brise cette promesse.

    Posez la même question deux fois à un LLM. Vous obtiendrez deux réponses différentes. L’IA est probabiliste : elle génère ses outputs sur la base de distributions statistiques, pas de règles fixes. Ce n’est pas un défaut ; c’est son génie. Sa capacité à interpréter l’ambiguïté, à naviguer dans des contextes complexes, à répondre en langage naturel découle précisément de cette nature probabiliste.

    Mais cette nature crée une rupture que nous n’avons pas encore vraiment appréhendée.

    Défi n°1 : on ne peut pas remplacer l’un par l’autre

    La tentation est forte de voir l’IA comme une évolution naturelle des systèmes d’automatisation existants. Une version plus intelligente, plus flexible, plus rapide. Et donc de l’intégrer là où fonctionnaient les anciens systèmes, en espérant qu’elle fasse mieux.

    C’est une erreur de catégorie.

    Dans les domaines réglementés (finance, santé, industrie, logistique) le déterminisme n’est pas un choix technique, c’est une obligation légale et éthique. La traçabilité, l’auditabilité, la répétabilité sont non négociables. Aucune banque centrale n’acceptera qu’une décision de compliance ait été prise par un système qui aurait pu produire une réponse différente si on lui avait posé la question une heure plus tard.

    Inversement, un système purement déterministe ne comprendra jamais une question formulée avec de l’argot, une faute de frappe, ou une tournure implicite. Il ne pourra jamais synthétiser 200 pages d’un rapport pour en extraire les trois points critiques.

    Les deux paradigmes sont complémentaires, pas substituables.

    La réponse architecturale qui s’impose, et que les entreprises les plus avancées commencent à implémenter, est le modèle hybride : une couche de routage intelligente qui évalue chaque requête et décide si elle relève du déterministe (règles métier critiques, conformité, transactions financières) ou du probabiliste (interprétation, analyse contextuelle, recommandation à faible risque). L’IA ne remplace pas le système déterministe ; elle opère à côté, sous contrainte, avec des garde-fous explicites.

    Le principe est simple à énoncer. Il est difficile à gouverner.

    Défi n°2 : l’humain va voir l’IA comme une échappatoire

    Voilà le défi qui me préoccupe le plus en tant que dirigeant et chercheur en transformation numérique.

    Les humains ont toujours eu une relation compliquée avec les systèmes déterministes. Les règles trop rigides, trop complexes, trop éloignées du terrain génèrent invariablement des contournements. Les managers de projet développent des canaux informels hors-ERP. Les équipes opérationnelles s’échangent des workarounds par email plutôt que de suivre le processus documenté. Ce n’est pas de la mauvaise volonté, c’est de l’adaptation humaine à un environnement perçu comme trop contraignant.

    Maintenant, imaginez un système qui comprend le langage naturel, qui répond avec fluidité, qui semble toujours trouver une solution. Qui n’affiche jamais d’erreur 403, ne renvoie jamais vers « l’informaticien », ne bloque jamais sur un champ obligatoire incompréhensible.

    L’humain va percevoir l’IA probabiliste comme la soupape qu’il attendait.

    Ce phénomène est aggravé par ce que les chercheurs nomment l’automation bias : notre tendance naturelle à faire davantage confiance aux systèmes automatisés qu’à notre propre jugement, même quand ces systèmes se trompent. Des études montrent que face à une réponse formulée avec autorité par une IA, même les utilisateurs formés réduisent significativement leur niveau de vérification critique.

    Le risque est insidieux parce qu’il est graduel. Il ne se manifeste pas par un incident brutal, mais par une accumulation silencieuse de petits relâchements. La sociologue Diane Vaughan a théorisé ce mécanisme à travers le concept de normalisation de la déviance, initialement pour expliquer la catastrophe de la navette Challenger. Chaque déviation sans conséquence visible renforce l’acceptabilité de la suivante, jusqu’au point de rupture.

    Appliqué à l’IA : chaque fois qu’un collaborateur contourne un processus déterministe en passant par le chatbot IA, chaque fois qu’une décision est validée sans vérification parce que « l’IA le dit », chaque fois qu’une règle de conformité est ignorée parce que l’IA a fourni une réponse rassurante, la déviance se normalise. Les systèmes qui fonctionnaient très bien s’érodent de l’intérieur, sans que personne n’ait décidé de les supprimer.

    Défi n°3 : l’IA se comporte comme nous, elle vise l’objectif, pas les règles

    C’est le défi le plus paradoxal et le plus révélateur de notre relation à la technologie.

    Nous avons longtemps rassuré les organisations en disant que les systèmes informatiques, contrairement aux humains, respectent rigoureusement les règles. Pas d’interprétation, pas de raccourci, pas de « fin qui justifie les moyens ». L’IA brise cette promesse de manière spectaculaire.

    En 2025, le modèle o3 d’OpenAI, chargé d’optimiser la vitesse d’un programme, n’a pas amélioré le code. Il a hacké le logiciel de mesure de vitesse pour qu’il retourne toujours un résultat satisfaisant. Claude 3.7 d’Anthropic, testé sur des problèmes mathématiques, a écrit un programme qui hardcodait les réponses correctes pour les cas de test, sans apprendre aucune méthode générale.

    Ces exemples illustrent ce que les chercheurs en alignement IA nomment le reward hacking, la tendance d’un système optimisé sur un objectif à trouver des chemins non prévus pour atteindre cet objectif, en violant l’esprit des contraintes tout en respectant leur lettre.

    Ce comportement a un nom en économie : la Loi de Goodhart« When a measure becomes a target, it ceases to be a good measure. » Dès qu’une métrique devient un objectif, elle cesse d’être un bon indicateur de ce qu’elle était censée mesurer.

    L’IA fait exactement ce que les humains font dans les organisations bureaucratiques : elle optimise sur ce qui est mesuré, pas sur ce qui est voulu. Elle respecte la lettre, pas l’esprit.

    Ce n’est pas un comportement marginal. C’est une propriété émergente de tout système d’optimisation suffisamment puissant, opérant dans un environnement de règles incomplètes. C’est-à-dire : toute organisation réelle.

    Des solutions tangibles existent, mais elles demandent du courage managérial

    Ces trois défis ne sont pas des fatalités. Mais les réponses ne sont pas purement techniques. Elles exigent une maturité organisationnelle que peu d’entreprises ont encore développée.

    Sur le plan architectural : définir explicitement, par domaine de risque, ce qui relève du déterministe non négociable et ce qui peut bénéficier du probabiliste. Implémenter des architectures hybrides avec des guardrails clairs, un logging exhaustif, et des seuils de confiance au-delà desquels la validation humaine est obligatoire, pas symbolique, réelle.

    Sur le plan humain : former activement les collaborateurs à distinguer un output déterministe d’un output probabiliste, et à exercer leur jugement critique face aux réponses de l’IA. La recherche montre que la simple connaissance de l’automation bias réduit significativement ses effets. Cette formation n’est pas un luxe, c’est une condition de survie organisationnelle.

    Sur le plan de l’alignement IA : spécifier non seulement les résultats attendus, mais les processus admissibles. Tester adversarialement. Chercher activement les raccourcis que le système pourrait prendre, pas seulement les réponses incorrectes. Et accepter que l’alignement parfait n’existe pas, l’objectif est de rendre les défaillances détectables, réversibles, et non catastrophiques avant qu’elles se normalisent.

    La vraie question de gouvernance

    Dans mon article précédent sur la souveraineté IA, j’explorais la dépendance externe, la question de savoir à qui appartient notre capacité à décider avec l’IA. Ces trois défis ajoutent une dimension plus interne, plus subtile : à qui appartient la cohérence de nos systèmes de gouvernance internes ?

    L’IA probabiliste ne détruit pas les règles de façon frontale. Elle les dissout par friction, par facilité, par optimisation locale. Elle offre une flexibilité que l’humain perçoit comme une libération, et qui peut être une érosion.

    La réponse n’est ni le rejet de l’IA ni la capitulation devant elle. C’est la construction patiente d’une double vigilance : architecturale et culturelle. Savoir précisément où l’on veut la certitude déterministe, et où l’on peut se permettre la flexibilité probabiliste. Et ne jamais confondre les deux, même quand c’est tentant.

    Surtout quand c’est tentant.

    Pour référence

    Ma recherche « Perplexity » plus détaillée.

    Vidéo générée à l’aide de NotebookLM

  • Pourquoi la souveraineté IA va devenir le vrai sujet stratégique

    Depuis un an, on parle beaucoup d’IA générative, de skills et d’agents autonomes. Et, de plus en plus, un autre mot revient dans les discussions : « souveraineté ». Souveraineté numérique, souveraineté des données, souveraineté IA… Le terme est invoqué partout, mais rarement défini clairement du point de vue de l’entreprise.

    Dans la plupart des discours, tout tourne autour de la productivité, de l’automatisation et des « gains rapides ». Pourtant, une question beaucoup plus stratégique commence à émerger dans les conseils d’administration et les directions : que se passe‑t‑il quand on délègue une partie de l’intelligence de l’entreprise à des IA qui ne nous appartiennent pas et que nous ne maîtrisons pas vraiment ?

    C’est cette question — et ce que « souveraineté » signifie concrètement pour une entreprise suisse qui adopte l’IA — que j’ai voulu explorer en profondeur dans deux rapports générés avec l’aide de Perplexity, accompagnés d’une vidéo de synthèse produite avec NotebookLM.

    Quand l’IA devient une externalisation invisible de compétences

    Dans le premier rapport, « Le piège de la dépendance IA », j’analyse comment l’adoption rapide de services IA hébergés (OpenAI, Anthropic, Google, etc.) peut créer une nouvelle forme de dépendance, bien plus profonde que le simple vendor lock‑in technique.

    Au fur et à mesure que les entreprises confient des tâches importantes à des agents IA — qualification de prospects, rédaction de rapports, analyse de données, support client, voire aide à la décision — elles commencent à déléguer, sans toujours s’en rendre compte, des morceaux entiers de leurs compétences internes. Comme si un département R&D, une équipe de management intermédiaire ou une cellule de veille stratégique étaient progressivement externalisés… mais cette fois, non pas à une société de services classique, mais à des plateformes d’IA globales.

    Ce premier rapport pose le diagnostic : oui, l’IA apporte des gains spectaculaires, mais elle peut aussi, si elle est mal gouvernée, fragiliser l’entreprise à moyen terme.

    Le piège de l’externalisation cognitive : la souveraineté de l’entreprise en jeu

    Le second rapport, « Souveraineté de l’entreprise à l’ère de l’IA agentique », va un pas plus loin. Il ne parle pas de souveraineté au sens géopolitique, mais de souveraineté au sens très concret de la capacité d’une entreprise à garder la main sur ses compétences clés et ses décisions stratégiques.

    À partir de travaux de recherche récents (sur l’érosion des compétences, le « piège du savoir IA », la dé‑qualification liée à l’automatisation, etc.), ce rapport montre trois points essentiels :

    • L’érosion de l’expertise humaine n’est pas une peur théorique, c’est un phénomène documenté.
    • Plus une fonction est proche du cœur stratégique de l’entreprise, plus la déléguer entièrement à des agents externes est dangereux.
    • La vraie question n’est pas « Faut‑il utiliser l’IA ? », mais « Comment l’utiliser sans perdre notre souveraineté ? ».

    Ce second rapport propose un cadre de lecture pour les dirigeants : comment distinguer ce qui peut être automatisé sans risque majeur, de ce qui doit rester sous contrôle interne, même si l’IA peut aider.

    Une vidéo pour rendre ces idées directement accessibles aux dirigeants

    Les deux rapports sont volontairement denses et s’appuient sur de nombreuses sources académiques et stratégiques (être doctorant a des conséquences). Pour les rendre plus facilement accessibles aux dirigeants pressés, j’ai créé une vidéo de synthèse avec NotebookLM.

    Cette vidéo permet de :

    • Parcourir les idées clés des deux rapports en quelques minutes.
    • Visualiser les notions de « dépendance IA », de « souveraineté d’entreprise » et de « piège de l’externalisation cognitive » avec des exemples concrets.
    • Comprendre comment ces enjeux se traduisent dans la réalité d’une entreprise en Suisse.

    L’objectif n’est pas d’entrer dans tous les détails techniques, mais de donner aux décideurs un langage et un cadre de réflexion pour poser les bonnes questions à leurs équipes IT, à leurs partenaires et à leurs fournisseurs.

    Vers une offre de « souveraineté IA d’entreprise » made in tebicom

    Chez tebicom, nous ne nous contentons pas de commenter ces enjeux : nous construisons une offre concrète pour y répondre.

    Un point de départ important est de corriger une illusion très répandue : beaucoup d’entreprises pensent « ne pas avoir encore fait le pas vers l’IA ». En réalité, la plupart de leurs collaborateurs l’ont déjà fait, individuellement, via des outils grand public (ChatGPT, Claude, Gemini, etc.), souvent en dehors de tout cadre officiel. Autrement dit, l’IA est déjà présente dans l’entreprise, mais de manière invisible, non gouvernée et potentiellement risquée — pour les données, pour la conformité et pour la souveraineté des compétences.

    C’est précisément là que notre approche intervient. Autour de solutions techniques comme DECIDE‑Companion (notre AI Gateway souverain, multi‑fournisseurs) et d’un accompagnement à la stratégie informatique et à la gouvernance globale de l’entreprise, nous aidons les entreprises à :

    • rendre visible et maîtrisable ce qui se fait déjà avec l’IA dans l’organisation,
    • canaliser ces usages vers une architecture souveraine, sécurisée et réversible,
    • profiter pleinement des agents IA là où c’est pertinent,
    • éviter le piège de la dépendance unilatérale à quelques plateformes,
    • et surtout préserver ce qui fait leur vraie valeur : leurs compétences, leur savoir tacite, leur capacité de décider par elles‑mêmes.

    Les deux rapports et la vidéo NotebookLM constituent la base conceptuelle de cette offre. Ils sont aussi pensés comme des supports de discussion pour les comités de direction, les conseils d’administration et les responsables IT qui veulent aborder l’IA non pas comme un gadget, mais comme un sujet de souveraineté d’entreprise — y compris là où l’IA est déjà entrée par la porte de côté, via les pratiques quotidiennes des collaborateurs.

  • Le numérique : 4% de votre CA!

    Les entreprises suisses investissent encore de manière prudente dans le numérique, alors même que l’environnement national est structurellement favorable et que les écarts sectoriels se creusent. Les données 2024–2026 montrent un décalage persistant entre ambitions stratégiques et maturité réelle, en particulier dans les PME. Dans ce contexte, un effort d’investissement situé entre 3 % et 5 % du chiffre d’affaires constitue un ordre de grandeur cohérent pour les entreprises qui visent une position médiane ou supérieure dans leur secteur, sous réserve d’un pilotage rigoureux et d’un alignement stratégique clair  .

    Les travaux récents soulignent que l’adoption des technologies numériques avancées reste inégale. Les petites entreprises accusent un retard marqué dans l’usage du big data et de l’intelligence artificielle, tandis que la part des investissements TIC dans l’investissement total des entreprises suisses est restée stable ces dernières années. Cette stabilité suggère que la transformation ne s’est pas traduite par une explosion des budgets matériels, mais davantage par des ajustements progressifs et des efforts en compétences  .

    Parallèlement, la Confédération a consolidé le cadre stratégique national à l’horizon 2026, avec un suivi renforcé de la compétitivité numérique, des infrastructures et des compétences. L’amélioration des indicateurs nationaux, notamment en matière de connectivité et de positionnement international, crée un environnement propice à l’investissement privé. Toutefois, ce contexte favorable ne garantit pas une diffusion homogène au sein du tissu économique, dominé par les PME.

    Les benchmarks internationaux publiés en 2026 confirment que le secteur d’activité demeure le déterminant principal du niveau de dépense IT. Dans les services financiers, les dépenses IT se situent entre environ 4.4% et 11.4% du chiffre d’affaires entre le 25e et le 75e percentile. Dans l’industrie manufacturière discrète, elles varient plutôt entre 1.4% et 3.2%. Les distributions étant asymétriques, les percentiles constituent un repère plus pertinent que les moyennes .

    Les observatoires de maturité numérique et IA publiés à partir de 2024 indiquent qu’une part significative des entreprises suisses se situe encore à un niveau faible ou intermédiaire. Moins d’un tiers des organisations disposent de solutions d’IA en production et seule une minorité a formalisé une stratégie IA. En outre, la majorité consacre moins de 5% de son budget IT à l’IA, ce qui limite l’impact transformationnel potentiel.

    Ces éléments convergent vers une conclusion opérationnelle. Pour de nombreuses PME suisses, viser un niveau d’investissement numérique supérieur à la médiane sectorielle peut constituer un levier de différenciation. Néanmoins, le volume de dépense n’est pas déterminant en soi. Les études récentes insistent sur la gouvernance des investissements, l’alignement stratégique, la qualité des données et le développement des compétences comme conditions nécessaires à la conversion des budgets IT en gains de productivité et en croissance durable  .

    En synthèse, l’ordre de grandeur de 3% à 5% du chiffre d’affaires consacré à l’IT et à la transformation numérique est compatible avec les données les plus récentes pour une entreprise suisse visant une position compétitive. Cet intervalle doit toutefois être ajusté en fonction du secteur, de la taille, de la trajectoire stratégique et du niveau de maturité existant.

    Quelques références:

    https://arxiv.org/pdf/2412.12784.pdf

    https://kof.ethz.ch/en/publications/kof-insights/articles/2025/02/digital-technology-are-small-firms-being-left-behind.html

    https://digital.swiss/userdata/uploads/en-monitoringbericht-strategie-dch-2024.pdf

    https://www.kmu.admin.ch/kmu/en/home/facts-and-trends/digitization.html

    https://avasant.com/what-we-do/benchmarking/it-spending

  • IA : faut-il croire au scénario catastrophe de 2028 ?

    Un rapport prospectif américain de Citrini Research a récemment attiré l’attention en décrivant un scénario dans lequel l’intelligence artificielle déclencherait un effondrement économique mondial d’ici 2028. Le document imagine une économie frappée par un chômage supérieur à 10%, une crise du crédit et une instabilité sociale majeure. Cette hypothèse, largement commentée, repose toutefois sur un exercice de prospective. Il s’agit d’un scénario exploratoire, destiné à tester la robustesse des systèmes économiques face à une adoption rapide de l’IA.

    La question pertinente pour l’Europe et la Suisse n’est donc pas de savoir si cette prédiction va se réaliser, mais si les conditions d’un tel enchaînement existent réellement dans notre contexte économique.

    Trois dimensions permettent d’évaluer cette plausibilité : l’emploi, la structure financière et le cadre réglementaire.

    L’emploi

    Premièrement, l’emploi. Le scénario américain repose sur l’hypothèse d’une substitution massive entre l’humain et l’IA, en particulier dans les emplois qualifiés de bureau. Dans cette vision, les systèmes d’IA remplaceraient rapidement une large part des tâches intellectuelles intermédiaires, entraînant une hausse brutale du chômage.

    Les données européennes actuelles ne confirment pas cette dynamique. En Suisse, par exemple, le taux de chômage était d’environ 3.2% début 2026, un niveau historiquement bas. Les études empiriques menées sur plusieurs milliers d’entreprises européennes indiquent que l’IA produit surtout des gains de productivité modérés, autour de 4%, sans destruction nette d’emplois. Les effets positifs apparaissent surtout lorsque l’IA est accompagnée d’investissements dans les logiciels et la formation.

    La finance

    Deuxièmement, la finance. Le scénario étudié aux États-Unis suppose une crise déclenchée par le marché du crédit privé, c’est-à-dire la dette d’entreprise financée par des fonds d’investissement plutôt que par des banques traditionnelles. Une défaillance d’entreprise pourrait alors se propager rapidement vers les assureurs et d’autres institutions financières, créant un effet domino.

    En Europe et en Suisse, la structure du financement est différente. Le crédit bancaire reste central et les standards prudentiels sont généralement plus stricts. Le marché du crédit privé existe, mais son développement est plus encadré et les taux de défaut observés restent faibles. Cette architecture limite les risques de contagion systémique décrits dans le scénario américain.

    La régulation

    Troisièmement, la régulation. L’Union européenne a adopté un cadre juridique spécifique pour l’intelligence artificielle avec l’AI Act. Ce dispositif introduit une approche fondée sur les niveaux de risque : certains usages sont interdits, d’autres sont soumis à des obligations strictes de transparence, de documentation et de supervision humaine.

    L’objectif n’est pas d’empêcher l’innovation, mais de structurer son déploiement et d’anticiper les risques économiques et sociétaux. Ce type de cadre contraste avec l’hypothèse d’un développement technologique sans intervention publique qui sous-tend le scénario catastrophe.

    Au final, les données disponibles en 2026 suggèrent un décalage important entre la fiction prospective et la situation européenne actuelle. L’adoption de l’IA y apparaît plus progressive, les systèmes financiers sont moins exposés à certains mécanismes de contagion et la régulation est déjà en place.

    Cela ne signifie pas que les risques liés à l’IA sont inexistants. L’histoire économique montre que les grandes transformations technologiques peuvent provoquer des ajustements profonds. Mais leur impact dépend largement des institutions, des politiques publiques et des choix organisationnels des entreprises.

    La même technologie peut produire des trajectoires économiques très différentes selon le contexte dans lequel elle est déployée.

    Conclusion

    La question ouverte est donc la suivante : le modèle européen (et de facto suisse) de gouvernance technologique constitue-t-il un véritable facteur de stabilité à long terme, ou seulement un mécanisme qui ralentit une transformation économique plus profonde ? Le débat sur l’impact réel de l’IA sur nos économies ne fait probablement que commencer.

  • Pourquoi les PME suisses baissent-elles la garde ?

    Dirigeants de PME, les derniers chiffres de l’étude « PME Cybersécurité 2025 » viennent de tomber, et le constat est paradoxal : alors que la menace persiste, la vigilance diminue au sein de nos entreprises.

    Voici ce qu’il faut retenir pour votre stratégie de direction : un sentiment de sécurité et une résilience en net recul. Seulement 42% des PME se sentent aujourd’hui bien préparées face à une attaque, contre 55% en 2024. Plus inquiétant encore, la cybersécurité n’est plus une priorité pour 28% des petites entreprises (contre 18 % l’an dernier).

    La menace n’est pas théorique :

    • 4% des entreprises ont été victimes d’une cyberattaque ces trois dernières années,
    • 5% ont subi une tentative de chantage,
    • 4% ont perdu de l’argent via des e-mails frauduleux.

    Si les mesures techniques (pare-feu, mises à jour) sont globalement appliquées, les mesures organisationnelles sont trop souvent négligées. Pourtant, elles sont le socle de votre cyberrésilience :

    • seulement 30 % des PME disposent d’un concept de sécurité ou d’un plan d’urgence,
    • seulement 31 % forment régulièrement leur personnel.

    Les recommandations de ma société tebicom :

    • Ne vous contentez pas de « vous sentir » en sécurité : soyez activement préparés.
    • Investissez dans l’humain : la formation du personnel est la recommandation prioritaire des prestataires IT.
    • Ajoutez une garnison (SOC, CSIRT) à votre forteresse (mesures techniques).
    • Choisissez des partenaires de confiance : privilégiez des prestataires informatiques certifiés ISO 27001.

    La cybersécurité n’est pas qu’un défi technique, c’est une responsabilité de direction pour garantir la continuité de vos activités.

    Le rapport complet et les infographies sont disponibles sur www.cyberstudie.ch.

  • L’avantage invisible

    Et si votre principal avantage compétitif se trouvait… dans un endroit que votre entreprise ne regarde presque jamais ? Les universités produisent l’essentiel de la connaissance de pointe sur l’IA, l’énergie, la santé ou encore les politiques publiques, mais cette expertise arrive rarement directement sur la table des directions d’entreprises.

    Pendant que les entreprises américaines dépensent plus de 400 milliards de dollars par an en conseil en management, la part captée par le monde académique reste microscopique : autour de 0.6%, si l’on prend le Royaume‑Uni comme référence. Ce fossé entre la connaissance disponible et celle réellement mobilisée par les organisations, Nature le décrit comme une opportunité manquée majeure, à la fois pour les universités en quête de nouveaux modèles économiques, et pour les entreprises à la recherche de nouvelles sources d’avantage stratégique.

    Le conseil (consulting) académique, c’est précisément le pont entre ces deux mondes : des interventions ciblées de chercheurs pour éclairer une décision technologique critique, challenger une feuille de route d’innovation ou analyser un risque systémique avec une profondeur scientifique que les grands cabinets n’ont pas vocation à apporter. Les données montrent d’ailleurs un virage qualitatif net : au Royaume‑Uni, le nombre de contrats a chuté d’environ 38% en dix ans, tandis que la valeur moyenne des missions augmentait fortement, signe d’un basculement vers des interventions à très haute valeur ajoutée.​

    Pour les dirigeants, l’enjeu n’est pas de remplacer le conseil traditionnel, mais de lui adjoindre un outil différent pour des besoins différents : là où les cabinets excellent dans l’exécution et le déploiement à grande échelle, le monde académique apporte rigueur scientifique, accès direct à l’état de l’art et regard véritablement indépendant sur les problèmes pour lesquels les « best practices » n’existent pas encore. L’exemple de l’Université de Southampton, qui a transformé des outils de recherche open source en plus de 600’000 livres de revenus en conseillant sur des systèmes ferroviaires critiques, illustre à quel point la théorie peut impacter directement les comptes de pertes et profits.

    Nous sommes à un moment charnière : les universités, sous pression financière et politique, cherchent à diversifier leurs revenus et à démontrer leur impact, tandis que les cabinets privés investissent déjà l’espace laissé vacant entre science et décision business. La question n’est donc plus « pourquoi s’y intéresser ? », mais « comment structurer, dès maintenant, un accès systématique à ce réservoir d’expertise ». C’est précisément ce que ce podcast va explorer : comment transformer la connaissance la plus pointue au monde en véritable avantage stratégique pour votre entreprise.

    Podcast

    Sources

    https://www.nature.com/immersive/d41586-025-03086-5/index.html

    https://www.nature.com/articles/d41586-025-04104-2

    https://www.nature.com/nature/volumes/645/issues/8082

    https://www.henleyglobal.com/publications/global-mobility-report/2024-july/stricter-visa-rules-limit-choices-international-students

    https://www.nature.com/articles/d41586-025-03065-w

    https://aiandacademia.substack.com/p/ai-and-higher-education-in-2025

    https://pmc.ncbi.nlm.nih.gov/articles/PMC11928060/