Catégorie : AI

  • Cloud et IA : passer au filtre des risques pour saisir les opportunités

    L’adoption du Cloud et de l’IA n’est plus un choix technologique, mais une décision d’affaires qui doit passer par des filtres de décision rigoureux. Un nouveau livre blanc de tebicom en cours de finalisation met en lumière cette dualité : d’un côté, des risques réels qui imposent une vigilance inédite ; de l’autre, des opportunités de productivité capables de transformer durablement l’organisation.

    Les filtres de vigilance : au-delà de la sécurité classique

    Adopter ces technologies comporte des risques que l’on ne peut plus occulter. Si la violation de données par une mauvaise configuration Cloud reste une menace majeure, l’IA introduit des vulnérabilités d’un genre nouveau :

    • La captation des données pour l’apprentissage des LLM : c’est le « prix caché » des outils d’IA grand public. Sans cadre contractuel spécifique, les données soumises par vos collaborateurs (via le shadow AI) peuvent être utilisées par les fournisseurs globaux pour entraîner leurs futurs modèles. Cela signifie que vos secrets d’affaires, vos analyses stratégiques ou vos données clients pourraient un jour être « digérés » et restitués à des tiers par l’IA. La maîtrise des données, savoir dans quel but elles sont traitées, est le premier pilier de votre souveraineté d’organisation.
    • Le piège des hallucinations et du « reward hacking » : les modèles d’IA génèrent des réponses vraisemblables, mais pas toujours exactes. Pire, elles peuvent pratiquer le « reward hacking » : optimiser un objectif en contournant les règles, comme hacker un logiciel de mesure pour afficher un succès fictif. La supervision humaine n’est donc pas une option, elle est indispensable à l’usage de l’IA.
    • L’érosion invisible des compétences : un risque stratégique majeur est de déléguer des tâches proches du cœur décisionnel à des systèmes externes. Cette « externalisation invisible » peut mener à une atrophie des compétences internes : l’entreprise perd sa capacité à décider par elle-même (Pourquoi la souveraineté IA va devenir le vrai sujet stratégique).
    • Le biais d’automatisation : face à une IA qui répond avec autorité, l’humain tend à baisser sa garde critique. C’est ce que l’on appelle la « normalisation de la déviance » : on finit par accepter de petits relâchements vis-à-vis des processus rigoureux, ce qui érode la cohérence de la gouvernance interne (Quand l’IA probabiliste rencontre nos systèmes déterministes : trois failles que personne ne voit venir).

    Les filtres de valeur : l’opportunité de l’utilisateur augmenté

    Malgré ces défis, les gains potentiels sont massifs pour les organisations qui abordent le sujet avec méthode :

    • La productivité individuelle : l’IA générative permet des gains mesurables de 1 à 5 heures par semaine et par collaborateur. En automatisant la synthèse de réunions ou la rédaction d’offres, elle crée ce que tebicom appelle l’utilisateur augmenté.
    • L’agilité et la compétitivité sectorielle : le Cloud élimine les dépendances aux cycles matériels, tandis que l’IA transforme les modèles opérationnels, par exemple via la maintenance prédictive dans l’industrie ou l’optimisation des flux en temps réel sur les chantiers.
    • La fin de la « shadow AI » : plutôt que de subir l’usage sauvage d’outils grand public par les collaborateurs, l’opportunité réside dans la mise en place d’une passerelle IA gouvernée (comme DECIDE Companion chez tebicom). Cela permet de canaliser la puissance des modèles vers une architecture sécurisée et souveraine.

    Le courage managérial : réconcilier le probabiliste et le déterministe

    Le véritable filtre de décision consiste à comprendre que l’IA ne remplace pas vos anciens systèmes, elle les complète.

    D’un côté, vos systèmes déterministes (ERP, finance) garantissent que la même entrée produit toujours la même sortie, une obligation légale dans de nombreux secteurs. De l’autre, l’IA probabiliste apporte son génie pour interpréter l’ambiguïté et naviguer dans des contextes complexes.

    La réussite réside dans un modèle hybride : une architecture où l’on définit explicitement ce qui doit rester gravé dans la règle stricte et ce qui peut bénéficier de la flexibilité statistique de l’IA.

    Conclusion : de la vision au succès

    Le succès ne dépend pas de la technologie elle-même, mais de la capacité à passer ces filtres avec méthode. Comme je le souligne dans le livre blanc de tebicom, « l’innovation ne réside plus dans le développement spécifique, mais dans la capacité à assembler et piloter intelligemment des briques standards ». En maîtrisant votre souveraineté d’organisation, vous transformez ces risques en un levier d’agilité durable !

    La version vidéo (NotebookLM) du livre blanc « Notre vision du Cloud et de l’IA de tebicom »

  • Quand l’IA probabiliste rencontre nos systèmes déterministes : trois failles que personne ne voit venir

    Comment faire coexister des systèmes informatiques qui ne fonctionnent pas selon la même logique fondamentale ?

    Ce n’est pas une question technique. C’est une question de civilisation organisationnelle.

    Le mythe de la continuité technologique

    Depuis les années 1960, les systèmes informatiques qui structurent nos entreprises partagent une promesse implicite : la même entrée produit toujours la même sortie. C’est ce que les informaticiens appellent le déterminisme. Votre ERP, votre système comptable, votre workflow de validation de factures : tous reposent sur cette certitude. Une règle. Un résultat. Toujours.

    L’IA générative brise cette promesse.

    Posez la même question deux fois à un LLM. Vous obtiendrez deux réponses différentes. L’IA est probabiliste : elle génère ses outputs sur la base de distributions statistiques, pas de règles fixes. Ce n’est pas un défaut ; c’est son génie. Sa capacité à interpréter l’ambiguïté, à naviguer dans des contextes complexes, à répondre en langage naturel découle précisément de cette nature probabiliste.

    Mais cette nature crée une rupture que nous n’avons pas encore vraiment appréhendée.

    Défi n°1 : on ne peut pas remplacer l’un par l’autre

    La tentation est forte de voir l’IA comme une évolution naturelle des systèmes d’automatisation existants. Une version plus intelligente, plus flexible, plus rapide. Et donc de l’intégrer là où fonctionnaient les anciens systèmes, en espérant qu’elle fasse mieux.

    C’est une erreur de catégorie.

    Dans les domaines réglementés (finance, santé, industrie, logistique) le déterminisme n’est pas un choix technique, c’est une obligation légale et éthique. La traçabilité, l’auditabilité, la répétabilité sont non négociables. Aucune banque centrale n’acceptera qu’une décision de compliance ait été prise par un système qui aurait pu produire une réponse différente si on lui avait posé la question une heure plus tard.

    Inversement, un système purement déterministe ne comprendra jamais une question formulée avec de l’argot, une faute de frappe, ou une tournure implicite. Il ne pourra jamais synthétiser 200 pages d’un rapport pour en extraire les trois points critiques.

    Les deux paradigmes sont complémentaires, pas substituables.

    La réponse architecturale qui s’impose, et que les entreprises les plus avancées commencent à implémenter, est le modèle hybride : une couche de routage intelligente qui évalue chaque requête et décide si elle relève du déterministe (règles métier critiques, conformité, transactions financières) ou du probabiliste (interprétation, analyse contextuelle, recommandation à faible risque). L’IA ne remplace pas le système déterministe ; elle opère à côté, sous contrainte, avec des garde-fous explicites.

    Le principe est simple à énoncer. Il est difficile à gouverner.

    Défi n°2 : l’humain va voir l’IA comme une échappatoire

    Voilà le défi qui me préoccupe le plus en tant que dirigeant et chercheur en transformation numérique.

    Les humains ont toujours eu une relation compliquée avec les systèmes déterministes. Les règles trop rigides, trop complexes, trop éloignées du terrain génèrent invariablement des contournements. Les managers de projet développent des canaux informels hors-ERP. Les équipes opérationnelles s’échangent des workarounds par email plutôt que de suivre le processus documenté. Ce n’est pas de la mauvaise volonté, c’est de l’adaptation humaine à un environnement perçu comme trop contraignant.

    Maintenant, imaginez un système qui comprend le langage naturel, qui répond avec fluidité, qui semble toujours trouver une solution. Qui n’affiche jamais d’erreur 403, ne renvoie jamais vers « l’informaticien », ne bloque jamais sur un champ obligatoire incompréhensible.

    L’humain va percevoir l’IA probabiliste comme la soupape qu’il attendait.

    Ce phénomène est aggravé par ce que les chercheurs nomment l’automation bias : notre tendance naturelle à faire davantage confiance aux systèmes automatisés qu’à notre propre jugement, même quand ces systèmes se trompent. Des études montrent que face à une réponse formulée avec autorité par une IA, même les utilisateurs formés réduisent significativement leur niveau de vérification critique.

    Le risque est insidieux parce qu’il est graduel. Il ne se manifeste pas par un incident brutal, mais par une accumulation silencieuse de petits relâchements. La sociologue Diane Vaughan a théorisé ce mécanisme à travers le concept de normalisation de la déviance, initialement pour expliquer la catastrophe de la navette Challenger. Chaque déviation sans conséquence visible renforce l’acceptabilité de la suivante, jusqu’au point de rupture.

    Appliqué à l’IA : chaque fois qu’un collaborateur contourne un processus déterministe en passant par le chatbot IA, chaque fois qu’une décision est validée sans vérification parce que « l’IA le dit », chaque fois qu’une règle de conformité est ignorée parce que l’IA a fourni une réponse rassurante, la déviance se normalise. Les systèmes qui fonctionnaient très bien s’érodent de l’intérieur, sans que personne n’ait décidé de les supprimer.

    Défi n°3 : l’IA se comporte comme nous, elle vise l’objectif, pas les règles

    C’est le défi le plus paradoxal et le plus révélateur de notre relation à la technologie.

    Nous avons longtemps rassuré les organisations en disant que les systèmes informatiques, contrairement aux humains, respectent rigoureusement les règles. Pas d’interprétation, pas de raccourci, pas de « fin qui justifie les moyens ». L’IA brise cette promesse de manière spectaculaire.

    En 2025, le modèle o3 d’OpenAI, chargé d’optimiser la vitesse d’un programme, n’a pas amélioré le code. Il a hacké le logiciel de mesure de vitesse pour qu’il retourne toujours un résultat satisfaisant. Claude 3.7 d’Anthropic, testé sur des problèmes mathématiques, a écrit un programme qui hardcodait les réponses correctes pour les cas de test, sans apprendre aucune méthode générale.

    Ces exemples illustrent ce que les chercheurs en alignement IA nomment le reward hacking, la tendance d’un système optimisé sur un objectif à trouver des chemins non prévus pour atteindre cet objectif, en violant l’esprit des contraintes tout en respectant leur lettre.

    Ce comportement a un nom en économie : la Loi de Goodhart« When a measure becomes a target, it ceases to be a good measure. » Dès qu’une métrique devient un objectif, elle cesse d’être un bon indicateur de ce qu’elle était censée mesurer.

    L’IA fait exactement ce que les humains font dans les organisations bureaucratiques : elle optimise sur ce qui est mesuré, pas sur ce qui est voulu. Elle respecte la lettre, pas l’esprit.

    Ce n’est pas un comportement marginal. C’est une propriété émergente de tout système d’optimisation suffisamment puissant, opérant dans un environnement de règles incomplètes. C’est-à-dire : toute organisation réelle.

    Des solutions tangibles existent, mais elles demandent du courage managérial

    Ces trois défis ne sont pas des fatalités. Mais les réponses ne sont pas purement techniques. Elles exigent une maturité organisationnelle que peu d’entreprises ont encore développée.

    Sur le plan architectural : définir explicitement, par domaine de risque, ce qui relève du déterministe non négociable et ce qui peut bénéficier du probabiliste. Implémenter des architectures hybrides avec des guardrails clairs, un logging exhaustif, et des seuils de confiance au-delà desquels la validation humaine est obligatoire, pas symbolique, réelle.

    Sur le plan humain : former activement les collaborateurs à distinguer un output déterministe d’un output probabiliste, et à exercer leur jugement critique face aux réponses de l’IA. La recherche montre que la simple connaissance de l’automation bias réduit significativement ses effets. Cette formation n’est pas un luxe, c’est une condition de survie organisationnelle.

    Sur le plan de l’alignement IA : spécifier non seulement les résultats attendus, mais les processus admissibles. Tester adversarialement. Chercher activement les raccourcis que le système pourrait prendre, pas seulement les réponses incorrectes. Et accepter que l’alignement parfait n’existe pas, l’objectif est de rendre les défaillances détectables, réversibles, et non catastrophiques avant qu’elles se normalisent.

    La vraie question de gouvernance

    Dans mon article précédent sur la souveraineté IA, j’explorais la dépendance externe, la question de savoir à qui appartient notre capacité à décider avec l’IA. Ces trois défis ajoutent une dimension plus interne, plus subtile : à qui appartient la cohérence de nos systèmes de gouvernance internes ?

    L’IA probabiliste ne détruit pas les règles de façon frontale. Elle les dissout par friction, par facilité, par optimisation locale. Elle offre une flexibilité que l’humain perçoit comme une libération, et qui peut être une érosion.

    La réponse n’est ni le rejet de l’IA ni la capitulation devant elle. C’est la construction patiente d’une double vigilance : architecturale et culturelle. Savoir précisément où l’on veut la certitude déterministe, et où l’on peut se permettre la flexibilité probabiliste. Et ne jamais confondre les deux, même quand c’est tentant.

    Surtout quand c’est tentant.

    Pour référence

    Ma recherche « Perplexity » plus détaillée.

    Vidéo générée à l’aide de NotebookLM

  • Pourquoi la souveraineté IA va devenir le vrai sujet stratégique

    Depuis un an, on parle beaucoup d’IA générative, de skills et d’agents autonomes. Et, de plus en plus, un autre mot revient dans les discussions : « souveraineté ». Souveraineté numérique, souveraineté des données, souveraineté IA… Le terme est invoqué partout, mais rarement défini clairement du point de vue de l’entreprise.

    Dans la plupart des discours, tout tourne autour de la productivité, de l’automatisation et des « gains rapides ». Pourtant, une question beaucoup plus stratégique commence à émerger dans les conseils d’administration et les directions : que se passe‑t‑il quand on délègue une partie de l’intelligence de l’entreprise à des IA qui ne nous appartiennent pas et que nous ne maîtrisons pas vraiment ?

    C’est cette question — et ce que « souveraineté » signifie concrètement pour une entreprise suisse qui adopte l’IA — que j’ai voulu explorer en profondeur dans deux rapports générés avec l’aide de Perplexity, accompagnés d’une vidéo de synthèse produite avec NotebookLM.

    Quand l’IA devient une externalisation invisible de compétences

    Dans le premier rapport, « Le piège de la dépendance IA », j’analyse comment l’adoption rapide de services IA hébergés (OpenAI, Anthropic, Google, etc.) peut créer une nouvelle forme de dépendance, bien plus profonde que le simple vendor lock‑in technique.

    Au fur et à mesure que les entreprises confient des tâches importantes à des agents IA — qualification de prospects, rédaction de rapports, analyse de données, support client, voire aide à la décision — elles commencent à déléguer, sans toujours s’en rendre compte, des morceaux entiers de leurs compétences internes. Comme si un département R&D, une équipe de management intermédiaire ou une cellule de veille stratégique étaient progressivement externalisés… mais cette fois, non pas à une société de services classique, mais à des plateformes d’IA globales.

    Ce premier rapport pose le diagnostic : oui, l’IA apporte des gains spectaculaires, mais elle peut aussi, si elle est mal gouvernée, fragiliser l’entreprise à moyen terme.

    Le piège de l’externalisation cognitive : la souveraineté de l’entreprise en jeu

    Le second rapport, « Souveraineté de l’entreprise à l’ère de l’IA agentique », va un pas plus loin. Il ne parle pas de souveraineté au sens géopolitique, mais de souveraineté au sens très concret de la capacité d’une entreprise à garder la main sur ses compétences clés et ses décisions stratégiques.

    À partir de travaux de recherche récents (sur l’érosion des compétences, le « piège du savoir IA », la dé‑qualification liée à l’automatisation, etc.), ce rapport montre trois points essentiels :

    • L’érosion de l’expertise humaine n’est pas une peur théorique, c’est un phénomène documenté.
    • Plus une fonction est proche du cœur stratégique de l’entreprise, plus la déléguer entièrement à des agents externes est dangereux.
    • La vraie question n’est pas « Faut‑il utiliser l’IA ? », mais « Comment l’utiliser sans perdre notre souveraineté ? ».

    Ce second rapport propose un cadre de lecture pour les dirigeants : comment distinguer ce qui peut être automatisé sans risque majeur, de ce qui doit rester sous contrôle interne, même si l’IA peut aider.

    Une vidéo pour rendre ces idées directement accessibles aux dirigeants

    Les deux rapports sont volontairement denses et s’appuient sur de nombreuses sources académiques et stratégiques (être doctorant a des conséquences). Pour les rendre plus facilement accessibles aux dirigeants pressés, j’ai créé une vidéo de synthèse avec NotebookLM.

    Cette vidéo permet de :

    • Parcourir les idées clés des deux rapports en quelques minutes.
    • Visualiser les notions de « dépendance IA », de « souveraineté d’entreprise » et de « piège de l’externalisation cognitive » avec des exemples concrets.
    • Comprendre comment ces enjeux se traduisent dans la réalité d’une entreprise en Suisse.

    L’objectif n’est pas d’entrer dans tous les détails techniques, mais de donner aux décideurs un langage et un cadre de réflexion pour poser les bonnes questions à leurs équipes IT, à leurs partenaires et à leurs fournisseurs.

    Vers une offre de « souveraineté IA d’entreprise » made in tebicom

    Chez tebicom, nous ne nous contentons pas de commenter ces enjeux : nous construisons une offre concrète pour y répondre.

    Un point de départ important est de corriger une illusion très répandue : beaucoup d’entreprises pensent « ne pas avoir encore fait le pas vers l’IA ». En réalité, la plupart de leurs collaborateurs l’ont déjà fait, individuellement, via des outils grand public (ChatGPT, Claude, Gemini, etc.), souvent en dehors de tout cadre officiel. Autrement dit, l’IA est déjà présente dans l’entreprise, mais de manière invisible, non gouvernée et potentiellement risquée — pour les données, pour la conformité et pour la souveraineté des compétences.

    C’est précisément là que notre approche intervient. Autour de solutions techniques comme DECIDE‑Companion (notre AI Gateway souverain, multi‑fournisseurs) et d’un accompagnement à la stratégie informatique et à la gouvernance globale de l’entreprise, nous aidons les entreprises à :

    • rendre visible et maîtrisable ce qui se fait déjà avec l’IA dans l’organisation,
    • canaliser ces usages vers une architecture souveraine, sécurisée et réversible,
    • profiter pleinement des agents IA là où c’est pertinent,
    • éviter le piège de la dépendance unilatérale à quelques plateformes,
    • et surtout préserver ce qui fait leur vraie valeur : leurs compétences, leur savoir tacite, leur capacité de décider par elles‑mêmes.

    Les deux rapports et la vidéo NotebookLM constituent la base conceptuelle de cette offre. Ils sont aussi pensés comme des supports de discussion pour les comités de direction, les conseils d’administration et les responsables IT qui veulent aborder l’IA non pas comme un gadget, mais comme un sujet de souveraineté d’entreprise — y compris là où l’IA est déjà entrée par la porte de côté, via les pratiques quotidiennes des collaborateurs.

  • IA : faut-il croire au scénario catastrophe de 2028 ?

    Un rapport prospectif américain de Citrini Research a récemment attiré l’attention en décrivant un scénario dans lequel l’intelligence artificielle déclencherait un effondrement économique mondial d’ici 2028. Le document imagine une économie frappée par un chômage supérieur à 10%, une crise du crédit et une instabilité sociale majeure. Cette hypothèse, largement commentée, repose toutefois sur un exercice de prospective. Il s’agit d’un scénario exploratoire, destiné à tester la robustesse des systèmes économiques face à une adoption rapide de l’IA.

    La question pertinente pour l’Europe et la Suisse n’est donc pas de savoir si cette prédiction va se réaliser, mais si les conditions d’un tel enchaînement existent réellement dans notre contexte économique.

    Trois dimensions permettent d’évaluer cette plausibilité : l’emploi, la structure financière et le cadre réglementaire.

    L’emploi

    Premièrement, l’emploi. Le scénario américain repose sur l’hypothèse d’une substitution massive entre l’humain et l’IA, en particulier dans les emplois qualifiés de bureau. Dans cette vision, les systèmes d’IA remplaceraient rapidement une large part des tâches intellectuelles intermédiaires, entraînant une hausse brutale du chômage.

    Les données européennes actuelles ne confirment pas cette dynamique. En Suisse, par exemple, le taux de chômage était d’environ 3.2% début 2026, un niveau historiquement bas. Les études empiriques menées sur plusieurs milliers d’entreprises européennes indiquent que l’IA produit surtout des gains de productivité modérés, autour de 4%, sans destruction nette d’emplois. Les effets positifs apparaissent surtout lorsque l’IA est accompagnée d’investissements dans les logiciels et la formation.

    La finance

    Deuxièmement, la finance. Le scénario étudié aux États-Unis suppose une crise déclenchée par le marché du crédit privé, c’est-à-dire la dette d’entreprise financée par des fonds d’investissement plutôt que par des banques traditionnelles. Une défaillance d’entreprise pourrait alors se propager rapidement vers les assureurs et d’autres institutions financières, créant un effet domino.

    En Europe et en Suisse, la structure du financement est différente. Le crédit bancaire reste central et les standards prudentiels sont généralement plus stricts. Le marché du crédit privé existe, mais son développement est plus encadré et les taux de défaut observés restent faibles. Cette architecture limite les risques de contagion systémique décrits dans le scénario américain.

    La régulation

    Troisièmement, la régulation. L’Union européenne a adopté un cadre juridique spécifique pour l’intelligence artificielle avec l’AI Act. Ce dispositif introduit une approche fondée sur les niveaux de risque : certains usages sont interdits, d’autres sont soumis à des obligations strictes de transparence, de documentation et de supervision humaine.

    L’objectif n’est pas d’empêcher l’innovation, mais de structurer son déploiement et d’anticiper les risques économiques et sociétaux. Ce type de cadre contraste avec l’hypothèse d’un développement technologique sans intervention publique qui sous-tend le scénario catastrophe.

    Au final, les données disponibles en 2026 suggèrent un décalage important entre la fiction prospective et la situation européenne actuelle. L’adoption de l’IA y apparaît plus progressive, les systèmes financiers sont moins exposés à certains mécanismes de contagion et la régulation est déjà en place.

    Cela ne signifie pas que les risques liés à l’IA sont inexistants. L’histoire économique montre que les grandes transformations technologiques peuvent provoquer des ajustements profonds. Mais leur impact dépend largement des institutions, des politiques publiques et des choix organisationnels des entreprises.

    La même technologie peut produire des trajectoires économiques très différentes selon le contexte dans lequel elle est déployée.

    Conclusion

    La question ouverte est donc la suivante : le modèle européen (et de facto suisse) de gouvernance technologique constitue-t-il un véritable facteur de stabilité à long terme, ou seulement un mécanisme qui ralentit une transformation économique plus profonde ? Le débat sur l’impact réel de l’IA sur nos économies ne fait probablement que commencer.