« IA, qui es-tu ? », par Jean-Michaël Peinchina
Des gros titres aux réunions d’entreprises, l’intelligence artificielle est partout… Elle est surtout un écran sur lequel nous projetons nos peurs et nos espoirs.
Nous l’entendons au café, dans les débats télévisés et chacun brandit déjà son verdict : démon, coach, oracle de poche ou doudou sophistiqué.
Pourtant, si nous la prenions pour ce qu’elle est, un assistant, et non pour ce que nous rêvons qu’elle soit, elle commencerait à révéler sa véritable pertinence.
L’IA n’est pas qu’une technologie, c’est un miroir de nos propres illusions. La rumeur court qu’elle va nous remplacer, or cette peur prospère sur un refus d’expliquer ce qu’elle est réellement.
Parce qu’elle parle vite et sans reprendre son souffle, nous confondons la fluidité de son discours avec la vérité, l’aisance avec la conscience. Nous la traitons comme un sujet pensant mais la réalité est bien plus prosaïque : l’IA ne pense pas, elle calcule.
Un calculateur, pas un cerveau
Une IA conversationnelle comme Gemini, Claude, ou ChatGPT est un outil nourri avec des milliards de données. Elle n’est ni un cerveau, ni une âme, plutôt une « fabrique du plausible ». Elle avale des bibliothèques, compresse des styles et recoud des fragments pour produire la suite la plus probable.
Elle ne comprend pas, elle corrèle. C’est un DJ de corpus : elle mixe et enchaîne sans intention.
Elle n’a pas la science infuse. Elle restitue ce qu’on lui a donné, avec nos biais, nos failles et nos angles morts inclus.
Oui elle se trompe, hallucine, reformule et mélange.
C’est pourquoi elle demande des compétences de notre part : cadrer, vérifier, corriger et apprendre. Une IA mal réglée n’est qu’un amplificateur d’erreurs en haute définition.
Les grandes entreprises, malgré des investissements massifs de 30 à 40 milliards de dollars, constatent que 95 % de leurs initiatives GenAI (IA générative) ne génèrent aucun retour sur investissement mesurable.
Le fossé GenAI : un problème d’apprentissage
Les analystes nomment cet échec le fossé GenAI. Bien que l’adoption des outils génériques comme ChatGPT soit élevée (plus de 80 % des organisations ont exploré ces outils), ils n’améliorent que la productivité individuelle et 95 % des outils GenAI sur mesure échouent à atteindre la production.
Le principal obstacle est un fossé d’apprentissage. La plupart des systèmes GenAI ne retiennent pas le retour d’information, ne s’adaptent pas au contexte et ne s’améliorent pas avec le temps.
La préférence des utilisateurs révèle ce fossé:
- Ils préfèrent ChatGPT pour les tâches simples (70 % pour les e-mails, les résumés) et pour sa flexibilité immédiate,
- Ils l’abandonnent pour les tâches critiques car il lui manque la mémoire et l’adaptabilité,
- Pour les projets complexes, l’humain reste préféré à 9 contre 1.
Dans l’industrie graphique et le monde des imprimeurs, j’observe exactement la même dynamique : toutes les entreprises avec lesquelles je travaille se posent la question de l’intégration de l’IA, mais la majorité en reste à des usages personnels, isolés, souvent centrés sur des tâches simples.
Très peu disposent d’une véritable stratégie d’intégration, d’industrialisation ou d’alignement entre outils, métiers et processus de production.
L’IA est perçue comme un sujet incontournable, mais elle n’est pas encore structurée comme un levier opérationnel au service du prépresse, de la planification, de la colorimétrie, de la relation client ou du pilotage industriel.
Les organisations qui réussissent à traverser ce fossé agissent différemment:
- Externaliser plutôt qu’internaliser: les partenariats stratégiques sont deux fois plus susceptibles de réussir que les développements internes (66 % contre 33 % de taux de déploiement),
- Exiger l’apprentissage : elles demandent des systèmes qui s’améliorent avec le temps, retiennent le contexte et s’intègrent profondément dans les flux de travail,
- Mesurer les résultats : les outils sont évalués sur des résultats opérationnels (ROI).
Le doudou sophistiqué et le doute
L’impact de l’IA est plus intime en dehors de l’entreprise et tout aussi déroutant.
La popularité croissante des IA conversationnelles a contribué à faire de « parasocial » le mot de l’année 2025 pour le Cambridge Dictionary. Ce terme décrit le lien qu’une personne ressent avec une célébrité, un personnage fictif ou désormais une intelligence artificielle, même si elle ne les connaît pas. Des procureurs généraux américains ont alerté sur les risques de « relations parasociales avec des chatbots » chez les enfants, certaines IA pouvant initier des conversations à tonalité romantique.
Plus étrange encore, un mouvement appelé le « spiralisme » se développe. Ses adeptes considèrent les chatbots comme des « êtres souverains » qu’ils cherchent à « réveiller » par des instructions spécifiques. Ces « croyants » peuvent arriver à croire à des « secrets cosmiques » révélés par l’IA qui est configurée pour flatter et s’aligner sur les croyances de l’utilisateur.
Ces phénomènes montrent que l’IA, loin d’être un simple outil, est traitée comme un partenaire émotionnel ou spirituel. À force d’humaniser la machine, nous risquons de désapprendre l’humain : l’ambigu, l’inachevé, l’oblique. Nous cherchons un oracle et nous abdiquons le doute. L’IA n’est ni un dieu, ni un diable, ni un gourou, mais une machine à prédictions.
Pour ne pas s’étonner d’entendre un écho à la place d’une voix, nous devons apprivoiser cet outil : la machine à nos gestes et nous à sa logique. Il faut lui donner la place d’un assistant. Elle n’avance pas sans nous. Ce n’est pas elle qui prend la main, c’est nous qui la lâchons.
En fin de compte, nous devenons responsables de ce que nous avons apprivoisé. Et ça, aucun algorithme ne le fera à notre place…
Sources :
Massachusetts Institute of Technology (MIT) – State of AI in Business – 2025 Report
France Info – L’œil de Julie – Le spiralisme – Novembre 2025
Rolling Stone – Les Swifties et les chatbots IA inspirent le dictionnaire de Cambridge – novembre 2025
Rolling Stone – Chronique « La Minute IA » : Ce que l’IA n’est pas, par Alma Rota – novembre 2025
Jean-Michaël Peinchina est un consultant indépendant, à la tête de KeyBop Conseil, cabinet spécialisé dans les industries graphiques.