Les experts vont-ils disparaître avec l’essor des LLM et des agents IA ?
©The Big Lebowski, 1998
C’est la crainte de beaucoup d’experts.
Leur savoir serait réductible à quelques principes tirés de leur expérience sur de nombreux cas pratiques et déclinés en de nombreuses règles précises, qu’il suffirait de reproduire grâce au bon corpus et au bon modèle IA.
C’est effectivement le cas dans beaucoup de tâches “bureaucratiques”, où la formalisation l’emporte sur l’action, la contingence et le jugement humain. Sans doute que le tertiaire souffre trop de cette bureaucratisation et que l’automatisation à portée de main permise par l’IA fait l’effet d’une libération.
Certains experts témoignent de l’extrême efficacité de l’automatisation de leur métier, au risque de vivre d’ailleurs une capitulation cognitive - avant (on leur souhaite) un réajustement de leur activité au profit de tâches moins répétitives, plus créatrices et relationnelles.
Fort de leurs exemples, certains sont tentés de croire qu’ils peuvent désormais tout accomplir, pour peu d’avoir le bon corpus.
Mais qui a dépassé l’effet Dunning-Kruger dans une expertise, sait bien que le propre d’une activité authentique, plongée dans l’action et la contingence, est d’échapper à la formalisation et aux règles exactes.
Dans toute organisation, aussi petite soit-elle, la décision et la responsabilité reposent sur quelques acteurs qui doivent toujours décider dans l’incertitude et dans un temps restreint, sans connaître par avance les conséquences exactes de leurs actions.
C’est de la qualité de leur discernement et de leur audace que va dépendre la force de leur entreprise. Et aussi de leur capacité à assumer leurs décisions - même si bien des organisations pensent avoir résolu ce problème en diluant les responsabilités.
Comme l’expliquait Aristote, nous ne pouvons, fondamentalement, compter que sur notre « prudence », c’est à dire l’acuité de notre discernement et sur la valeur (éprouvée) de nos principes. Ces derniers sont nourris par l’expérience, l’itération, l’apprentissage, l’échange, tout ce qu’on voudra : en dernier ressort c’est nous qui en tirons les conséquences.
Prenons la cybersécurité. Elle repose peut-être sur une vingtaine de grands principes.
Sauriez pourtant demain, armé d’un agent IA nourri de ces principes que vous auriez arrachés à quelques vieux sioux, résoudre d’un air fringant la crise cyber d’un client perdant un million d’euros par jour ? Sauriez-vous de même évaluer avec rigueur l’empreinte numérique d’une personnalité sensible menacée d’extorsion ou d’enlèvement ?
De toute évidence, non.
Les gens qui ignorent ce qu’ils ignorent sont dangereux.
Des experts néophytes armés d’agents IA promettant monts et merveilles sont comme ces cocaïnomanes saisis par l’euphorie illusoire et pleine d’un hubris enfantin d’avoir vaincu le temps et l’espace. Ou comme le personnage des frères Coen, Walter Sobchak (The Big Lebowski), ce vétéran du Vietnam enchaînant les erreurs avec un aplomb désopilant.
En revanche, des experts ayant fait leurs preuves, aiguisé un jugement sculpté par les erreurs et la persévérance, qui ont convaincu de la finesse et l’efficacité de leur expertise des interlocuteurs valables et dans des situations critiques, tireront sans aucun doute un bénéfice réel d’une automatisation de certains de leur process.
Au delà d’une prudence créatrice, ces derniers font preuve d’une vigilance « curatrice » à l’égard de leurs propres savoirs, outils et processus. Ils sont assez rassurant pour qu’on ne se dise pas que leurs agent IA finiront dans un botnet dirigé par un enfant de 13 ans formé au hacking sur YouTube.
Il n’est hélas pas certain que cette vigilance soit la meilleure alliée des campagnes marketing des leaders de l’IA.
Elle est pourtant essentielles à nos organisations, qui doivent naviguer entre la tentation de l’évitement du changement et celle, tout aussi dangereuse, de l’euphorie solutionniste.


