La présentation mainstream de l'IA fait presque toujours l’impasse sur cette idée pourtant incontournable qui est qu’un nouveau produit logiciel ne peut fonctionner qu’en interaction avec d’autres produits logiciels (de même qu’une clé USB a besoin pour fonctionner, de la présence d’un ordinateur).
Ces autres logiciels (qui vont bien vite eux-même se transformer, casser leurs propres interactions et réclameront une réparation) ne sont bien sûr jamais évoqués, parce que les interactions et effets qui en découleront sont difficiles voire impossibles à anticiper.
On préfère alors cultiver l’illusion de la maîtrise, en faisant “comme si” le logiciel allait travailler tout seul, de même que le ferait un outil autonome, et persévérer dans son être, comme le fait un organisme vivant.
On nous sert alors le discours tronqué, celui qui ne considère que l’effet possible théorique, dont on comprendrait pourtant, si l’on se posait la question, qu’il n’adviendra probablement jamais. Cela légitime à tort de nouveaux travaux théoriques (du travail pour les théoriciens de l’IA). L’organisation du travail étant ce qu’elle est, beaucoup sont occupés à légitimer leur position sociale y compris dans ce qu’elle a d’irrationnel, au détriment de l’action un peu plus globale, dans une quête rationnelle de l’action véritable par des professionnels éventuellement compétents, expérimentés, loyaux et courageux.
De la sorte, il nous semble que trop peu d’informaticiens sont payés pour endiguer ce qu’ils nomment les “effets de bord” ou anticiper la “dette technique”. Un équivalent en matière de traitement des règles : il y a trop peu de magistrats et auxiliaires pour juger le déluge des vices de procédure.[1]
[1] Arnaud Billion et Thomas Cassuto, Traitement par IA des vices de procédure: rupture ou continuité? Les cahiers de la Justice, 01/2023