Il faut d’abord rappeler que “‘les sciences modernes, en créant des modèles explicatifs, opèrent avec une démarche réductionniste systématisée. Le risque menace constamment d’oublier le côté simplificateur, pour des raisons pratiques, des théorisations scientifiques et de prendre les résultats de ces spéculations comme des modèles à imiter. L'outil informatisé est une caricature de cerveau et ce n'est pas un cerveau.” [1] Nous allons voir que le risque se réalise, en matière de modèles.
Il existe plusieurs emplois de la notion de modèle en informatique, qui piochent, selon les cas (mais sans jamais le préciser) indifféremment, (mais délibérément ?) des deux côtés de la définition. Par exemple, le modèle d’apprentissage n’est pas du tout l’équivalent d’un modèle de données. “Modèle” est une notion faussement univoque en informatique.
Ainsi, le modèle peut correspondre à la structure des données générée par l’IA. Mais il faut considérer le cycle de vie, et la dérive inéluctable (le “drift”) du modèle du fait de la réinjection des données en entrée. Dans une modalité descendante (“top-down”), on théorise un modèle (incomplet) et on l’implémente, il se dégrade alors et il devient difficile de continuer à parler de modèle. Dans une modalité “remontante” (“bottom-up”) l’IA “consomme” des algorithmes pour générer un modèle, qui peut être dans ce cas défini comme une structure mathématique de couches de neurones dans un type d’IA d’apprentissage profond (Deep Learning). La question est alors de savoir si l’on continue à entraîner le modèle, ce qui le fait évoluer. Dans les deux cas, les modèles ne sont pas stables, et on ne devrait pas faire comme s’il s’agissait d’objets techniques et matériels à optimiser.
Nous ne faisons ici que montrer que l'emploi du terme “modèle” mobilise un fort implicite, qui mériterait d’être précisé.
Les modèles ont certes leur importance au temps de l’IA… ou plutôt, leur importance établie repose des questions spécifiques dûes à la possibilité de programmer l’IA. D’une certaine manière, les modèles d’IA “contaminent” les programmes qui deviennent dès lors moins lisibles. Mais pour autant, caractériser les modèles n’est pas d’une grande aide : on a toujours affaire dans l’ordinateur, à une transformation particulière d’un modèle, à sa dégradation relative à un programme spécifique. Un peu comme il y a une distance, de la caractérisation d’un virus, au contrôle de ses effets dans l’organisme.
Le fait de la polysémie du terme “modèle” (et même du caractère antonymique des emplois qu’on en fait), indique peut-être une faille béante dans notre pensée moderne. Son emploi fait suspecter immédiatement une volonté douteuse de standardisation et de simplification, qui a été largement relevée en matière informatique. Le “modèle” qui conserverait ses caractères, est certes facilement commercialisable… mais il ne se maintient pas. On vend alors, du vent.