D’abord, “autonome” est gênant, si on l’emploie pour qualifier un “système” (parce que le système est théorique comme nous avons vu, dès lors, son autonomie sera théorique et ne nous apprendra rien). Si l’on recourt à la notion de système moyennant une première simplification, on peut avancer le caractère autonome, par anthropomorphisme, pour viser en fait la capacité de reconfiguration automatique des logiciels - ou plutôt des programmes - d’IA.
Or l’autonomie, dans le monde du vivant, suppose une adaptation contextuelle de l’organisme autonome. Mais l’IA n’est pas contextuelle sauf lorsqu’elle se déploie dans un dispositif déconnecté (type drone). Dans ce cas seulement, le terme autonomie prend quelque pertinence, en rejoignant le qualificatif “automatique”[1]. Encore que l’ontologie logicielle, purement fonctionnelle, devrait disqualifier “autonomie” en l’absence de “soi-même” requis par la définition.
D’autre part, lorsque les intrants proviennent d’ailleurs, et lorsque les extrants sont traités ailleurs, affirmer le caractère autonome devient franchement trompeur : si les inputs viennent d’ailleurs, et tiennent lieu de loi (nomos) au logiciel, comment prétendre que ce dernier est autonome? On retrouve ici le problème relevé plus haut, de décréter de manière conventionnelle les frontières d’un système de traitement.
Par naturalisme, l’expression “IA automne”, veut voir dans les facultés d’auto-transformation des programmes d’IA, une similitude à la faculté d’adaptation du vivant. Mais si ce dernier peut s’avérer très robuste/résilient face à des anomalies majeures (animal né avec deux têtes, greffons d'une plante sur une autre) il suffit d'une seule erreur pour qu'un code informatique ne s'exécute plus jamais : la machine n’est ici pas du tout automatique, et très faiblement autonome (en fait, elle est seulement théoriquement autonome).