Il y a d’abord plusieurs types de mémoire informatique [1]: volatile (mémoire vive), physique (stockage sur disque), déportée dans les nuages (ou cloud : idem, mais à distance). Autrement dit, en terme de hardware : sous forme magnétique sur un disque dur, voire sous forme physique (stockage cristallin), ou encore biologique (stockage ADN cellulaire). La "mémoire" de l’ordinateur est cependant simplement un concept que l’on emploie pour insister sur la variabilité des temps d’accès à la donnée, et le type de hardware mobilisé.
À partir de cela, on peut comprendre que les données sur disque ne sont pas effacées sauf en cas de réécriture sur les secteurs qui contenaient les données (ce qui suppose instruction explicite). Il ne s’agit pas de l’équivalent d’un effacement à la gomme : les secteurs sont simplement déclarés "de nouveau libres" jusqu'à la prochaine écriture.
Donc en première approximation, en langage courant, deux propositions sont à réconcilier. D’une part, “l’IA oublie très vite” au sens que les données en mémoire vive ne sont retenues que quelques minutes, et que le modèle ne s’enrichit pas instantanément et continument de nouvelles informations (entrantes ou sortantes). Mais d’autre part “elle n’oublie pas grand chose” parce qu’il faut programmer la libération des espaces-mémoire. Autrement dit, l’historique des transformations de données n’est en principe pas retenu, à moins que le programme ait été conçu de manière à rendre compte des changements.
A ce stade, on voit que beaucoup de données s’accumulent suite aux transformations dues aux traitements informatiques. Dans quelle mesure? Pour répondre à la question de savoir à quel point les données sont rémanentes, il faut encore considérer qu’en pratique, les programmes informatiques connaissent des “cycles de vie” (qui n’ont évidemment rien à voir avec les mécanismes du vieillissement biologique, même si certains parallèles intéressants pourraient être faits.)