Les intelligences artificielles risquent de s’autodétruire.
En apprenant de plus en plus sur des contenus générés par d’autres IA, elles perdent en précision et en diversité. Comme une photocopie de photocopie, Internet pourrait finir saturé de contenus creux et flous.
Les chercheurs appellent ce phénomène le « modèle collapse ». À chaque nouveau cycle d’apprentissage, les détails disparaissent, les erreurs s’accumulent et l’information s’appauvrit.
Si rien ne change, la vraie connaissance pourrait devenir presque introuvable.
L’urgence est claire : préserver et valoriser les données humaines et authentiques avant qu’elles ne soient noyées.
Et toi, tu penses qu’on se dirige vers un effondrement numérique ?
En apprenant de plus en plus sur des contenus générés par d’autres IA, elles perdent en précision et en diversité. Comme une photocopie de photocopie, Internet pourrait finir saturé de contenus creux et flous.
Les chercheurs appellent ce phénomène le « modèle collapse ». À chaque nouveau cycle d’apprentissage, les détails disparaissent, les erreurs s’accumulent et l’information s’appauvrit.
Si rien ne change, la vraie connaissance pourrait devenir presque introuvable.
L’urgence est claire : préserver et valoriser les données humaines et authentiques avant qu’elles ne soient noyées.
Et toi, tu penses qu’on se dirige vers un effondrement numérique ?
- Catégories
- Intelligence Artificielle
Commentaires