L’intelligence artificielle (IA) est désormais au cœur de nos sociétés. Mais de quoi s’agit-il exactement ? D’abord, qu’est-ce que notre propre intelligence ? Les connaissances en sciences cognitives humaines et animales permettent de mieux comprendre les points forts et faibles des technologies de l’IA. En s’appuyant sur les applications robotiques actuelles, Philippe Gaussier, professeur des universités à CY1 et chercheur au laboratoire ETIS2, mettra en évidence l’importance de connaître nos propres mécanismes cognitifs si l’on veut espérer, un jour, comprendre ce qu’est notre intelligence et créer des IA capables d’interagir réellement avec nous.
Le cycle de conférences-débats Université Ouverte, organisé par CY Cergy Paris Université, invite des conférenciers enseignants chercheurs à CY ou des chercheurs extérieurs à l’université.
Le contenu de ces conférences s’appuie sur de longs travaux de recherche très rigoureux, en équipe et en appui avec d’autres chercheurs d’hier et d’aujourd’hui, du monde entier.
Les intervenants de ces conférences, n’étant pas gestionnaires de cette chaîne Youtube et n’étant donc pas directement informés de vos questions et remarques, nous faisons le choix de fermer les commentaires sous ces vidéos.
00:21:06 Philippe Gaussier rappelle que l'IA existe depuis 80 ans. Son histoire est cyclique, les annonces de "révolution" se répétant, ce qui incite à la prudence. Il note que les avancées sont moins rapides qu'on ne le croit.
01:30:05 Philippe Gaussier ne définit pas l'intelligence, jugée trop vague, préférant se concentrer sur des capacités cognitives. Il annonce un biais dans sa présentation, car il est partie prenante d'une théorie de l'IA.
03:11:13 Le Test de Turing est le critère de succès, mais les machines le passent sur de courtes durées (5-15 min) et souvent par "tricherie" (ex: se faire passer pour un adolescent). C'est une simulation d'intelligence.
04:33:02 L'expérience de la Chambre Chinoise (Searle) montre que manipuler des symboles sans compréhension est une IA Faible. Les systèmes actuels reproduisent le raisonnement sans conscience.
06:10:24 Les deux écoles sont le Cognitivisme (l'esprit comme ordinateur symbolique) et le Connectionnisme (réseaux de neurones). Les modèles de langage sont ambigus, utilisant l'architecture connectionniste pour manipuler des symboles.
12:10:09 Après l'arrêt des réseaux de neurones (l'"hiver de l'IA" dû au manque de puissance), l'IA est passée aux Systèmes Experts (IA symbolique). Ces systèmes, comme MYCIN, ont échoué en pratique, souvent à cause de problèmes d'ergonomie et de contexte.
17:28:06 L'échec des systèmes experts s'est répété avec IBM Watson. Malgré sa victoire à Jeopardy, son application en médecine fut un flop et il a été retiré. Cela montre la difficulté de passer de la performance de laboratoire à l'application concrète.
20:11:11 Le retour des réseaux de neurones (fin des années 80) fut permis par de nouveaux algorithmes et, surtout, par l'augmentation de la puissance de calcul. L'IA est fondamentalement dépendante du hardware.
22:31:12 Une démonstration illustre la facilité de classification des données simples et l'échec face à la complexité (spirale) si le réseau n'est pas bien dimensionné. Le modèle est limité dans la capture des frontières de décision complexes.
27:12:05 Le Deep Learning utilise des réseaux de neurones à multiples couches. Il nécessite des volumes massifs de données d'entraînement, soulevant des problèmes cruciaux concernant la propriété et la gestion de ces ensembles de données.
Ambiguïté de la Compréhension
33:45:01 Le problème de l'ancrage symbolique persiste : l'IA manipule des mots sans saisir le sens profond ou l'expérience physique. Son manque de sens commun limite sa véritable compréhension du monde.
39:18:20 Le conférencier insiste sur les biais inhérents aux modèles. Ils proviennent des stéréotypes présents dans les données d'entraînement. L'IA ne fait que reproduire les défauts sociétaux, d'où la nécessité d'une utilisation critique.
43:55:08 L'importance de la rétroaction humaine est soulignée. Des humains ajustent les sorties de l'IA via le "fine-tuning" pour les aligner sur l'éthique. L'IA n'est jamais totalement autonome et dépend du jugement humain.
52:05:07 Il est crucial d'encadrer l'IA par des considérations éthiques et légales. Il faut établir des règles de transparence et définir la responsabilité en cas d'erreur dans les domaines critiques.
57:06:16 La conclusion porte sur l'IA Incorporée. L'exemple d'un robot marcheur sans processeur montre que la réussite dépend de la physique et de la conception mécanique. Le contrôle chez l'humain est global et ne passe pas par la planification de chaque articulation.
				
				Le cycle de conférences-débats Université Ouverte, organisé par CY Cergy Paris Université, invite des conférenciers enseignants chercheurs à CY ou des chercheurs extérieurs à l’université.
Le contenu de ces conférences s’appuie sur de longs travaux de recherche très rigoureux, en équipe et en appui avec d’autres chercheurs d’hier et d’aujourd’hui, du monde entier.
Les intervenants de ces conférences, n’étant pas gestionnaires de cette chaîne Youtube et n’étant donc pas directement informés de vos questions et remarques, nous faisons le choix de fermer les commentaires sous ces vidéos.
00:21:06 Philippe Gaussier rappelle que l'IA existe depuis 80 ans. Son histoire est cyclique, les annonces de "révolution" se répétant, ce qui incite à la prudence. Il note que les avancées sont moins rapides qu'on ne le croit.
01:30:05 Philippe Gaussier ne définit pas l'intelligence, jugée trop vague, préférant se concentrer sur des capacités cognitives. Il annonce un biais dans sa présentation, car il est partie prenante d'une théorie de l'IA.
03:11:13 Le Test de Turing est le critère de succès, mais les machines le passent sur de courtes durées (5-15 min) et souvent par "tricherie" (ex: se faire passer pour un adolescent). C'est une simulation d'intelligence.
04:33:02 L'expérience de la Chambre Chinoise (Searle) montre que manipuler des symboles sans compréhension est une IA Faible. Les systèmes actuels reproduisent le raisonnement sans conscience.
06:10:24 Les deux écoles sont le Cognitivisme (l'esprit comme ordinateur symbolique) et le Connectionnisme (réseaux de neurones). Les modèles de langage sont ambigus, utilisant l'architecture connectionniste pour manipuler des symboles.
12:10:09 Après l'arrêt des réseaux de neurones (l'"hiver de l'IA" dû au manque de puissance), l'IA est passée aux Systèmes Experts (IA symbolique). Ces systèmes, comme MYCIN, ont échoué en pratique, souvent à cause de problèmes d'ergonomie et de contexte.
17:28:06 L'échec des systèmes experts s'est répété avec IBM Watson. Malgré sa victoire à Jeopardy, son application en médecine fut un flop et il a été retiré. Cela montre la difficulté de passer de la performance de laboratoire à l'application concrète.
20:11:11 Le retour des réseaux de neurones (fin des années 80) fut permis par de nouveaux algorithmes et, surtout, par l'augmentation de la puissance de calcul. L'IA est fondamentalement dépendante du hardware.
22:31:12 Une démonstration illustre la facilité de classification des données simples et l'échec face à la complexité (spirale) si le réseau n'est pas bien dimensionné. Le modèle est limité dans la capture des frontières de décision complexes.
27:12:05 Le Deep Learning utilise des réseaux de neurones à multiples couches. Il nécessite des volumes massifs de données d'entraînement, soulevant des problèmes cruciaux concernant la propriété et la gestion de ces ensembles de données.
Ambiguïté de la Compréhension
33:45:01 Le problème de l'ancrage symbolique persiste : l'IA manipule des mots sans saisir le sens profond ou l'expérience physique. Son manque de sens commun limite sa véritable compréhension du monde.
39:18:20 Le conférencier insiste sur les biais inhérents aux modèles. Ils proviennent des stéréotypes présents dans les données d'entraînement. L'IA ne fait que reproduire les défauts sociétaux, d'où la nécessité d'une utilisation critique.
43:55:08 L'importance de la rétroaction humaine est soulignée. Des humains ajustent les sorties de l'IA via le "fine-tuning" pour les aligner sur l'éthique. L'IA n'est jamais totalement autonome et dépend du jugement humain.
52:05:07 Il est crucial d'encadrer l'IA par des considérations éthiques et légales. Il faut établir des règles de transparence et définir la responsabilité en cas d'erreur dans les domaines critiques.
57:06:16 La conclusion porte sur l'IA Incorporée. L'exemple d'un robot marcheur sans processeur montre que la réussite dépend de la physique et de la conception mécanique. Le contrôle chez l'humain est global et ne passe pas par la planification de chaque articulation.
- Catégories
 - Intelligence Artificielle
 - Mots-clés
 - science, culture
 


						
Commentaires