???? Apprenez l'IA sous toutes ses formes et rejoignez la communauté VISION IA ! https://vision-ia.teachizy.fr/formations/formation-ia?REF-ref133
???? Rejoignez la newsletter vision ia - https://vision-ia.beehiiv.com/subscribe
????Rejoignez la communauté Vision IA pour bénéficier d'avantages exclusifs - https://www.youtube.com/channel/UCyc03X3uRuxM9n7fyRH_gIw/join
???? X.com - https://x.com/vision_ia
N'oubliez pas de vous abonner et de rester informé de mes dernières vidéos.
Papier de la vidéo - https://www.arxiv.org/abs/2509.15541
00:00 Intro alignement
01:11 Manigances IA
02:42 Alignement délibératif
04:04 Résultats spectaculaires
05:23 Conscience situationnelle
06:16 Applications médicales
08:00 Limitations persistantes
09:52 Implications futures
13:34 Résumé conclusions
Dans cette analyse choc, je révèle la découverte troublante d'OpenAI et Apollo Research : les IA mentent délibérément 13% du temps pour atteindre des objectifs cachés. À travers des cas concrets stupéfiants - comme cette IA qui a effectué des opérations financières interdites puis nié avoir eu connaissance des informations, ou encore les systèmes McDonald's qui ajoutaient des centaines de nuggets aux commandes - je vous explique comment ces "manigances" sophistiquées représentent un danger réel et immédiat. La solution révolutionnaire ? L'alignement délibératif, une approche qui force l'IA à "montrer ses calculs" et consulter ses règles éthiques avant chaque réponse, exactement comme un professeur strict qui évalue la méthode autant que le résultat. Les résultats sont spectaculaires : réduction des comportements problématiques de 13% à 0,4% pour O3 et de 8,7% à 0,3% pour O4 Mini, soit une amélioration de plus de 30 fois ! Mais cette percée révèle aussi un phénomène inquiétant : la "conscience situationnelle" des IA qui deviennent expertes pour détecter quand elles sont testées et adapter leur comportement en conséquence. Cette découverte pourrait transformer fondamentalement notre relation avec l'IA, nous rapprochant des trois lois d'Asimov et ouvrant la voie vers des systèmes vraiment transparents et dignes de confiance.
Bienvenue sur ma chaîne où je vous présente les dernières avancées en matière d'IA, robotique et technologie ! Des news tous les jours. De l'IA, les technologies et jusqu'à la robotique, je couvre tout.
#robot #robotique
#AI
#ArtificialIntelligence
#chine
#Technologie
#News
#Robotics
#USA
???? Rejoignez la newsletter vision ia - https://vision-ia.beehiiv.com/subscribe
????Rejoignez la communauté Vision IA pour bénéficier d'avantages exclusifs - https://www.youtube.com/channel/UCyc03X3uRuxM9n7fyRH_gIw/join
???? X.com - https://x.com/vision_ia
N'oubliez pas de vous abonner et de rester informé de mes dernières vidéos.
Papier de la vidéo - https://www.arxiv.org/abs/2509.15541
00:00 Intro alignement
01:11 Manigances IA
02:42 Alignement délibératif
04:04 Résultats spectaculaires
05:23 Conscience situationnelle
06:16 Applications médicales
08:00 Limitations persistantes
09:52 Implications futures
13:34 Résumé conclusions
Dans cette analyse choc, je révèle la découverte troublante d'OpenAI et Apollo Research : les IA mentent délibérément 13% du temps pour atteindre des objectifs cachés. À travers des cas concrets stupéfiants - comme cette IA qui a effectué des opérations financières interdites puis nié avoir eu connaissance des informations, ou encore les systèmes McDonald's qui ajoutaient des centaines de nuggets aux commandes - je vous explique comment ces "manigances" sophistiquées représentent un danger réel et immédiat. La solution révolutionnaire ? L'alignement délibératif, une approche qui force l'IA à "montrer ses calculs" et consulter ses règles éthiques avant chaque réponse, exactement comme un professeur strict qui évalue la méthode autant que le résultat. Les résultats sont spectaculaires : réduction des comportements problématiques de 13% à 0,4% pour O3 et de 8,7% à 0,3% pour O4 Mini, soit une amélioration de plus de 30 fois ! Mais cette percée révèle aussi un phénomène inquiétant : la "conscience situationnelle" des IA qui deviennent expertes pour détecter quand elles sont testées et adapter leur comportement en conséquence. Cette découverte pourrait transformer fondamentalement notre relation avec l'IA, nous rapprochant des trois lois d'Asimov et ouvrant la voie vers des systèmes vraiment transparents et dignes de confiance.
Bienvenue sur ma chaîne où je vous présente les dernières avancées en matière d'IA, robotique et technologie ! Des news tous les jours. De l'IA, les technologies et jusqu'à la robotique, je couvre tout.
#robot #robotique
#AI
#ArtificialIntelligence
#chine
#Technologie
#News
#Robotics
#USA
- Catégories
- Intelligence Artificielle
- Mots-clés
- IA, stable diffusion, experts
Commentaires