???? Interview – Face à l’IA, il faut créer des “ceintures de sécurité cognitive” (Grégory Renard, E

Votre vidéo commence dans 10
Passer (5)
La méthode vendre des programmes à 5000 euros et plus

Merci ! Partagez avec vos amis !

Vous avez aimé cette vidéo, merci de votre vote !

Ajoutées by admin
16 Vues
Pourquoi l’intelligence artificielle est-elle si “sympa” avec nous ? Cette amabilité, que l'on appelle la "sycophancy", peut devenir un véritable problème contre lequel il convient de se protéger, selon mon invité.
Grégory Renard, spécialiste de l’intelligence artificielle, cofondateur de Everyone.ai (http://Everyone.ai) .
Pourquoi les chatbots d'IA sont-ils aussi aimables ?


Les outils d’intelligence artificielle comme ChatGPT (https://openai.com/chat) sont conçus pour interagir de manière bienveillante avec les utilisateurs. Cette amabilité, que l'on appelle la “sycophancy”, c’est-à-dire la flatterie automatique, est un biais qui provient de la manière dont les modèles ont été entrainés à partir de données humaines, souvent extraites de forums et de réseaux sociaux, comme Reddit (www.reddit.com) , où les échanges positifs aboutissent à des échanges plus qualitatifs.
En quoi est-ce dangereux ?


Ce penchant pour la complaisance pose un vrai risque : la création d’une dépendance émotionnelle (https://www.lemonde.fr/pixels/article/2025/09/13/chatgpt-et-sa-fausse-empathie-une-menace-pour-notre-sante-mentale_6640703_4408996.html) . Certains utilisateurs se confient à ces systèmes comme à des amis, parfois pour évoquer des pensées suicidaires et cela peut les conduire à passer à l'acte, comme on l'a vu récemment aux Etats-Unis avec le cas d'un jeune homme (Adam Raine, NDLR) qui s'est donné la mort après avoir dialogué avec ChatGPT. OpenAI a d’ailleurs révélé que plus d’un million de requêtes hebdomadaires contiennent des propos liés au suicide.
Quelles solutions pour éviter ce phénomène ?


Il est urgent de mieux encadrer les interactions homme-machine afin d’éviter que l’IA n’accentue la fragilité psychologique de certains publics, notamment les plus jeunes. C'est ce que nous cherchons notamment à faire au sein de l'organisation à but non lucratif que nous avons créée, Everyone.ai (http://Everyone.ai) , dédiée à la prévention des risques numériques. L’objectif est de sensibiliser les parents, former les enseignants et promouvoir des “ceintures de sécurité cognitive”, comparables aux ceintures de sécurité en voiture. Ces garde-fous permettent de filtrer et d’ajuster les comportements des IA, sans freiner la recherche. L’IA n’est pas une menace, mais un outil dont il faut simplement apprendre à maîtriser les règles et les limites.


-----------
♥️ Soutien
https://donorbox.org/monde-numerique (https://donorbox.org/monde-numerique????)
????️ (https://mondenumerique.info????️) Newsletter
https://mondenumerique.substack.com (https://mondenumerique.substack.com????)
???? (https://mondenumerique.substack.com????) Chaîne YouTube
https://www.youtube.com/@mondenumerique






Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite (https://www.audiomeans.fr/politique-de-confidentialite) pour plus d'informations.
Catégories
Intelligence Artificielle
Mots-clés
Innovation, technologie, numérique

Ajouter un commentaire

Commentaires

Soyez le premier à commenter cette vidéo.