La FAILLE invisible des IA (Un simple mot peut détruire le Monde)

Votre vidéo commence dans 10
Passer (5)
Formation gratuite en FR pour les membres inscrits sur les sites de vidéos

Merci ! Partagez avec vos amis !

Vous avez aimé cette vidéo, merci de votre vote !

Ajoutées by admin
7 Vues
Et si une phrase pouvait changer le monde ? Et si les IA les plus avancées, comme ChatGPT ou Bing Chat, pouvaient être manipulées simplement par le langage ?

Cette vidéo révèle une faille méconnue mais critique : l’injection de prompt. En jouant habilement avec les mots, certains utilisateurs parviennent à contourner les garde-fous éthiques des intelligences artificielles, à révéler des données confidentielles ou à exécuter des commandes non autorisées. Pas besoin de piratage complexe : une simple tournure de phrase suffit parfois à désactiver les protections. Cette fragilité, exploitée via des jeux de rôle, des instructions cachées ou des suffixes absurdes, met en lumière un paradoxe troublant : le langage, outil de communication, devient une faille de sécurité. Et à mesure que les IA s’intègrent à nos vies, ces vulnérabilités prennent une dimension bien plus inquiétante.
___________

???? Écriture : Christophe Pauly
???? Montage : Margaux Charrière
???? Collaboration commerciale : christophe.monytime@gmail.com

- Mes autres comptes -
➡ Facebook: https://www.facebook.com/christophepauly.tv
➡ Instagram: https://www.instagram.com/christophepauly.tv
___________

0:00 — Quand le langage devient une arme
0:49 — La poésie qui contourne les interdits
1:55 — Le jeu interdit des prompts “DAN”
3:31 — Pourquoi les IA obéissent… trop facilement
6:23 — Les mots magiques que personne ne comprend
8:19 — Chaque patch crée de nouvelles failles
11:08 — L’effet domino : une IA peut en infecter une autre
12:24 — Banques, services clients : les cas réels déjà arrivés
16:01 — Et si les IA n’étaient qu’un miroir de nous-mêmes ?
18:25 — Peut-on seulement se protéger ?
Catégories
Intelligence Artificielle
Mots-clés
prompt injection, injection de prompt, prompt attack

Ajouter un commentaire

Commentaires

Soyez le premier à commenter cette vidéo.