ME SOUTENIR FINANCIÈREMENT
Tipeee : https://tipeee.com/le-futurologue
Patreon : https://patreon.com/LeFuturologue
PayPal : https://paypal.com/donate/?hosted_button_id=BBXFGSM5D5WQS
MES RÉSEAUX SOCIAUX
Discord : https://discord.gg/DqfKxvxYYg
TikTok : https://tiktok.com/@le.futurologue
Instagram : https://instagram.com/le.futurologue
Facebook : https://facebook.com/le.futurologue
X : https://twitter.com/le_futurologue
LinkedIn : https://www.linkedin.com/in/shaimanthurler
Threads : https://threads.net/@le.futurologue
Bluesky : https://bsky.app/profile/lefuturologue.bsky.social
Mastodon : https://mastodon.social/@le_futurologue
AGIR POUR LA SÉCURITÉ DE L’IA
S’informer
https://lefuturologue.tinypages.co/sinformer
Faire un don
https://lefuturologue.tinypages.co/donner
Devenir bénévole
https://lefuturologue.tinypages.co/benevole
Repenser votre carrière
https://lefuturologue.tinypages.co/carriere
MES RECOMMANDATIONS
Mes livres préférés sur l’IA
https://amzn.to/3CO02aa
Tous les livres que j’ai lus
https://amzn.to/493QW5b
Mon matériel high-tech
https://amzn.to/495WFaL
DESCRIPTION DE L'ÉPISODE
Pierre Peigné est directeur scientifique et cofondateur de PRISM Eval, une start-up spécialisée dans l’évaluation des vulnérabilités des intelligences artificielles. Après un parcours en tant qu’ingénieur et chercheur en IA, il consacre aujourd’hui son expertise à tester les limites des modèles en les poussant à produire toutes sortes de contenus, y compris les plus problématiques. Son travail met en lumière les failles des systèmes d’IA et les risques qu’elles représentent.
TIME CODE
0:00 Introduction
0:58 Le jailbreaking
8:45 L’amélioration des performances
13:05 La convergence instrumentale
18:47 Les types de risques
22:56 Les IA boîtes noires
26:05 La nullité des sécurités
29:12 Qui sont vos clients ?
33:01 Retour sur les IA boîtes noires
37:29 Évaluer les capacités
42:08 Une IA qui jailbreak d’autres IA
45:27 Comment jailbreaker les IA ?
48:45 L’état de l’art de l’évaluation des IA
52:54 Capacités vs sécurité
55:12 L’entraînement sur les benchmarks
57:10 La dangerosité de l’évaluation de l’IA
1:01:54 Faut-il mettre les IA en open source ?
1:09:07 Évaluer les systèmes multi agents
1:12:17 Évaluer les IA qui ont accès à internet
1:15:05 Évaluer les IA qui raisonnent
1:17:17 Lien entre intelligence et robustesse
1:20:10 Les obligations d’évaluation
1:22:09 L’évaluation selon la puissance de calcul
1:25:18 Les évaluations indépendantes
1:27:09 L’enjeu de la France en évaluation
1:28:44 Les usages borderline
1:31:57 Les capacités d’humour
1:33:57 Les IA sont des outils ?
1:37:04 Message à l’humanité
CRÉDITS
Captation : Studio Module
Montage : Swann Rossignol
Miniature : Drazik (VideoBees)
Le reste : Shaïman Thürler
Tipeee : https://tipeee.com/le-futurologue
Patreon : https://patreon.com/LeFuturologue
PayPal : https://paypal.com/donate/?hosted_button_id=BBXFGSM5D5WQS
MES RÉSEAUX SOCIAUX
Discord : https://discord.gg/DqfKxvxYYg
TikTok : https://tiktok.com/@le.futurologue
Instagram : https://instagram.com/le.futurologue
Facebook : https://facebook.com/le.futurologue
X : https://twitter.com/le_futurologue
LinkedIn : https://www.linkedin.com/in/shaimanthurler
Threads : https://threads.net/@le.futurologue
Bluesky : https://bsky.app/profile/lefuturologue.bsky.social
Mastodon : https://mastodon.social/@le_futurologue
AGIR POUR LA SÉCURITÉ DE L’IA
S’informer
https://lefuturologue.tinypages.co/sinformer
Faire un don
https://lefuturologue.tinypages.co/donner
Devenir bénévole
https://lefuturologue.tinypages.co/benevole
Repenser votre carrière
https://lefuturologue.tinypages.co/carriere
MES RECOMMANDATIONS
Mes livres préférés sur l’IA
https://amzn.to/3CO02aa
Tous les livres que j’ai lus
https://amzn.to/493QW5b
Mon matériel high-tech
https://amzn.to/495WFaL
DESCRIPTION DE L'ÉPISODE
Pierre Peigné est directeur scientifique et cofondateur de PRISM Eval, une start-up spécialisée dans l’évaluation des vulnérabilités des intelligences artificielles. Après un parcours en tant qu’ingénieur et chercheur en IA, il consacre aujourd’hui son expertise à tester les limites des modèles en les poussant à produire toutes sortes de contenus, y compris les plus problématiques. Son travail met en lumière les failles des systèmes d’IA et les risques qu’elles représentent.
TIME CODE
0:00 Introduction
0:58 Le jailbreaking
8:45 L’amélioration des performances
13:05 La convergence instrumentale
18:47 Les types de risques
22:56 Les IA boîtes noires
26:05 La nullité des sécurités
29:12 Qui sont vos clients ?
33:01 Retour sur les IA boîtes noires
37:29 Évaluer les capacités
42:08 Une IA qui jailbreak d’autres IA
45:27 Comment jailbreaker les IA ?
48:45 L’état de l’art de l’évaluation des IA
52:54 Capacités vs sécurité
55:12 L’entraînement sur les benchmarks
57:10 La dangerosité de l’évaluation de l’IA
1:01:54 Faut-il mettre les IA en open source ?
1:09:07 Évaluer les systèmes multi agents
1:12:17 Évaluer les IA qui ont accès à internet
1:15:05 Évaluer les IA qui raisonnent
1:17:17 Lien entre intelligence et robustesse
1:20:10 Les obligations d’évaluation
1:22:09 L’évaluation selon la puissance de calcul
1:25:18 Les évaluations indépendantes
1:27:09 L’enjeu de la France en évaluation
1:28:44 Les usages borderline
1:31:57 Les capacités d’humour
1:33:57 Les IA sont des outils ?
1:37:04 Message à l’humanité
CRÉDITS
Captation : Studio Module
Montage : Swann Rossignol
Miniature : Drazik (VideoBees)
Le reste : Shaïman Thürler
- Catégories
- Intelligence Artificielle
- Mots-clés
- Le, le, futurologue
Commentaires