Et si on pouvait faire tourner une intelligence artificielle en local, sans passer par ChatGPT ou les serveurs du cloud ?
Dans cette vidéo, je teste les performances d’un mini PC compact pour exécuter des modèles IA open-source comme Llama, Mistral, ou encore Stable LM, directement à la maison grâce à Ollama.
Objectif : voir jusqu’où on peut aller avec du matériel grand public, et si l’IA locale est une vraie alternative aux services en ligne.
Résultat : ça tourne... mais pas sans limites ! ????
⭐️ Dans la vidéo, je vous montre :
???? Comment installer et lancer des IA locales avec Ollama
???? Les performances réelles d’un mini PC pour l’IA
???? Les modèles qui fonctionnent le mieux en local
???? Les limites et compromis à connaître avant de se lancer
???? Dites-moi en commentaire : avez-vous déjà testé une IA locale chez vous ?
Et surtout, jusqu’où iriez-vous sans GPU ? ????
⚡️???? Le Geekom A9 Max utilisé dans la vidéo : https://www.geekom.fr/geekom-a9-max-mini-pc/
???? Rejoignez le Discord de la chaîne : https://discord.gg/b9v7YE3Gkc
Pour me suivre sur les réseaux :
???? TIKTOK : https://www.tiktok.com/@tomsbasementyt
???? DISCORD : https://discord.gg/b9v7YE3Gkc
???? FACEBOOK : https://www.facebook.com/tomsbasementyt
???? MAIL : tomsbasementyt@gmail.com (propositions commerciales uniquement sinon passez par Discord)
???? Liens des outils
???? Drivers Ryzen AI 9 : https://www.amd.com/fr/support/downloads/drivers.html/processors/ryzen/ryzen-ai-300-series/amd-ryzen-ai-9-hx-370.html
???? LM Studio pour Ryzen AI : https://lmstudio.ai/ryzenai
???? Gaia pour AMD : https://github.com/amd/gaia?tab=readme-ov-file
???? Amuse AI : https://www.amuse-ai.com
Au programme :
00:00 Intro
#IA #IntelligenceArtificielle #LocalAI #Tech #tomsbsmt
				
				Dans cette vidéo, je teste les performances d’un mini PC compact pour exécuter des modèles IA open-source comme Llama, Mistral, ou encore Stable LM, directement à la maison grâce à Ollama.
Objectif : voir jusqu’où on peut aller avec du matériel grand public, et si l’IA locale est une vraie alternative aux services en ligne.
Résultat : ça tourne... mais pas sans limites ! ????
⭐️ Dans la vidéo, je vous montre :
???? Comment installer et lancer des IA locales avec Ollama
???? Les performances réelles d’un mini PC pour l’IA
???? Les modèles qui fonctionnent le mieux en local
???? Les limites et compromis à connaître avant de se lancer
???? Dites-moi en commentaire : avez-vous déjà testé une IA locale chez vous ?
Et surtout, jusqu’où iriez-vous sans GPU ? ????
⚡️???? Le Geekom A9 Max utilisé dans la vidéo : https://www.geekom.fr/geekom-a9-max-mini-pc/
???? Rejoignez le Discord de la chaîne : https://discord.gg/b9v7YE3Gkc
Pour me suivre sur les réseaux :
???? TIKTOK : https://www.tiktok.com/@tomsbasementyt
???? DISCORD : https://discord.gg/b9v7YE3Gkc
???? FACEBOOK : https://www.facebook.com/tomsbasementyt
???? MAIL : tomsbasementyt@gmail.com (propositions commerciales uniquement sinon passez par Discord)
???? Liens des outils
???? Drivers Ryzen AI 9 : https://www.amd.com/fr/support/downloads/drivers.html/processors/ryzen/ryzen-ai-300-series/amd-ryzen-ai-9-hx-370.html
???? LM Studio pour Ryzen AI : https://lmstudio.ai/ryzenai
???? Gaia pour AMD : https://github.com/amd/gaia?tab=readme-ov-file
???? Amuse AI : https://www.amuse-ai.com
Au programme :
00:00 Intro
#IA #IntelligenceArtificielle #LocalAI #Tech #tomsbsmt
- Catégories
 - Intelligence Artificielle
 - Mots-clés
 - diy, bricolage, maker
 


						
Commentaires