7 Coding LLMs, 1 Prompt—Here’s What I Found

Votre vidéo commence dans 10
Passer (5)
Formation gratuite en FR pour les membres inscrits sur les sites de vidéos

Merci ! Partagez avec vos amis !

Vous avez aimé cette vidéo, merci de votre vote !

Ajoutées by admin
3 Vues
Anthropic released Claude-4 last week and its supposed to be the best coding model. I put it to the test and compared to O3, Gemini 2.5 Pro, Qwen and DeepSeek R1. The results will surprise you!

Website: https://engineerprompt.ai/

RAG Beyond Basics Course:
https://prompt-s-site.thinkific.com/courses/rag

Let's Connect:
???? Discord: https://discord.com/invite/t4eYQRUcXB
☕ Buy me a Coffee: https://ko-fi.com/promptengineering
|???? Patreon: https://www.patreon.com/PromptEngineering
????Consulting: https://calendly.com/engineerprompt/consulting-call
???? Business Contact: engineerprompt@gmail.com
Become Member: http://tinyurl.com/y5h28s6h

???? Pre-configured localGPT VM: https://bit.ly/localGPT (use Code: PromptEngineering for 50% off).

Signup for Newsletter, localgpt:
https://tally.so/r/3y9bb0

TIMESTAMP:

00:00 Introduction and Model Comparison Setup
00:36 Claude 4 Release and Benchmarks
02:44 Pricing Comparison
03:19 Testing Methodology
04:46 Model Capabilities and Tool Usage
06:15 Results Analysis
12:54 Conclusions and Recommendations
Catégories
prompts ia
Mots-clés
prompt engineering, Prompt Engineer, LLMs

Ajouter un commentaire

Commentaires

Soyez le premier à commenter cette vidéo.