Google y MIT Crean IA que aprende SOLA - SEAL y ReasoningBank

Votre vidéo commence dans 10
Passer (5)
Formation gratuite en FR pour les membres inscrits sur les sites de vidéos

Merci ! Partagez avec vos amis !

Vous avez aimé cette vidéo, merci de votre vote !

Ajoutées by admin
1 Vues
Cada vez que usas ChatGPT o Claude empiezas literalmente de cero. Los modelos de lenguaje actuales tienen una limitación fundamental: no aprenden de la experiencia ni mejoran con el uso. Además, hacer modelos más grandes ya no está funcionando - Sam Altman lleva más de un año advirtiendo que los costes se disparan mientras las mejoras son mínimas. En este video exploramos dos enfoques revolucionarios de Google y MIT que están cambiando las reglas del juego: SEAL (Self-Editing Language Models) y ReasoningBank.

SEAL permite que los modelos se auto-entrenen modificando sus propios pesos neuronales, eliminando la necesidad de fine-tuning supervisado. ReasoningBank crea una memoria externa donde los agentes guardan lecciones aprendidas tanto de éxitos como de fracasos. Lo fascinante es que estos enfoques no compiten sino que se complementan: uno proporciona memoria externa consultable, el otro internaliza el conocimiento en la arquitectura neuronal. Combinados, representan un cambio de paradigma del escalado vertical (modelos más grandes) al aprendizaje horizontal (modelos más inteligentes).

Analizamos resultados sorprendentes: SEAL multiplicó por 4 la precisión en SQuAD usando modelos pequeños que superaron a GPT-4, mientras ReasoningBank logró más de 50% de éxito en tareas de compra online reduciendo pasos innecesarios en 16%. También exploramos las limitaciones: el olvido catastrófico de SEAL, los desafíos de interpretabilidad, y los requerimientos computacionales. Esto nos acerca a agentes que verdaderamente aprenden y evolucionan, marcando el inicio de una nueva era en inteligencia artificial.

???? CAPÍTULOS:
00:00 - Los LLMs empiezan de cero
01:36 - El problema del techo
02:45 - Dos estrategias complementarias
03:47 - SEAL: Modelos que se Auto-Entrenan (MIT)
05:15 - Self-Editing y el bucle de aprendizaje reforzado
06:40 - Resultados de SEAL
08:00 - ReasoningBank: Memoria Externa que Aprende de Errores (Google)
09:05 - Patrones de estrategia vs trayectorias completas
10:04 - Limitaciones: Olvido catastrófico y desafíos de interpretabilidad
11:51 - Por qué esto desmonta el mito del techo de la IA
12:40 - Agentes que aprenden como humanos: el futuro de la IA

???? PAPERS CIENTÍFICOS:

SEAL (MIT): https://arxiv.org/abs/2509.25140v1
ReasoningBank (Google): https://arxiv.org/abs/2506.10943v2


???? CONCEPTOS CLAVE EXPLICADOS:
✓ Fine-tuning automático sin supervisión humana
✓ Aprendizaje por refuerzo aplicado a auto-edición
✓ Memoria externa consultable vs internalización en pesos
✓ Olvido catastrófico y sus soluciones
✓ Por qué el escalado vertical (bigger models) está tocando techo
✓ Diferencia entre aprendizaje estático y continuo
✓ Heurísticas transferibles vs memorización de trayectorias

???? PERFECTO PARA TI SI:

Sigues los avances en LLMs y agentes de IA
Te frustra que ChatGPT olvide todo cada sesión
Quieres entender por qué GPT-5 tarda tanto
Buscas alternativas al paradigma "bigger is better"
Te interesan las técnicas de aprendizaje continuo
Trabajas con fine-tuning de modelos
Quieres adelantarte a las tendencias de IA 2025


???? ÚNETE AL CANAL:
Si te gusta el contenido sobre tecnologías emergentes explicadas con profundidad y humor, suscríbete y activa la campanita. Publicamos análisis sobre IA, computación cuántica, fusión nuclear y más cada semana.
???? Déjame en comentarios: ¿Prefieres el enfoque de memoria externa de Google o la auto-modificación de MIT? ¿O la combinación de ambos?

Patreon: https://patreon.com/olivernabani
Y recuerda, lo más importante: No se dice machine, se dice Mashain!
Catégories
Intelligence Artificielle
Mots-clés
oliver, nabani, SEAL MIT

Ajouter un commentaire

Commentaires

Soyez le premier à commenter cette vidéo.