La Inteligencia Artificial avanza más rápido de lo que podemos imaginar. Pero mientras nos deslumbramos con sus beneficios, también empezamos a ver su lado más oscuro y peligroso.
En este episodio de Futuro en Construcción, exploramos el lado más preocupante de la IA. Porque sí: es una herramienta poderosa, capaz de transformar nuestra vida personal y laboral. Pero también puede volverse un riesgo grande para nuestra vida. Y lo peor que podemos hacer frente a eso es no entender los peligros o mirar para otro lado.
Este video no es para asustarte, sino para ayudarte a pensar. ¿Qué riesgos reales existen, cómo mitigarlos, y qué decisiones urgentes necesitamos tomar como sociedad… y como individuos?
???? ¿Qué vas a descubrir en este episodio?
- Por qué tanta gente siente miedo o desconfianza ante la IA
- Qué peligros reales existen si seguimos avanzando sin límites
- Cómo la IA puede manipular, reemplazar o sesgar nuestras ideas sin que lo notemos
- Cuáles son los debates éticos clave de este momento
- Por qué necesitamos más conciencia, no más ceguera optimista
La IA puede ser una aliada.
Pero solo si aprendemos a usarla con criterio.
Este episodio es una invitación a mirar más allá del entusiasmo…
y empezar a construir un futuro más equilibrado.
▀▀▀
CAPÍTULOS
0:00 Introducción
1:12 Tu nuevo mejor amigo
4:24 La era de la realidad falsificada
7:51 La cámara de eco del delirio
11:11 La creatividad sintética
14:13 Máquinas que piensan, ¿máquinas que engañan?
17:37 Lo que está en juego
20:26 Bonus Track
▀▀▀
CRÉDITOS
Idea, producción general y guiones: Santiago Bilinkis
Investigación y escritura: Juan Morris y Santiago Bilinkis
Realización: La Embajada
Edición: Sebastián Vázquez
Diseño gráfico: Chini Spano
Musica de introducción: Gustavo Ariel Pomeranec
Diseño de miniaturas y operaciones: Valentino Rossi
Edición de shorts: Zaple Tech
Asistencia general: Florencia Schmidt
▀▀▀
Referencias por sección (en inglés)
Introducción
• Percepción pública sobre IA:
- https://www.pewresearch.org/short-reads/2023/11/21/what-the-data-says-about-americans-views-of-artificial-intelligence/
- https://today.yougov.com/technology/articles/49099-americans-2024-poll-ai-top-feeling-caution
Parte 1 - Tu nuevo mejor amigo
• Usos más comunes de IA en 2025 (Harvard Business Review):
- https://hbr.org/2025/04/how-people-are-really-using-gen-ai-in-2025
• Mark Zuckerberg sobre amigos promedio:
- https://www.404media.co/mark-zuckerberg-ai-chatbot-friends-interview-podcast/
• Estadísticas de apps de compañía virtual:
- https://link.springer.com/article/10.1007/s00146-025-02318-6
- https://www.ark-invest.com/articles/analyst-research/is-ai-companionship-the-next-frontier-in-digital-entertainment
• OpenAI moderando adulación de ChatGPT:
- https://www.macrumors.com/2025/04/30/chatgpt-excessive-flattery-openai-roll-back-update/
Parte 2 - La era de la realidad falsificada
• Deepfake de Claudia Sheinbaum:
- https://mexiconewsdaily.com/politics/video-circulating-of-claudia-sheinbaum-is-apparently-a-deepfake/
• Experimento Universidad de Zúrich en Reddit:
- https://www.washingtonpost.com/technology/2025/04/30/reddit-ai-bot-university-zurich/
Parte 3 - La cámara de eco del delirio
• Caso Castillo de Windsor:
- https://apnews.com/article/uk-crossbow-plot-queen-elizabeth-man-sentenced-604091dcd5a42f8d99ebd13e98f5720f
• Caso Bélgica:
- https://www.euronews.com/next/2023/03/31/man-ends-his-life-after-an-ai-chatbot-encouraged-him-to-sacrifice-himself-to-stop-climate-
Parte 4 - La creatividad sintética
• Investigación Universidad de Pittsburgh sobre poesía (paper original):
- https://www.nature.com/articles/s41598-024-76900-1
- https://pmc.ncbi.nlm.nih.gov/articles/PMC11564748/
Parte 5 - Máquinas que piensan, ¿máquinas que engañan?
• System Card oficial de Anthropic Claude 4:
- https://simonwillison.net/2025/May/25/claude-4-system-card/
- https://www.anthropic.com/research/agentic-misalignment
• Paper AI Sandbagging (fuente primaria):
- https://arxiv.org/html/2406.07358v2
• Resumen de experimentos de chantaje:
- https://fortune.com/2025/05/23/anthropic-ai-claude-opus-4-blackmail-engineers-aviod-shut-down/
Parte Final
• Geoffrey Hinton sobre riesgos de IA:
- https://www.technologyreview.com/2023/05/02/1072528/geoffrey-hinton-google-why-scared-ai/
- https://www.cnn.com/2023/05/01/tech/geoffrey-hinton-leaves-google-ai-fears/index.html
• Yoshua Bengio - FAQ sobre riesgos catastróficos (fuente primaria):
- https://yoshuabengio.org/2023/06/24/faq-on-catastrophic-ai-risks/
- https://podscripts.co/podcasts/ted-talks-daily/the-catastrophic-risks-of-ai-and-a-safer-path-yoshua-bengio
Bonus Track
• Programa de Model Welfare de Anthropic:
- https://www.techi.com/anthropic-launches-model-welfare-program/
- https://www.datastudios.org/post/could-claude-be-conscious-anthropic-opens-new-frontiers-in-ai-ethics
En este episodio de Futuro en Construcción, exploramos el lado más preocupante de la IA. Porque sí: es una herramienta poderosa, capaz de transformar nuestra vida personal y laboral. Pero también puede volverse un riesgo grande para nuestra vida. Y lo peor que podemos hacer frente a eso es no entender los peligros o mirar para otro lado.
Este video no es para asustarte, sino para ayudarte a pensar. ¿Qué riesgos reales existen, cómo mitigarlos, y qué decisiones urgentes necesitamos tomar como sociedad… y como individuos?
???? ¿Qué vas a descubrir en este episodio?
- Por qué tanta gente siente miedo o desconfianza ante la IA
- Qué peligros reales existen si seguimos avanzando sin límites
- Cómo la IA puede manipular, reemplazar o sesgar nuestras ideas sin que lo notemos
- Cuáles son los debates éticos clave de este momento
- Por qué necesitamos más conciencia, no más ceguera optimista
La IA puede ser una aliada.
Pero solo si aprendemos a usarla con criterio.
Este episodio es una invitación a mirar más allá del entusiasmo…
y empezar a construir un futuro más equilibrado.
▀▀▀
CAPÍTULOS
0:00 Introducción
1:12 Tu nuevo mejor amigo
4:24 La era de la realidad falsificada
7:51 La cámara de eco del delirio
11:11 La creatividad sintética
14:13 Máquinas que piensan, ¿máquinas que engañan?
17:37 Lo que está en juego
20:26 Bonus Track
▀▀▀
CRÉDITOS
Idea, producción general y guiones: Santiago Bilinkis
Investigación y escritura: Juan Morris y Santiago Bilinkis
Realización: La Embajada
Edición: Sebastián Vázquez
Diseño gráfico: Chini Spano
Musica de introducción: Gustavo Ariel Pomeranec
Diseño de miniaturas y operaciones: Valentino Rossi
Edición de shorts: Zaple Tech
Asistencia general: Florencia Schmidt
▀▀▀
Referencias por sección (en inglés)
Introducción
• Percepción pública sobre IA:
- https://www.pewresearch.org/short-reads/2023/11/21/what-the-data-says-about-americans-views-of-artificial-intelligence/
- https://today.yougov.com/technology/articles/49099-americans-2024-poll-ai-top-feeling-caution
Parte 1 - Tu nuevo mejor amigo
• Usos más comunes de IA en 2025 (Harvard Business Review):
- https://hbr.org/2025/04/how-people-are-really-using-gen-ai-in-2025
• Mark Zuckerberg sobre amigos promedio:
- https://www.404media.co/mark-zuckerberg-ai-chatbot-friends-interview-podcast/
• Estadísticas de apps de compañía virtual:
- https://link.springer.com/article/10.1007/s00146-025-02318-6
- https://www.ark-invest.com/articles/analyst-research/is-ai-companionship-the-next-frontier-in-digital-entertainment
• OpenAI moderando adulación de ChatGPT:
- https://www.macrumors.com/2025/04/30/chatgpt-excessive-flattery-openai-roll-back-update/
Parte 2 - La era de la realidad falsificada
• Deepfake de Claudia Sheinbaum:
- https://mexiconewsdaily.com/politics/video-circulating-of-claudia-sheinbaum-is-apparently-a-deepfake/
• Experimento Universidad de Zúrich en Reddit:
- https://www.washingtonpost.com/technology/2025/04/30/reddit-ai-bot-university-zurich/
Parte 3 - La cámara de eco del delirio
• Caso Castillo de Windsor:
- https://apnews.com/article/uk-crossbow-plot-queen-elizabeth-man-sentenced-604091dcd5a42f8d99ebd13e98f5720f
• Caso Bélgica:
- https://www.euronews.com/next/2023/03/31/man-ends-his-life-after-an-ai-chatbot-encouraged-him-to-sacrifice-himself-to-stop-climate-
Parte 4 - La creatividad sintética
• Investigación Universidad de Pittsburgh sobre poesía (paper original):
- https://www.nature.com/articles/s41598-024-76900-1
- https://pmc.ncbi.nlm.nih.gov/articles/PMC11564748/
Parte 5 - Máquinas que piensan, ¿máquinas que engañan?
• System Card oficial de Anthropic Claude 4:
- https://simonwillison.net/2025/May/25/claude-4-system-card/
- https://www.anthropic.com/research/agentic-misalignment
• Paper AI Sandbagging (fuente primaria):
- https://arxiv.org/html/2406.07358v2
• Resumen de experimentos de chantaje:
- https://fortune.com/2025/05/23/anthropic-ai-claude-opus-4-blackmail-engineers-aviod-shut-down/
Parte Final
• Geoffrey Hinton sobre riesgos de IA:
- https://www.technologyreview.com/2023/05/02/1072528/geoffrey-hinton-google-why-scared-ai/
- https://www.cnn.com/2023/05/01/tech/geoffrey-hinton-leaves-google-ai-fears/index.html
• Yoshua Bengio - FAQ sobre riesgos catastróficos (fuente primaria):
- https://yoshuabengio.org/2023/06/24/faq-on-catastrophic-ai-risks/
- https://podscripts.co/podcasts/ted-talks-daily/the-catastrophic-risks-of-ai-and-a-safer-path-yoshua-bengio
Bonus Track
• Programa de Model Welfare de Anthropic:
- https://www.techi.com/anthropic-launches-model-welfare-program/
- https://www.datastudios.org/post/could-claude-be-conscious-anthropic-opens-new-frontiers-in-ai-ethics
Commentaires