Eliezer Yudkowsky is a researcher, writer, and philosopher on the topic of superintelligent AI. Please support this podcast by checking out our sponsors:
- Linode: [ Ссылка ] to get $100 free credit
- House of Macadamias: [ Ссылка ] and use code LEX to get 20% off your first order
- InsideTracker: [ Ссылка ] to get 20% off
EPISODE LINKS:
Eliezer's Twitter: [ Ссылка ]
LessWrong Blog: [ Ссылка ]
Eliezer's Blog page: [ Ссылка ]
Books and resources mentioned:
1. AGI Ruin (blog post): [ Ссылка ]
2. Adaptation and Natural Selection: [ Ссылка ]
PODCAST INFO:
Podcast website: [ Ссылка ]
Apple Podcasts: [ Ссылка ]
Spotify: [ Ссылка ]
RSS: [ Ссылка ]
Full episodes playlist: [ Ссылка ]
Clips playlist: [ Ссылка ]
OUTLINE:
0:00 - Introduction
0:43 - GPT-4
23:23 - Open sourcing GPT-4
39:41 - Defining AGI
47:38 - AGI alignment
1:30:30 - How AGI may kill us
2:22:51 - Superintelligence
2:30:03 - Evolution
2:36:33 - Consciousness
2:47:04 - Aliens
2:52:35 - AGI Timeline
3:00:35 - Ego
3:06:27 - Advice for young people
3:11:45 - Mortality
3:13:26 - Love
SOCIAL:
- Twitter: [ Ссылка ]
- LinkedIn: [ Ссылка ]
- Facebook: [ Ссылка ]
- Instagram: [ Ссылка ]
- Medium: [ Ссылка ]
- Reddit: [ Ссылка ]
- Support on Patreon: [ Ссылка ]
Ещё видео!