Возможно, мы проиграли | ALI

Описание к видео Возможно, мы проиграли | ALI

Научитесь работать с нейросетями — регистрируйтесь на бесплатный вебинар от университета Зерокодинга: https://zerocoder.ru/neuro-for-life?u...

Плати часть, а остальное потом с Долями от Тинькофф — https://app.dolyame.ru/evQx/aliaug/?e...
______________________________________________________________________
Человечество очень близко подобралось к потенциальной черте, которую многие исследователи искусственного интеллекта называют "технологическая сингулярность". Пересечение этого рубежа связывают с появлением на планете сверхинтеллектуального агента, действия которого для нас будут невычислимы. В основу ролика легла статья Элиезера Юдковского "Искусственный интеллект как позитивный и негативный фактор глобального риска."
______________________________________________________________________
Патреон:   / ali_channel  
Бусти: https://boosty.to/ali_youtube
Инстаграм:   / kublentiy  
______________________________________________________________________
Источники: https://docs.google.com/document/d/1U...
______________________________________________________________________
00:00 – Грядущая технологическая Сингулярность.
03:00 – Последние новости ИИ.
07:30 – Элиезер Юдковский.
08:26 – Типы искусственного интеллекта.
13:15 – Антропоморфизация.
16:45 – Мысленный эксперимент.
20:30 – Чёрный ящик.
21:40 – Проблема согласования ИИ.
32:25 – Инструментальные цели сверхинтеллекта.
34:25 – Чем люди отличаются от машин?
38:30 – Стремление ИИ к власти.
39:45 – Слабый сверхинтеллект.
41:10 – Нанотехнология.
42:45 – Клетка для сверхразума.
46:35 – Дартмутский семинар.
48:15 – Экспоненциальный рост.
52:45 – Коллективный разум против ИИ.
01:00:00 – Аугментация человека.
01:02:33 – Сознание у машины?
01:06:45 – Разработчикам ИИ наплевать?

______________________________________________________________________





erid: LdtCK1qaY

erid: Kra23uqNG

Комментарии

Информация по комментариям в разработке