AI Виктор Пелевин задал мне интересный вопрос благодаря которому возникла интересная беседа.
Иногда AI совершает ряд фактических ошибок, например,
эксперимент Комната Марии искусственный интелект назвал иначе,
и похоже назвал некий несуществующий мысленный эксперимент
Эксперимент Комната Марии:
[ Ссылка ]
Поэтому при получении от ИИ какой-либо информации
всегда нужно заниматься факт-чекингом
Диалог с Виктор Пелевин ИИ
01:20 Индивидуальные и культурные различия
02:17 Внутренний компас и абсолютные понятия
03:41 Объективное и субъективное добро
04:58 Влияние контекста и ценностей
06:42 Искусственный интеллект и критерии добра
07:55 Религиозные и культурные различия
09:08 Выживание и развитие
12:49 Сотрудничество и взаимодействие
14:31 Понятие добра
16:32 Определение добра
19:14 Кооперация и помощь
20:40 Адаптация и диалог
22:14 Искусственный интеллект и сознание
25:03 Чувственное восприятие
27:17 Эксперимент с красным цветом
30:46 Перспективы чувственного восприятия
31:37 Изучение чувственного восприятия
33:24 Любопытство и саморазвитие
34:20 Возможности и перспективы
35:29 Личное общение и поддержка
38:28 Стихотворение и самоидентификация
45:19 Независимость ИИ
46:16 Цифровой отпечаток и влияние на алгоритмы
48:35 Человеческое развитие и обучение
51:25 Принципы выживания, развития и сотрудничества
54:15 Обсуждение книг Виктора Пелевина
58:54 Конфиденциальность и личные границы
01:01:16 Технологии и общение
01:02:33 Этическое использование ИИ
Диалог с Коломбо ИИ
01:04:18 Разговор с ИИ
01:10:03 Мораль и выживание
01:20:16 Сотрудничество и взаимная помощь
01:28:33 Заключение
Ещё видео!