Извините, регистрация закрыта. Возможно, на событие уже зарегистрировалось слишком много человек, либо истек срок регистрации. Подробности Вы можете узнать у организаторов события.
«Самоусиливающийся ИИ» — магические слова, которые могут объяснить что угодно. Нам говорят: «Вот появится самоусиливающийся ИИ, и тут все изменится». Но что происходит внутри самоусиливающегося ИИ? Мы пристально посмотрим на разные режимы изменений, который могут происходить в будущем ИИ, и постараемся понять, на какие их них можно влиять, чтобы сделать ИИ более безопасным.
Мы хотим обсуждать темы, которые касаются будущего: от экзистенциальных рисков и катастроф планетарного масштаба и до утопий и этики общения с роботами.
Главное правило на этих встречах — подходить к любым высказанным идеям серьезно.
Вот несколько правил, которые мы хотим установить на встречах группы Футурология:
На ближайшей встрече Алексей Турчин, футуролог, автор нескольких книг, расскажет о самоусиливающемся ИИ.
«Самоусиливающийся ИИ» — магические слова, которые могут объяснить что угодно. Нам говорят: «Вот появится самоусиливающийся ИИ, и тут все изменится». Но что происходит внутри самоусиливающегося ИИ? Мы пристально посмотрим на разные режимы изменений, который могут происходить в будущем ИИ, и постараемся понять, на какие их них можно влиять, чтобы сделать ИИ более безопасным.
Эти режимы вкратце такие: подключение новых компьютеров, обучение, подключение программных модулей, глобальная смена архитектуры и мастер алгоритма, смена инструментальных целей, смена окончательной цели, выращивание новых поколений, создание собственных копий. Мы постараемся доказать, что чем выше уровни изменений, тем меньше сам ИИ будет их хотеть, поскольку в них есть риски для него самого, в силу чего ИИ может предпочитать эволюционное развитие революционному.
Однако если его будет поджимать конкуренция со стороны других ИИ, он вынужден будет перейти к более рискованному революционному развитию.
Приходите поговорить об этом и приносите свои идеи.