Groups keyboard shortcuts have been updated
Dismiss
See shortcuts

Обсуждение статьи "Понимание ситуации” Леопольда Ашенбреннера (ex Open AI) о наступлении AGI через 3 года - Игорь Пивоваров,18 июля 2024, 18:00 (время московское)

0 views
Skip to first unread message

Anton Kolonin @ Gmail

unread,
Jul 15, 2024, 12:21:03 PM7/15/24
to AGI in Russian
https://aigents.timepad.ru/event/1412596/
Обсуждение статьи "Понимание ситуации” Леопольда Ашенбреннера (ex Open
AI) о наступлении AGI через 3 года - Игорь Пивоваров
18 июля 2024, 18:00 (время московское)

https://www.forourposterity.com/situational-awareness-the-decade-ahead/
На встрече предлагается обсуждение статьи "Понимание ситуации” Леопольда
Ашенбреннера, ушедшего из Open AI, в которой делается уверенный прогноз
о наступлении AGI до 2027 года (с фактами и цифрами) и высказывается
позиция, что AGI настолько сильно повлияет на безопасность всего мира,
что он может и должен стать государственным проектом.

Основные тезисы статьи:

1. В мире есть лишь несколько сотен людей, которым известна “реальная
ситуация” с ИИ и Леопольду посчастливилось оказаться в их числе.

2. Факты и цифры говорят, что AGI будет создан в течение 3 лет к 2027 году

3. Делается подробный разбор уровней AGI и утверждение, что в течение 1
года после AGI будет создан SuperHuman Intelligence. После этого
наступает плохо контролируемая человеком эра суперинтеллекта.

4. Делается подробный разбор рисков создания AGI и чем это грозит.

5. Создание AGI возможно лишь в масштабах национального государственного
проекта, потому что там не только программирование, там новый уровень
энергетики, микроэлектроники, а также организации всей
научно-исследовательской работы. Но это должно быть сделано, так как:

6. AGI должен быть создан именно в США, только Штаты могут стать
“гарантом” мирного и безопасного суперИИ. Главный риск — попадание AGI
не в те “страны”.

7. Все лаборатории по ИИ должны быть засекречены и все сконцентрировано
под государственным контролем.

8. И да, существует проблема того, что человечество может не удержать
AGI под контролем, но она “как нибудь должна решиться”.


В целом статья очень сильно и разумно написана, но можно не согласен
почти со всеми главными выводами автора. Но это стоит того, чтобы это
обсудить.

Формат обсуждения типа Journal Club:
1. Краткий тезисный обзор статьи
2. Потом мы обсуждаем статью с теми, кто ее читал
3. Потом принимаются вопросы и высказывания от тех, кто не читал.

--
-Anton Kolonin
mobile: +79139250058
messengers: akolonin
akol...@aigents.com
https://aigents.com
https://medium.com/@aigents
https://www.youtube.com/aigents
https://reddit.com/r/aigents
https://twitter.com/aigents
https://wt.social/wt/aigents
https://steemit.com/@aigents
https://golos.in/@aigents
https://vk.com/aigents
https://dzen.ru/aigents
https://aigents.com/en/slack.html
https://www.messenger.com/t/aigents
https://web.telegram.org/#/im?p=@AigentsBot
Reply all
Reply to author
Forward
0 new messages