*[Enwl-Inf] Ban “super” AI until its safe / Запретить «супер» ИИ, пока он не станет безопасным

12 views
Skip to first unread message

ecology

unread,
Oct 22, 2025, 3:35:56 PMOct 22
to "ENWL-uni"
 
 
 

Ban “super” AI until its safe

AI Safety Team u...@eko.org

Перевод на русский ниже
 
 

"Superintelligent" AI could be disastrous.

More than 400 top experts, faith leaders and public figures just released a statement calling for a ban on AI superintelligence until it's safe.

Let’s build on that now.

Sign the Statement on Superintelligence.

 Add your name 

 

Reckless tech billionaires are racing to build AI ‘superintelligence’ - raising massive ethical and security concerns.

From controlling nuclear weapons, to replacing millions of jobs, to creating deadly viruses - unfettered AI development could have catastrophic consequences for us all.

And it’s keeping top experts and scientists awake at night. 400 Nobel Laureates, CEOs, and faith leaders have put their names behind a powerful new call to ban this advanced AI until it’s safe: the Statement on Superintelligence.

That’s the foundation. Now it’s up to us to build a people powered campaign so big that our governments have to respond.

Sign the Statement on Superintelligence, and help make this so big that governments cannot ignore.

AI experts believe that superintelligence could be less than ten years away, and they warn that we do not know how to control it. That’s why hundreds of leading public figures are calling for AI tools to be developed securely and for those tools to be targeted at solving specific problems in areas like health and education.

Recent polling shows that three‑quarters of U.S. adults want strong regulations on AI development, preferring oversight akin to pharmaceuticals rather than the tech industry’s "self‑regulation." And almost two-thirds (64%) feel that superhuman AI should not be developed until it is proven safe and controllable, or should never be developed.

Big Tech lobbyists say that a moratorium could give rogue actors or states an advantage. But that argument underestimates the catastrophic potential for all of humanity as advanced AI is developed – regardless what country it’s ultimately made in, or if we ever really achieve “AI superintelligence”.

Among the 400+ initial signers of the Statement on Superintelligence are retired military leaders and security advisors, journalists and academics, policy-makers, priests and CEOs. Let’s add our names too, and show governments and Big Tech that it’s time to act.

Add your name to the Statement on Superintelligence.

Just in the last month, Amazon’s Jeff Bezos and OpenAI’s Sam Altman have admitted that there’s an AI investment bubble. As the bubble threatens to burst, the pressure on AI companies to cut corners, cover-up mistakes, and ignore warnings, is only going to increase.

That’s why we need to speak out NOW.

 Add your name 

Thanks for all that you do,
Eoin, Vicky and the team at Ekō


More information:

 
 

 

 


Ekō is a community of people from around the world committed to curbing the growing power of corporations. We want to buy from, work for and invest in companies that respect the environment, treat their workers well and respect democracy. And we’re not afraid to stand up to them when they don’t.

Please help keep Ekō strong by chipping in $3 or become an Ekō core member with a regular monthly donation.

Chip in $3 instead

 

 

Цепочка открыта. Одно непрочитанное сообщение.

 
Перевод:

Ban “super” AI until its safe (Запретить «супер» ИИ, пока это не станет безопасно)

AI Safety Team u...@eko.org

Переведено: английскийрусский
Перевод может содержать ошибки. Проверяйте его.

«Сверхразумный» ИИ может оказаться катастрофическим.

Более 400 ведущих экспертов, религиозных лидеров и общественных деятелей только что выступили с заявлением, призывающим запретить сверхразум на основе искусственного интеллекта до тех пор, пока это не станет безопасно.

Давайте теперь продолжим на этом.

Подпишите Заявление о сверхразуме.

Добавьте свое имя

 

Безрассудные технологические миллиардеры спешат создать «сверхинтеллект» на основе искусственного интеллекта , что вызывает серьезные опасения по поводу этики и безопасности.

От контроля над ядерным оружием до ликвидации миллионов рабочих мест и создания смертельных вирусов — бесконтрольное развитие искусственного интеллекта может иметь катастрофические последствия для всех нас.

И это не дает спать по ночам ведущим экспертам и ученым. 400 лауреатов Нобелевской премии, генеральных директоров и религиозных лидеров подписали новый мощный призыв запретить этот продвинутый ИИ до тех пор, пока он не станет безопасным : Заявление о сверхинтеллекте.

Это основа. Теперь нам предстоит развернуть настолько масштабную кампанию, основанную на народных усилиях, что наши правительства будут вынуждены отреагировать.

Подпишите Заявление о суперинтеллекте и помогите сделать его настолько масштабным, чтобы правительства не смогли его игнорировать.

Эксперты по искусственному интеллекту считают, что сверхразум может появиться менее чем через десять лет, и предупреждают, что мы не знаем, как его контролировать. Именно поэтому сотни ведущих общественных деятелей призывают к безопасной разработке инструментов искусственного интеллекта и их целенаправленному использованию для решения конкретных задач в таких областях, как здравоохранение и образование.

Недавний опрос показывает, что три четверти взрослых американцев выступают за строгое регулирование разработки ИИ , предпочитая надзор, подобный фармацевтическому, а не «саморегулированию» технологической отрасли. И почти две трети (64%) считают, что сверхчеловеческий ИИ не следует разрабатывать, пока не будет доказана его безопасность и управляемость, или вообще не следует разрабатывать.

Лоббисты крупных технологических компаний утверждают, что мораторий может дать преимущество недобросовестным субъектам или государствам. Однако этот аргумент недооценивает катастрофический потенциал для всего человечества по мере развития передового ИИ — независимо от того, в какой стране он в конечном итоге будет создан и достигнем ли мы когда-либо «сверхразума ИИ».

Среди более чем 400 первоначальных подписавших Заявление о суперинтеллекте — отставные военные лидеры и советники по безопасности, журналисты и учёные, политики, священники и генеральные директора. Давайте тоже подпишем свои имена и покажем правительствам и технологическим гигантам, что пора действовать.

Добавьте свое имя в Заявление о сверхразуме.

Только за последний месяц Джефф Безос из Amazon и Сэм Альтман из OpenAI признали наличие пузыря инвестиций в ИИ. Поскольку этот пузырь грозит лопнуть, давление на компании, занимающиеся ИИ, вынуждающее их экономить , скрывать ошибки и игнорировать предупреждения, будет только возрастать.

Вот почему нам нужно высказаться СЕЙЧАС.

Добавьте свое имя

Спасибо за все, что вы делаете,
Эоин, Вики и команда Ekō


Дополнительная информация:


Ekō — это сообщество людей со всего мира, стремящихся обуздать растущую власть корпораций. Мы хотим покупать, работать и инвестировать в компании, которые заботятся об окружающей среде, хорошо относятся к своим работникам и уважают демократию. И мы не боимся противостоять им, когда они этого не делают.

Пожалуйста, помогите Ekō стать сильнее, пожертвовав 3 доллара или станьте постоянным членом Ekō, делая регулярные ежемесячные пожертвования.

Вместо этого внесите 3 доллара.

 

 
 
From: AI Safety Team <u...@eko.org>
Date: ср, 22 окт. 2025 г. в 10:37
Subject: Ban “super” AI until its safe


 

 

------------- *  ENWL  * ------------
Ecological North West Line * St. Petersburg, Russia
Independent Environmental Net Service
Russian: ENWL (North West), ENWL-inf (FSU), ENWL-misc (any topics)
English: ENWL-eng (world information)
Send information to en...@enw.net.ru
Subscription,Moderator: en...@enw.net.ru
Archive: http://groups.google.com/group/enwl/
New digests see on https://ecodelo1.livejournal.com/
 (C) Please refer to exclusive articles of ENWL
-------------------------------------
ALV-UjUojqjzO6BU6D7ThNtDCOLOydly_oNGPunt3DFgxPfwym74L4c0=s40-p
o.gif?akid=154390.23281291.ss4Czu
ACg8ocLVEthqnT2fmKgpqSwi-jIagHpDidRPZfRCS17jSHDnSceo=s40-p-mo
Reply all
Reply to author
Forward
0 new messages