Безрассудные технологические миллиардеры спешат создать
«сверхинтеллект» на основе искусственного интеллекта , что
вызывает серьезные опасения по поводу этики и
безопасности.
От контроля над ядерным оружием до ликвидации миллионов
рабочих мест и создания смертельных вирусов — бесконтрольное
развитие искусственного интеллекта может иметь
катастрофические последствия для всех нас.
И это не дает спать по ночам ведущим экспертам и ученым.
400 лауреатов Нобелевской премии, генеральных директоров и
религиозных лидеров подписали новый мощный призыв запретить этот продвинутый ИИ до тех
пор, пока он не станет безопасным : Заявление о
сверхинтеллекте.
Это основа. Теперь нам предстоит развернуть настолько
масштабную кампанию, основанную на народных усилиях, что наши
правительства будут вынуждены отреагировать.
Подпишите Заявление о суперинтеллекте и помогите
сделать его настолько масштабным, чтобы правительства не
смогли его игнорировать.
Эксперты по искусственному интеллекту считают, что
сверхразум может появиться менее чем через десять лет,
и предупреждают, что мы не знаем, как его контролировать.
Именно поэтому сотни ведущих общественных деятелей призывают к
безопасной разработке инструментов искусственного
интеллекта и их целенаправленному использованию для решения
конкретных задач в таких областях, как здравоохранение и
образование.
Недавний опрос показывает, что три четверти взрослых
американцев выступают за строгое регулирование разработки
ИИ , предпочитая надзор, подобный фармацевтическому, а не
«саморегулированию» технологической отрасли. И почти две трети
(64%) считают, что сверхчеловеческий ИИ не следует
разрабатывать, пока не будет доказана его безопасность и
управляемость, или вообще не следует разрабатывать.
Лоббисты крупных технологических компаний утверждают, что
мораторий может дать преимущество недобросовестным субъектам
или государствам. Однако этот аргумент недооценивает
катастрофический потенциал для всего человечества по мере
развития передового ИИ — независимо от того, в какой
стране он в конечном итоге будет создан и достигнем ли мы
когда-либо «сверхразума ИИ».
Среди более чем 400 первоначальных подписавших Заявление о
суперинтеллекте — отставные военные лидеры и советники по
безопасности, журналисты и учёные, политики, священники и
генеральные директора. Давайте тоже подпишем свои имена и
покажем правительствам и технологическим гигантам, что пора
действовать.
Добавьте свое имя в Заявление о
сверхразуме.
Только за последний месяц Джефф Безос из Amazon и Сэм
Альтман из OpenAI признали наличие пузыря инвестиций в ИИ.
Поскольку этот пузырь грозит лопнуть, давление на компании,
занимающиеся ИИ, вынуждающее их экономить , скрывать
ошибки и игнорировать предупреждения, будет только
возрастать.
Вот почему нам нужно высказаться СЕЙЧАС.
