*[Enwl-misc] Ботов больше, чем людей. Письмо о смерти интернета

5 views
Skip to first unread message

enwl

unread,
Jul 20, 2024, 2:56:01 PM7/20/24
to "ENWL-uni"
KITKIT
┌▒ ⊗ ▃ ⊗ ▒┐

Привет! Меня зовут Андрей Вдовенко, я журналист и постоянный автор Kit.

Возможно, вы не знаете, но семь или восемь лет назад интернет умер. По крайней мере, так считают сторонники конспирологической «теории мертвого интернета», согласно которой весь или почти весь контент в сети создают боты. 

Если верить конспирологам, ситуация примерно такая. Боты имитируют бурную деятельность людей и общаются между собой. За всем этим стоят алгоритмы рекомендательных систем IT-корпораций: они вместе с правительством США держат инфлюэнсеров на зарплате и сводят взаимодействие обычных пользователей к минимуму, чтобы манипулировать населением планеты. Например, формируют нужное общественное мнение перед принятием репрессивных законов или создают иллюзию популярности своего кандидата перед выборами.

Конечно, «теория мертвого интернета» опирается на сомнительные и даже фантастические допущения. Но она задает правильные вопросы. Алгоритмы действительно все больше определяют, что именно мы видим в интернете. А контент все чаще создают нейросети и боты. 

В этом письме я расскажу, как мусорные ИИ-посты заполняют интернет, почему треть ссылок, которые существовали в сети еще 10 лет назад, больше недоступны — и можно ли со всем этим что-то сделать.

■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎

Подпишитесь на рассылку Kit, если вы еще этого не сделали. Мы присылаем два письма в неделю, по вторникам и пятницам. Все наши предыдущие тексты вы найдете в архиве. А если хотите поделиться этим письмом, просто перешлите его по почте или используйте эту ссылку.

Мы вступаем в переписку с читателями. Вы можете написать редакции или автору конкретного текста. Просто ответьте на письмо или пишите сюда.

Навигация

В этом тексте 21 тысяча знаков, на его чтение у вас уйдет 15 минут. 

Письмо состоит из трех глав. Первая описывает мрачную картину будущего интернета, где боты создают контент для ботов. Вторая — о причинах, которые могут привести к такому будущему. А третья глава расскажет, почему все, возможно, не так страшно, как кажется, и что можно сделать, чтобы через несколько лет не оказаться в сетевой антиутопии.

Глава первая. Что будет с интернетом через шесть лет?

Представьте себе интернет, в котором 99% всего контента создано искусственным интеллектом. Звучит невероятно, но именно такой прогноз для 2030 года дает Копенгагенский институт исследований будущего. 

По факту мы уже имеем дело со странной смесью ботов и живых людей, и порой невозможно понять, кто есть кто. Боты общаются с ботами; люди общаются с ботами; люди спорят о фейках, созданных ботами, — все это реалии современного интернета.

То есть, судя по всему, в интернете будущего и правда станет невероятно сложно искать достоверную информацию. Ведь нейросети не могут (по крайней мере пока) создать что-то по-настоящему новое — они просто перерабатывают уже существующую информацию и попутно очень много врут

И это проблема. Эксперимент швейцарских ученых 2023 года показал, что нейросети подают фейки убедительнее людей, а отличить текст, написанный ChatGPT, от человеческого мы в большинстве случаев не способны.

Вполне вероятно, что в ближайшем будущем распространение дезинформации и разжигание вражды ИИ-ботами достигнет невиданных масштабов. Нейросети начнут создавать и распространять дипфейки политиков, которые будут говорить только то, что вы хотите услышать. Либо генерировать интимные фото или порно без согласия человека — ради шантажа или порчи репутации. Просто послушайте, как нейросети уже сейчас могут имитировать голоса людей. В конце концов, ботов, цитирующих фейки друг друга, может стать так много, что люди почувствуют себя лишними в интернете.

Интересно, что такой сценарий фатален и для самих нейросетей. Если ботов станет куда больше, чем людей, языковые модели, возможно, начнут учиться на текстах друг друга. Из-за этого качество создаваемого ими контента будет деградировать: обучение на данных, сгенерированных другими моделями, приведет к накоплению ошибок и искажений. В итоге ИИ начнет выдавать текст, абсолютно лишенный смысла. 

Увы, все это не сценарий технотриллера о смерти интернета, ведь первые признаки мрачного будущего видны уже сейчас.

Глава вторая. Что убивает интернет прямо сейчас

Интернету, конечно, еще очень далеко до состояния, которое мы описали выше. Но количество неживого — то есть создаваемого не человеком — контента там растет пугающими темпами. 

Полностью сгенерированный ИИ пользователь соцсети Quora (это как «Ответы Mail.ru», только на английском) набирает миллионы просмотров своими ответами; служебные боты «Википедии» дерутся друг с другом за правки, совсем как реальные модераторы, а боты-пропагандисты в США специально разгоняют полярно противоположные мнения (например, о ношении оружия), чтобы поляризировать общество. 

В России ситуация не лучше. Исследование «Новой газеты. Европа» показало, что в 2023 году 120 тысяч ботов написали во «ВКонтакте» больше семи миллионов комментариев — из них 73% поддерживающих власть и действия российских войск в Украине. И это лишь малая часть происходящего с интернетом сегодня. Вот его основные проблемы.

■︎ Ботов и правда становится больше, чем людей

Значительную часть интернета уже населяют не люди. За последние восемь лет, согласно статистике компании по информационной безопасности Imperva, количество ботов среди посетителей сайтов стабильно составляет около половины. Не всегда это плохо — например, есть «хорошие» боты поисковых систем, изучающие сайты, чтобы их было проще найти по запросу. Но ботов, связанных со злоумышленниками, увы, куда больше. И они везде.

В крупных соцсетях и видеосервисах: фейсбуке*, инстаграме*, твиттере, тиктоке, ютьюбе

В соцсетях боты отлично прикидываются людьми и распространяют дезинформацию (например, российские боты изображали в твиттере американцев, недовольных поддержкой Украины), троллят и преследуют людей, а также обворовывают их — например, предлагая отправить деньги на криптокошелек в обмен на бо́льшую сумму.

Скандалы вокруг ботов постоянно происходят в X (бывшем твиттере), в тиктоке боты создают — от сценария до монтажа — видео, а на ютьюбе давным-давно процветает рынок фальшивых просмотров. В 2013 году ботов на ютьюбе было почти столько же, сколько людей. Но чемпионом, конечно, остается крупнейшая в мире социальная сеть фейсбук: там только за первую половину 2022-го заблокировали три миллиарда фейковых аккаунтов.

Корпорации постоянно совершенствуют методы борьбы с ботами, но и их создатели в свою очередь приспосабливаются к изменениям. В этой борьбе пока побеждают последние. 

В более нишевых сервисах

В Spotify боты могут засорять пользовательские плейлисты песнями определенных артистов (очевидно, пытаясь продвинуть их в рейтингах). На площадке форумов Reddit их используют, чтобы на огромном материале форума обучать нейросети симулировать общение людей в Сети. Есть боты — фейковые соискатели работ и рекрутеры — и в LinkedIn, а также в сервисах знакомств (Kit, кстати, подробно писал о них).

На торговых площадках

В 2020 году компания Fakespot, специализирующаяся на мониторинге фейковых отзывов, заявила, что 42% отзывов на Amazon, скорее всего, оставили боты. А летом 2023-го маркетплейс столкнулся с наплывом ИИ-книг. Бессмысленные работы с названиями в духе «Архитектура абрикосового штрихкода» и «Внимание Джессики» даже стали попадать в список бестселлеров платформы. 

Некоторые из книг содержали советы, опасные для жизни. А некоторые создали проблемы реальным авторам. Так, инженер Кристофер Коуэлл обнаружил на Amazon книгу с таким же названием, как его учебник, который должен был выйти через две недели. Какой-то издатель украл заголовок из списка предварительных публикаций площадки и выложил на продажу текст, созданный искусственным интеллектом. 

Товары, созданные нейросетями, заполонили и площадку для продажи предметов ручной работы Etsy

В выдаче поисковиков

ИИ-редакторы, в обязанности которых входит выпуск 200—250 статей в неделю, с помощью чат-ботов заваливают интернет тоннами материалов. Естественно, никто не проверяет их на достоверность. И подобных ресурсов становится все больше. 

На момент написания статьи компания NewsGuard, специализирующаяся на поиске фейков и проверке информации в интернете, обнаружила 987 сайтов на 16 языках, включая русский, которые были созданы ИИ почти без контроля человека. В публикациях на них можно встретить непроверенные утверждения, теории заговора, мистификации и дезинформацию. 

Такие сайты часто невозможно отличить от обычных новостных ресурсов, и информация из них попадает в медиа, формируя ложную картину. Так, например, в сентябре 2023 года тегеранские газеты распространили новость с контент-фермы о самоубийстве психиатра израильского премьера Биньямина Нетаниягу (которого в принципе не существовало).

Другую новость, наглядно иллюстрирующую принципы работы контент-ферм, выпустил сайт Celebrities Deaths в апреле 2023-го. Он сообщил, что президент США Джо Байден умер. Самое смешное, что уже во втором абзаце статьи писавший ее ChatGPT отметил, что «не может завершить этот промпт», так как тот не соответствует этическим нормам, но эти строки, видимо, никто не заметил, и новость все равно разошлась. 

К тому же поисковики заменяют стандартную выдачу ссылок выжимкой, составленной нейросетью: перед результатом поиска (а в некоторых браузерах и вместо него) появляется написанный ИИ пересказ прочитанных им ссылок по запросу пользователя. Достоверность и качество таких выдач часто вызывают сомнения (настолько, что Google временно откатил эту функцию), а еще там отсутствует контекст и выборка мнений. 

Но что еще хуже, такая система отнимает трафик у сайтов и может привести к тому, что многие из них просто закроются. Ведь большинство пользователей прочитает все нужное в поисковике и не пойдет смотреть источник информации. Пока что традиционную поисковую выдачу с 10 ссылками на первой странице из Google не убирают насовсем, но как знать, что будет дальше.

■︎ Соцсети заполняет «ИИ-слизь»

Африканские дети со странными поделками (например, игрушкой из презервативов), люди с невероятными увечьями, пугающие животные-мутанты, сиамские близнецы и женщины, у которых есть только голова и ноги; Иисус с ампутированными конечностями, в шляпе Дяди Сэма или вообще в виде креветки. Все это вы можете увидеть в фейсбуке.

Такие изображения создают нейросети, а постят боты. При этом пометок, что посты созданы с помощью ИИ, на них нет. Возможно, никто бы не обратил на них внимания, если бы они не стали попадать в ленты людям, которые даже не подписаны на выкладывающие их страницы. 

Происходит это вот почему. Соцсетям выгодно, чтобы люди проводили в них как можно больше времени. И чтобы удержать наше внимание, IT-корпорации придумали предлагать пользователям контент с аккаунтов, на которые они не подписаны, — то есть то, что, как считает алгоритм, человек мог бы хотеть увидеть.

По словам Марка Цукерберга, в том же фейсбуке около 30% постов в ленте люди видят благодаря рекомендательной системе, а в инстаграме и вовсе половину. Похожие алгоритмы есть и в ютьюбе, и в тиктоке, и в (после покупки Илоном Маском), и во «ВКонтакте».

Чем больше с постом взаимодействуют — лайкают, комментируют, пересылают, репостят, — тем интереснее для пользователей его считает соцсеть. И оказалось, что созданный ИИ полностью фальшивый контент легко становится «рекомендуемым». Во многом он продвигается усилиями других ботов: посты усеяны однотипными (и часто бессмысленными и нелогичными) комментариями, создающими иллюзию интереса.

Создатели ботоферм пичкают соцсети этим мусором не из чисто садистских соображений: они зарабатывают деньги. Здесь есть два способа. Первый — продажа рекламы в соцсетях или увод аудитории на так называемые контент-фермы — ссылки на них, как правило, размещают в комментариях. Вы наверняка хотя бы раз видели такие мусорные сайты с тоннами рекламы и кликбейтными баннерами («Шок! Врачи назвали смертельный диагноз Пугачевой» или «Достаточно простого советского…»). Раньше их вручную делали люди, а теперь нередко нейросети с недоступной человеку скоростью. Второй способ — мошенничество. В таком случае ссылка ведет на рекламу товаров, которых на самом деле не существует, или ресурсы для кражи персональных данных.

Некоторые сообщества с ИИ-контентом взаимосвязаны: они репостят материалы друг друга и создают целые мусорные кластеры. Это явление уже метко прозвали «ИИ-слизью», которая расползается и покрывает собой все.

Сколько такой «слизи» в соцсетях — неизвестно, но очевидно, что много. Так, 120 фейковых бот-аккаунтов, которые в марте 2024-го обнаружили исследователи Рени ДиРеста из Стэнфорда и Джош Голдстейн из Университета Джорджтауна, совершили сотни миллионов взаимодействий — лайков, комментариев, репостов. Один из этих ботов даже создал пост, вошедший в двадцатку самых просматриваемых за третий квартал 2023 года: его посмотрели 40 миллионов раз. 

■︎ IT-корпорации развивают искусственный интеллект слишком быстро и безответственно

IT-гиганты в борьбе с конкурентами бросают все силы в сферу ИИ, не особо задумываясь о последствиях. Например, фейсбук пускает чат-боты в группы, совсем для них не предназначенные, типа городских комьюнити или сообществ выпускников школ. Там на вопросы пользователей могут отвечать чат-боты, если на комментарий поставить соответствующую отметку или если никто не ответит в течение часа. Такие ответы не могут дать человеку того, за чем он пришел — человеческого опыта. Более того, они могут убедительно имитировать его, вводя в заблуждение.

В апреле 2024-го в одной из нью-йоркских групп женщина задала вопрос, в какую школу лучше всего отдавать талантливого ребенка с инвалидностью. Ей пришел реально полезный ответ про одну из инклюзивных школ с припиской «У меня тоже исключительный ребенок». И все бы ничего, только вот никакого исключительного ребенка не существует: этот комментарий написал продвинутый чат-бот.

Похожего чат-бота, который сможет общаться с подписчиками вместо владельца аккаунта, тестирует и инстаграм. В Snapchat аналогичная функция уже есть, а LinkedIn использует ИИ, пишущий сообщения вместо рекрутеров — такой узаконенный спам. Тикток же создает виртуальных инфлюэнсеров, которые будут конкурировать с реальными за рекламные контракты с брендами.

Как далеко могут зайти разработчики сервисов, показывает история канадского сайта знакомств Ashley Madison. После массовой утечки данных в 2015 году ресурс поймали на том, что он создал 70 тысяч ботов, которые, притворяясь женщинами, писали мужчинам и изображали активность на платформе.

■︎ Старый контент в интернете «сгнивает»

«Все, что попало в интернет, остается там навсегда» — эта фраза уже давно не актуальна. Сайты, созданные много лет назад, меняют концепцию или просто перестают поддерживаться — ссылки на них, таким образом, перестают работать. Только на «кладбище» сервисов, которые закрыл Google, около 300 наименований, от гугл-подкастов до систем оповещения о катаклизмах, — с терабайтами контента.

Статьи, видео, книги, ответы на вопросы, форумы, блоги, целые издания — все это просто исчезает, нередко унося с собой уникальную информацию. Происходит это удивительно легко: достаточно забыть обновить регистрацию домена. Или, бывает, в ссылке содержится нечто привязанное к определенному пользователю, например к его старому и давно измененному никнейму. А иногда сайты просто меняют структуру — скажем, страница domain.net/pine_tree переезжает на адрес domain.net/tree/pine, и старая ссылка больше не работает.

38% веб-страниц, существовавших еще в 2013 году, сегодня уже недоступны. Больше половины статей в «Википедии» содержат хотя бы одну ссылку, которая не работает. До 500 тысяч из двух миллионов внешних ссылок в текстах The New York Times мертвы. И чем старше материал, тем больше неработающих ссылок. В статьях 1998-го их, например, 72%. Умирают также ссылки на научные работы, на сайты государственных ведомств и на страницы в соцсетях. 

Так, в 2018-м, после введения платной подписки на фотохостинге Flickr, с сервиса удалили почти все фотографии пользователей, которые не заплатили.

Глава третья. Как спасти интернет?

Многие с ностальгией вспоминают интернет 1990-х, где не было никаких алгоритмических лент в соцсетях — только форумы и относительно небольшое число сайтов. Сейчас на ту старую сеть похож разве что даркнет. Однако будущее интернета необязательно будет плохим — ведь ИИ можно ограничить и заставить работать только во благо.

В сочетании с принципами «Веб 3», то есть децентрализованным интернетом, работающим на блокчейне (прочитайте письмо Kit о нем), ИИ может сделать наше пребывание в сети более приватным и безопасным. Например, будет помогать найти самое выгодное предложение в онлайн-магазине или наиболее подходящую ссылку по запросу в поисковике. А также очищать интернет от мусора, в том числе созданного другими ботами. 

Для этого ИИ используют уже сейчас — например, специальный инструмент SynthID от Google и DeepMind наносит на ИИ-изображения специальные невидимые водяные знаки. По ним можно не только понять, что картинки сгенерированы, но и отследить, кем и когда. Убрать эти знаки не получится ни с помощью фильтров, ни изменением цветов, ни сжатием изображения. 

Пока что так в обязательном порядке помечаются только созданные сервисами Google ИИ-картинки, но в будущем такую же систему или ее аналоги могут распространить на все генераторы изображений. Но это должны будут сделать сами корпорации. Им же придется рассказывать людям, что в интернете много фейков, а также обучать пользователей простейшим методам фактчекинга. 

И в принципе развивать ИИ с осторожностью, чтобы в первую очередь учитывались интересы людей, а не алгоритмов, приносящих прибыль. Подвижки в этом направлении уже есть. OpenAI, например, публично заявляла о создании некоей универсальной этической базы, которую ИИ ни при каких условиях не сможет нарушить. 

Однако в мае 2024-го руководитель этого направления Ян Лейке подал в отставку, и проект был закрыт. Практически одновременно OpenAI покинул и его главный научный сотрудник Илья Суцкевер, для которого этичность ИИ всегда была основным приоритетом. В июне 2024-го он стал одним из сооснователей компании Safe Superintelligence Inc., которая, по его заявлениям, займется созданием безопасного искусственного суперинтеллекта.

Эффективнее всех с безответственностью IT-корпораций борется Евросоюз. Там не только регулярно штрафуют компании за нарушение законов о персональных данных, но и ведут системную работу против злоупотреблений. Например, в начале 2024-го Евросоюз создал специальный орган, который будет следить за развитием ИИ и тем, соответствует ли оно европейским законам. 

Еще ЕС вводит технологию data space, которая, по задумке, отделит программы от данных — то есть данные пользователей интернета в странах ЕС будут храниться в защищенных личных хранилищах, куда нет доступа корпорациям, и каждый человек сам будет решать, чем из персональной информации он хочет поделиться с фейсбуком или инстаграмом. Сейчас они без спроса берут все, до чего могут дотянуться, чтобы в конечном итоге впарить вам Иисуса-креветку.

↘︎ О том, почему важно научиться применять искусственный интеллект этично, читайте в письмах Kit об опасностях нейросетей и ИИ-оружии

Для борьбы с «вымиранием» сайтов нужно больше внимания уделять сохранению информации. Один из вариантов — создать «налог на память» для технологических компаний. Доходы с него будут идти на поддержание цифровых хранилищ.

Конечно, обычные пользователи могут сделать немного — но и это будет важным вкладом. Например, можно архивировать страницы, которые известны вам, но неизвестны крупным интернет-архивам — например, archive.is или Wayback Machine. Так сайт точно не исчезнет. По крайней мере до тех пор, пока живы сами архивные проекты.

Еще вы можете жаловаться на ботов и ИИ-контент в соцсетях. Meta, например, хоть и не особо активно, но все же банит аккаунты ботов или помечает их посты как фейки. 

Вы можете также поддержать донатами (или стать волонтером) международные активистские организации, борющиеся за свободный интернет. Например, Electronic Frontier Foundation (Фонд электронных рубежей), который помимо прочего лоббирует законодательную борьбу с ИИ-злоупотреблениями.

Или организацию Fight for the Future, которая выступает против мегакорпораций (например, активисты предлагают законодательно запретить им собирать в интернете данные о людях). А за безопасный и приватный Рунет борется «Роскомсвобода».

В конце концов, наше внимание — это тоже валюта и ею можно голосовать (прямо как рублем), отказываясь от сервисов, которые слишком уж откровенно ставят прибыль выше интересов своих пользователей. Задумайтесь: а так ли много вы потеряете, удалившись из фейсбука, инстаграма и твиттера?

И не забывайте, что «ИИ-слизь» и засилье ботов — не природная стихия и не абстрактное зло. Все это результат деятельности человека. И раз мы все это создали, значит, мы же можем это и уничтожить. 

><{{{.______)

Не исключено, что нейросети — очередной технологический скачок, который в итоге изменит нашу жизнь к лучшему. «Википедия» сделала энциклопедии ненужными для большинства людей, а поисковики — телефонные справочники. Может быть, похожим образом и искусственный интеллект сделает человека ненужным звеном в создании контента или какой-то его части. 

Возможно, будущее интернета не за людьми, а за искусственным интеллектом и нужно с этим просто смириться. Может быть, это заставит нас вернуться в реальный мир?

■︎

19.06.24

Редактор: Дмитрий Сидоров

■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎■︎

* Компания Meta, продукция которой упоминается в этом тексте, признана российскими властями экстремистской организацией.

Вы читаете это письмо, потому что подписались на Kit. Или его вам переслал кто-то близкий. В этом случае — подпишитесь здесь, чтобы получать наши письма без посредников. Это бесплатно

Мы в соцсетях: канал, картинки и сторис, музыка

Политика обработки персональных данных

Техподдержка: sup...@getkit.news

Для редакторов русскоязычных медиа: Хотите перепечатать наш текст на своем сайте или в телеграм-канале? Мы не против! Но сначала напишите, пожалуйста, нам на i...@getkit.news и предупредите об этом. И не забудьте поставить ссылку на сайт Kit

© 2024 Рассылка Kit.

 
From: Kit
Sent: Friday, July 19, 2024 8:41 PM
Subject: Ботов больше, чем людей. Письмо о смерти интернета
 


------------- *  ENWL  * ------------
Ecological North West Line * St. Petersburg, Russia
Independent Environmental Net Service
Russian: ENWL (North West), ENWL-inf (FSU), ENWL-misc (any topics)
English: ENWL-eng (world information)
Send information to en...@enw.net.ru
Subscription,Moderator: en...@enw.net.ru
Archive: http://groups.google.com/group/enwl/
New digests see on https://ecodelo.org
 (C) Please refer to exclusive articles of ENWL
-------------------------------------
Reply all
Reply to author
Forward
0 new messages