Когда речь заходит о будущем человечества, то мы привычно ждём рассказов о том, какие появятся технологические новшества и изобретения. Так, словно нас нынешних от нас будущих отличают только вещи. За последние 300−400 лет мы действительно привыкли к мысли, что вследствие технического прогресса быт и возможности людей довольно быстро меняются, порой даже в пределах одного поколения. Однако за этой яркой картинкой из достижений, прогнозов и фантазий мы не замечаем изменений в огромном пласте жизни — социальных технологиях, под воздействием которых меняется само общество и составляющие его люди. Именно от них зависит то, как мы будем пользоваться достижениями прогресса.
Это хорошо заметно по истории развития современных медиа. Фотография, радио, кино, интернет — все они начинались с воодушевляющих идей о понимании себя и свободе выражения, презирающих границы, стереотипы и классовую рознь. Те, кто постарше, ещё помнят сказки про анонимность в интернете для простых людей и прозрачность для правительств и корпораций. Через 10−20 лет после появления каждого типа медиа наблюдался прямо противоположный эффект. Они способствовали массовым манипуляциям и пропаганде, распространению цензуры, усилению контроля со стороны государства и коммерческих структур, эксплуатации самых низменных потребностей.
Но это всё — не вина самого инструмента. Причина такого эффекта кроется в сути социальных технологий. Пожалуй, только очень серьёзная фантастика (вспомните Филипа Дика) и некоторые произведения киберпанка отважились исследовать эту тему — в том числе задавая вопросы о природе человека, о том, насколько она пластична и что может сделать с ней общество.
Сегодня особенно любопытно порассуждать о будущем тех трендов, контуры которых сейчас уже хорошо различимы. Например, о социальном рейтинге, уже введённом в Китае и вызвавшем бурные обсуждения по всему миру, а также о попытках регуляции контента на публичных площадках.
Итак, что же сулят нам социальные технологии в будущем? Какие возможности они нам способны открыть и какие проблемы породить?
Технологии в социальном
Пожалуй, никто не исследовал тему социальных технологий так подробно, как Чарли Брукер в сериале «Чёрное зеркало»
Для начала немного ключевых соображений. Условно говоря, социальные технологии — это сложные методы и мероприятия, призванные выполнять следующие функции:
контролировать процессы внутри общества и регулировать отношения между его членами;
создавать прогнозы и стратегии развития общества;
решать отдельные социальные задачи, от локальных до глобальных;
консолидировать общество;
преобразовывать индивидов, чтобы они соответствовали определённым критериям.
Несложно увидеть, что все эти функции тесно взаимосвязаны. Например, чтобы решить проблему недостатка ресурсов, важно не только их контролировать и разумно распределять, но и стремиться создать ответственного и менее требовательного гражданина; последнее упрощает объединение и регуляцию отношений, а это, в свою очередь, в разы повышает предсказуемость системы.
Очевидно, что глобальных проблем со временем станет больше, и без социальных технологий их решить наверняка не получится. Любое новое изобретение очень скоро начинает фокусироваться на этих проблемах, особенно если позволяет сделать то, что раньше делать было трудно.
Первая котлета, созданная в лаборатории (август, 2013 год). Тема перехода на искусственное мясо и мясозаменители сейчас активно развивается — по некоторым подсчётам, создание мяса в пробирке будет обходиться в разы дешевле и бизнесу, и экологии
В конце концов, сами люди требуют от современного общества большей безопасности, разумности, справедливости, а значит, поддерживают применение социальных технологий. Лично у меня по такому поводу не возникает паники — скорее, я думаю, что нужно трезво, без излишней драматизации, осознавать вероятные последствия. Для этого придётся принять за аксиому простой тезис: «Всё, что делается ради блага (кого-либо), легко может стать посягательством на свободу (вашу)».
При управлении обществом на первый план выходят большие числа и абстрактные выгоды, что иногда кончается плохо для конкретных индивидов. Допустим, что в будущем употреблять в пищу мясо млекопитающих нам запретят и вместо этого предложат перейти на дешёвый белок, полученный из насекомых. А если вы жить не можете без стейка или вас пробирает дрожь отвращения при одной мысли о том, чтобы положить в рот что-то подобное? Гуманное общество с вами, вероятно, немного повозится, но направление, в котором оно движется, от этого не изменится.
Более того, сочетание социальных технологий с возможностями современной техники — почти всегда чистой воды экспериментаторство. «Бахнет?» — «Да вроде не должно». Но бывает по-разному.
Памятная табличка, посвящённая радиопостановке «Войны миров» на CBS; установлена в Нью-Джерси, где якобы приземлились марсиане. Подобные розыгрыши устраивали и другие радиостанции, и в некоторых случаях дело заканчивалось человеческими жертвами
Самый яркий пример — радиопостановка «Войны миров» Герберта Уэллса в эфире станции CBS 30 октября 1938 года. Тонко срежиссированных высказываний хватило, чтобы более миллиона американцев всполошились, а около 300 тысяч затем свидетельствовали, что видели марсиан лично.
Безусловно, когда цифровые технологии добавляют мотивации в работе или расширяют возможности благотворительных НКО, то мы не видим здесь никакой манипуляции. Зато она становится явной в случае с лавинообразным распространением фейков в соцсетях. Чтобы использование технологии не обернулось злоупотреблениями, нужно выдержать очень тонкий баланс, и обычно сделать это не получается. Вот почему прогнозы пессимистов кажутся более реалистичными.
В целом социальные технологии не очень изменчивы, однако сегодня постоянно возникает что-то новое в области социальных сетей, алгоритмов, больших данных. Поэтому я ограничу рассмотрение будущего социальных технологий двумя серьёзно пересекающимися сферами — информационными сетями и цифровыми инструментами обработки и анализа данных.
Власть сетей
В серии «Под откос» сериала «Чёрное зеркало» оценки друг другу выставляют сами люди, а не государство, но эти оценки влияют на многое и способны разрушить жизнь конкретного человека
Появление больших сетей, объединяющих множество людей, открывает как возможности общения и самоорганизации, так и способы контроля и воздействия. В итоге образуются новые виды отношений, в том числе касающиеся власти. Например, участникам сети доступны инструменты и силы, которых нет у тех, кто к сети не присоединился. Распределение власти происходит и внутри самой сети в форме, например, определённого капитала: лайки и подписчики могут монетизироваться или переходить во влияние.
Подробнее о подобных вещах стоит прочитать у современного социолога медиа Мануэля Кастельса (например, в работе «Власть коммуникации»), я же сделаю акцент на том, что и сама сеть постепенно становится субъектом и получает власть над участниками.
Самый очевидный пример — модерация в соцсетях. Она позволяет не только подталкивать пользователей к определённой модели поведения (вежливости, взаимному уважению, дискуссиям) посредством системы предупреждений и наказаний. Благодаря ранжированию постов формируется определённая повестка, подсвечиваются определённые мнения и способы описания проблем. Характер потребляемой информации постепенно влияет на то, как мы мыслим, как расставляем приоритеты.
Всё то же «Чёрное зеркало» демонстрировало то, какой контент потребляют люди. Часто развлечением становится жестокость — и здесь снова встаёт вопрос о модерации
Как и любые другие медиа, соцсети могут, а значит, точно будут использоваться для внедрения конкретных ценностей. В перспективе это рискует стать главным инструментом формирования спроса. Особенно если встанет ребром вопрос выбора между экономикой и экологией. Ведь проще всего предсказывать то, что вы сами срежиссировали. И актуальность этой идеи в отношении потребительской культуры только растёт.
Однако более интересный пример — глобальные системы оценки вроде уже упомянутой концепции социального «кредита» гражданина. Выстраивание рейтинга на основе поведения — идея крайне неоднозначная. С одной стороны, большинство людей интуитивно согласятся, что человек должен оцениваться по своим поступкам. В конце концов, общество имеет право поощрять достойных (с точки зрения самого общества) и наказывать тех, кто ни во что не ставит благополучие прочих. С другой стороны, как только эта идея начинает проникать в реальность и принимать конкретные очертания, люди воспринимают её в штыки, поминают диктатуру и предупреждения из антиутопий. Их почему-то обычно не смущает кредитный скоринг, произвол модерации в соцсетях, рейтинги доверия людям и предприятиям в бизнесе (например, Sesame Credit) и при госзакупках. Выходит, что бизнесу по отношению к клиентам можно считать риски, а государству по отношению к гражданам — нельзя?
Конечно, ценность личности — важное достижение современности, о котором нельзя забывать. Но как нащупать грань, где абстрактная уникальность каждого превращается в универсальное оправдание любой деятельности?
Кредитные организации присваивают потенциальному заёмщику определённый балл на основании данных его анкеты, кредитной истории и так далее. Сейчас во многих организациях решение принимается автоматически, и мало кто считает это ущемлением прав
С одной стороны, ясные правила, диктуемые системой социального скоринга, — это благо; они дают стимул к развитию — всё же основные требования нельзя называть непосильными: не разжигать ненависть в интернете или вовремя платить штрафы.
С другой, вмешательством в частную жизнь очень легко злоупотребить, поэтому необходимо тщательно продумать, какие параметры деятельности нужно подвергнуть оценке. Ведь в будущем от рейтинга человека могут зависеть очень специфические вещи, например лимит потребления товаров некоторых категорий (сигарет, алкоголя, мяса), стоимость пассажирских билетов или даже место в очереди на донорский орган.
Система оценки, очевидно, будет учитывать и ту деятельность, что считается полезной и моральной — волонтерство, донорство, честность в учёбе, законопослушность. И всё же не стоит забывать — многие из этих вещей ценны именно потому, что на них идут добровольно, а не для того, чтобы замять пару просроченных штрафов.
Алгоритм может просчитать склонность человека к опасным действиям — но как быть со свободой выбора?
По сути, оценку уже сейчас берут на себя алгоритмы, а не люди, поскольку приходится иметь дело с огромными массивами данных, которые иногда не под силу обработать человеку. Однако в случае с социальным рейтингом просто посчитать недостаточно. Необходимо также принять решение, проявив гибкость.
Для полноты картины взглянем на социальный рейтинг с такой стороны. Допустим, алгоритм проанализировал миллионы ситуаций и обнаружил корреляцию: если человек за последний месяц совершил семь небольших конкретных проступков (три раза в состоянии опьянения нарушал общественный порядок, два раза угрожал собеседнику в сети, спровоцировал ДТП и просрочил внесение коммунальных платежей), то с вероятностью 90% он в течение года станет причиной серьёзной проблемы на значимом объекте, которая повлечёт за собой большие убытки или даже жертвы. Устроит пожар в доме или дебош в салоне самолёта, сорвёт многомесячный проект. Чтобы минимизировать риск, можно применить к нему ряд мер: запретить работать в госучреждениях, каждый раз тщательно досматривать на таможне, отказывать в продаже авиабилетов и мест в гостинице и т. п. Но насколько справедливы такие меры? Ведь речь идёт о вероятности совершения преступления, а такое впечатление, будто человек наказан за то, чего не совершал и, возможно, даже не совершит. К тому же в этом случае один человек из десяти не спровоцирует такие проблемы, однако ему тем не менее придётся столкнуться с ограничениями.
Власть алгоритмов
Нейросети далеко не идеальны — например, ChatGPT известен тем, что врёт пользователю и выдумывает результат, если не знает ответа
Алгоритм представляется послушным цифровым рабом, который рутинно выполняет простые задачи: собирает данные, анализирует, ищет корреляции, исправляет ошибки, недочёты и искажения в модели. Однако он может учиться; со временем на него удастся переложить и ответственность за принятие решений. Пока люди ощущают превосходство над простым механизмом, это успокаивает. Однако уже сейчас нейросети способны принимать во внимание такие массивы данных, что в каком-то смысле знают больше, чем мы, в том числе о нас самих. Так появляется власть над человеком алгоритма, пусть и продолжающего служить определённой социальной технологии.
Яркий пример того, что нас ждёт, — так называемое цифровое правосудие. Сперва алгоритмы будут рассматривать простые гражданские споры, затем дела в области экономических преступлений, а в итоге, возможно, заменят судей и присяжных. Программы лишены человеческих слабостей и склонностей и потому представляются более объективными. Заметьте: «более объективными», а не «абсолютно объективными». Алгоритмы учатся на человеческом примере, так что сегодня некоторые специалисты подчёркивают необходимость обращать внимание на дискриминацию со стороны самих алгоритмов.
В целом правовая область склонна к формализму — это может облегчить передачу дел автоматизированным системам, например при определении подсудности ситуации. Ещё один вариант использования алгоритмов в этой сфере — в форме интерактивных цифровых консультантов. Такие системы кушать и спать не просят, они доступны круглые сутки, а благодаря онлайн-режиму ещё и способны сэкономить существенные суммы в масштабах страны. Более того, непредвзятый взгляд программы окажется полезен для поиска противоречий в общей системе законов и наиболее эффективных решений.
Судебные алгоритмы свободны от эмоций и могут принимать решения непредвзято. Однако они подвержены тем же искажениям, что и обучавшие их люди
Возможно, алгоритмы возьмут на себя и часть расследований: будут собирать доказательную базу по финансовым проводкам или искать преступников с помощью потокового распознавания с видеокамер в городах. Анализ больших данных позволит предсказывать, в каких районах города, в какие часы или сезоны полиции стоит обращать на происходящее пристальное внимание. Некоторые здесь вспомнят фильм «Особое мнение», где медиумы предсказывали тяжкие преступления, из-за чего преступность удалось почти полностью искоренить.
Даже если не брать в расчёт такую условность, как провидческие способности, я думаю, до такого дело вряд ли дойдёт. Никакие выводы предсказательной системы не могут служить доказательством преступления — это потребует радикального пересмотра всех основ права (на что власти решатся разве что в ситуации жёсткого кризиса или полной невменяемости).
А вот сферы здоровья и финансов действительно рискуют попасть под очень строгий, почти принудительный контроль. Отказ от участия, вероятно, быстро обернётся поражением в некоторых правах.
О том, как социальные технологии могут управлять сферой здоровья, мы все узнали во время пандемии. Помните QR-коды?
Отслеживающие программы помогут диагностировать или даже предупреждать заболевания, но это же чревато перекосами: например, если государство увеличит налоги для тех, кто ведёт образ жизни, который с вероятностью спровоцирует проблемы со здоровьем, а значит, и увеличение расходов из бюджета на лечение такого несознательного гражданина.
Точно так же все финансовые операции, вероятно, однажды станут полностью прозрачными для контролирующих органов, а попытка выйти из системы (пользоваться наличными или свободной криптовалютой) будет рассматриваться как намерение участвовать в нелегальной деятельности.
Задача многих общественных институтов, социальных технологий и алгоритмов в общем виде звучит как классический девиз американской полиции: «Служить и защищать».
Но, во-первых, тут нет ни слова про свободу, а во-вторых, всегда надо задаваться вопросом, кому кто служит, кто что защищает и кто решает, кому надо служить и что защищать. В наш быстро меняющийся век цифровых технологий плыть по течению и надеяться, что всё само собой решится и урегулируется, всё равно что бросить управление в разогнавшейся машине и надеяться на чудо.
Что ждёт людей, которые умрут в будущем? Они обретут цифровое бессмертие в виде эмуляторов личности? Их превратят в деревья в эко-урнах, в голограммы или алмазы? И что делать с их аккаунтами?