Эксперты РОП: Субъектность цифровой коммуникации в условиях технологической эволюции интернета

СУБЪЕКТНОСТЬ ЦИФРОВОЙ КОММУНИКАЦИИ В УСЛОВИЯХ ТЕХНОЛОГИЧЕСКОЙ ЭВОЛЮЦИИ ИНТЕРНЕТА: ОСОБЕННОСТИ И СЦЕНАРИИ ТРАНСФОРМАЦИИ

Исследование выполнено в рамках Программы развития Междисциплинарной научно-образовательной школы Московского университета «Сохранение мирового культурно-исторического наследия»

Авторы – эксперты Российского общества политологов:
Володенков Сергей Владимирович, доктор политических наук, доцент, профессор кафедры государственной политики, Московский государственный университет имени М.В.Ломоносова;
Федорченко Сергей Николаевич, кандидат политических наук, доцент, профессор кафедры политологии и права, Московский государственный областной университет.

Опубликовано: научный журнал «Политическая наука», № 3, 2021

Аннотация: Цель работы состояла в изучении особенностей субъектности феномена цифровой коммуникации в условиях интенсивной цифровизации ключевых сфер жизнедеятельности современного общества, а также в выявлении перспектив и угроз внедрения самообучающихся нейросетевых алгоритмов и технологий искусственного интеллекта в коммуникационные процессы, разворачивающиеся в общественно-политической сфере. Одной из ключевых задач исследования стало определение сценариев возможных социальных изменений в условиях цифровизации общества и трансформации традиционных социальных практик в аспекте появления новых цифровых субъектов массовой общественной коммуникации, формирующих псевдоструктуру цифрового взаимодействия людей. В качестве методологической оптики в работе использованы метод дискурс-анализа научных исследований, посвященных внедрению и применению технологий искусственного интеллекта и самообучающихся нейросетей в процессах общественно-политической цифровизации, а также метод критического анализа актуальной коммуникационной практики в социально-политической сфере. Одновременно с этим при анализе актуальной практики цифровизации зарубежных стран использовался метод case-study. В свою очередь, для определения сценариев трансформации традиционного социального пространства и социальных практик был применен метод сценариотехник и сценарного прогнозирования. В результате исследования сделан вывод о том, что внедрение технологических решений на основе алгоритмов искусственного интеллекта и самообучающихся нейросетей в современные процессы социально-политической коммуникации формирует потенциал возникновения проблемы определения и самоопределения субъектов коммуникативных актов в социально-политической сфере жизнедеятельности современного государства и общества. По итогам проведенного исследования показано, что искусственный интеллект и самообучающиеся нейросетевые алгоритмы все более широко имплементируются в актуальную практику современных цифровых коммуникаций, формируя высокий потенциал информационно-коммуникационного воздействия на массовое сознание технологических решений, уже не требующих управления собою со стороны операторов – людей. В работе также делается вывод о том, что в актуальной практике социальных взаимодействий в цифровом пространстве человек сталкивается с новым явлением – интерфейсизацией, в рамках которого самокоммуникация стимулирует универсализацию и стандартизацию цифрового поведения, создавая, распространяя, усиливая и навязывая особые цифровые ритуалы. В статье обосновывается, что цифровые ритуалы стирают грань между активностью цифровых аватаров на базе искусственного интеллекта и активностью реальных людей, в результате чего возникает потенциал утраты человеком собственной субъектности в цифровом универсуме.

Ключевые слова: субъект коммуникации; цифровая коммуникация; массовое сознание; искусственный интеллект; нейросетевые алгоритмы; цифровое общество; трансформация социальных практик; гибридная субъектность.

Введение

Современная цифровизация общественно-политических процессов характеризуется своей высокой интенсивностью. Тренд на цифровизацию представляется нам сегодня глобальным и долгосрочным. В рамках данного тренда особый интерес представляют «умные» алгоритмы и технологии искусственного интеллекта, а также самообучающихся нейросетей, которые в последние годы стремительно эволюционируют. Одним из показателей подобной эволюции является не только существенное увеличение инструментального потенциала искусственного интеллекта в области обработки и анализа больших данных в цифровом пространстве, но и формирование способности осуществлять в различных сферах жизнедеятельности современного общества коммуникацию с живыми людьми в автоматическом режиме.

Как показывает анализ актуальной практики, разработанные на сегодняшний день технологии искусственного интеллекта и алгоритмы самообучающихся нейронных сетей уже демонстрируют возможности успешного и при этом, по сути, самостоятельного общения с человеком, используя для этого анализ массивов пользовательских цифровых данных и последующего самообучения. При этом технологии искусственного интеллекта и нейросетей не только развиваются и эволюционируют – они интенсивно внедряются в актуальную практику массовых цифровых коммуникаций, проникая во все больший спектр сфер жизни современного общества.

Сегодня технологии искусственного интеллекта и самообучающихся нейронных сетей научились самостоятельно создавать и транслировать различный контент целевым аудиториям пользователей, основываясь на имеющихся у них особенностях восприятия окружающего мира, специфике субъективных представлений о социально-политической действительности, а также учитывая содержание и структуру групповых и индивидуальных ценностно-смысловых моделей мировоззрения и поведения. Таким образом, программный алгоритм, либо программно-аппаратный комплекс потенциально может осуществлять более эффективную коммуникацию с человеком, воздействуя на его взгляды, представления, а также поведенческие паттерны. И такого рода алгоритмы все более активно используются в цифровом пространстве глобальными платформами для достижения своих целей, в связи с чем появился концепт «капитализма платформ» [Срничек, 2019].

В условиях обладания, по сути, монополией на информационно-коммуникационное воздействие на своих пользователей, каждая из подобных платформ имеет на сегодняшний день мощные возможности формирования групповых представлений практически в любой сфере жизнедеятельности человека. В связи с этим обеспокоенность и внимание со стороны ученых к технологическим гигантам в аспекте реализации их потенциала влияния в общественно-политической сфере были лишь вопросом времени.

Нам представляется вполне закономерным, что в последние годы к теме применения технологий искусственного интеллекта и нейросетей в социально-политической сфере привлечено большое внимание ученых и специалистов, а различным аспектам использования искусственного интеллекта в современных социальных и политических процессах посвящено значительное количество научных работ (см., например: [Федорченко, 2020; Быков, 2020; Baecker, 2019; Срничек, 2019; Ларина, Овчинский, 2018; Lovink, 2016; Kosinski, Stillwella, Graepel, 2013]*).

В нашем представлении традиционная социальная сфера, а также сфера общественно-политических коммуникаций могут быть особо чувствительными к технологическим трансформациям – в силу того, что они характеризуются наличием ярко выраженных смысловых, идеологических, ценностных и символических компонент, которые, по сути, и определяют содержание процессов социального взаимодействия. Насколько нейросетевые алгоритмы и технологии искусственного интеллекта способны сохранить ценностно-смысловое и символическое содержание традиционных социальных интеракций, не редуцируя содержательные компоненты классического коммуникационного взаимодействия? Очевидно, что ответ на данный вопрос не является на сегодняшний день очевидным, и мы находим здесь определенные вызовы для развития общества.

Так, одним из потенциальных вызовов может стать проблема субъектности общественно-политических коммуникаций. В случае активного внедрения в традиционные процессы общественно-политической коммуникации самообучающихся программных алгоритмов, способных осуществлять самостоятельное информационно-коммуникационное взаимодействие с реальными пользователями цифрового пространства, возникает вопрос определения реальных субъектов соответствующих коммуникационных актов. Является ли нейросетевой алгоритм полноценным субъектом коммуникации? Чьи интересы он представляет в процессах информационно-коммуникационного взаимодействия, самостоятельно обучаясь и эволюционируя?

Нам представляется, что подобные вопросы приобретают особое звучание в условиях существования в онлайн-пространстве глобальных социальных сетей и ресурсов социальных медиа, в рамках функционирования которых активно формируются и реализуются процессы цифровых самокоммуникаций между пользователями, выступающими не только получателями информации, но и являющимися полноценными генераторами контента, а также инициаторами коммуникационных взаимодействий. В подобного рода цифровой среде самокоммуникаций, где существуют сотни миллионов создателей, распространителей и получателей информационного контента, внедрение в процессы сетевой коммуникации технологических решений, основанных на алгоритмах искусственного интеллекта и нейросетей и способных симулировать реального пользователя, еще острее ставит проблему определения субъектности коммуникации.

Безусловно, поставленными вопросами не ограничивается круг проблем, вызовов и рисков, связанных с цифровизацией современного общества и внедрением в актуальную практику общественно-политического взаимодействия технологий искусственного интеллекта и нейросетей. Однако даже очерченная нами проблематика является, по нашему мнению, важной для научного осмысления.

Обзор специальных исследований

Что касается вопроса изучения феномена субъектности в условиях современной цифровизации, многие авторы скептически оценивают роль Интернета в изменении субъектности, с одной стороны, полагая, что возникновение сетевых коммуникаций кардинально не меняет существующую структуру власти и социума, с другой – все же признавая возникновение феномена «сверхвласти», угадывающейся в ряде трендов [Родькин, 2016, с. 62–63]: росте псевдосубъектов коммуникации с ложными социальными идентичностями, автоматизации контроля, дегуманизации коммуникативных приемов, унификации идей в рамках виртуализации, вытеснении масс в Интернет при закреплении «права на реальность» в качестве привилегии элит и т.п. Р. Барбрук в качестве источника некорректного подхода к анализу современной субъектности видел так называемую «калифорнийскую идеологию», сторонники которой считали, что информационные технологии непременно усиливают индивида, его субъектность в противостоянии национальному государству [Барбрук, 2015, с. 38].

В целом можно выделить ряд направлений, где есть серьезная перспектива разработки модели субъектности в условиях возникшего феномена самокоммуникации. Во-первых, наиболее активным драйвером современных разработок в области нейронных сетей и искусственного интеллекта является «сервисно-технологического направление» как форма симбиотических отношений современного государства и IT-корпораций. Данное направление продолжает сегодня развиваться в рамках концепции «государства как   платформы»,   предложенной в свое время А. Хельмондом, приравнявшим правительственную политику к сфере услуг [Helmond, 2015]. Наибольший интерес через призму этого подхода представляют две тенденции в современных коммуникациях – аватаризация и интерфейсизация. Аватаризация как массовое распространение цифровых аватаров у реальных людей была обусловлена самим сервисным подходом цифровых плат- форм – для того, чтобы человек смог получить какую-либо услугу, а самое важное – получить право на доступ к самому процессу коммуникации, ему было необходимо «загрузить» часть данных своей личности в цифровой аватар на соответствующей цифровой платформе. Тем самым субъектность на рубеже XXI в. обрела свою коммуникационную форму в виде цифрового аватара.

Другой стороной аватаризации стало возникновение цифровых аватаров «виртуальных чиновников» и «виртуальных политиков». Однако практически сразу возникли риски ложных цифровых аватаров, перед искусственным интеллектом которых интересантами ставилась задача по имитации активности как реальных людей, так и их официальных «виртуальных представителей». Сопутствующий процесс интерфейсизации был связан, с одной стороны, с внедрением общих алгоритмов, шаблонов функционала для пользователя цифрового аватара, с другой стороны, навязыванием цифровых ритуалов – стандартизированных моделей поведения пользователя при пользовании аватаром в процессе коммуникации (лайки, дизлайки, посты, репосты, просмотр новостей, селфи, комментарии, life-трансляция и т.п.).

Второе исследовательское направление связано с «теорией богатства медиавозможностей», получившей свою известность благодаря трудам Р. Ленгеля и Р. Дафта, предположивших, что богатая и разнообразная информация должна доходить до человека посредством таких же разнообразных коммуникационных технологий [Daft, Lengel, 1986]. Несмотря на критику данной теоретической модели, появились современные политологические работы, использующие концепт медиавозможностей для анализа применения чат-ботов с искусственным интеллектом на ресурсах цифрового правительства [Androutsopoulou et al., 2019].

Теория богатства медиавозможностей, в принципе, соотносится с законом необходимого разнообразия У. Эшби, который гласит, что эффективное управление возможно при соответствии разнообразия управленческих техник со стороны субъекта разнообразию управляемого объекта. Но гораздо раньше Эшби к подобной аналитической схеме подошел российский ученый А.А. Богданов [Локтионов, 2016]. Фактически Богданов описал свойства сетевых коммуникаций до эпохи Интернета, называя их «сеткой из нитей», выделяя центральную «эгрессию» и укрепляющие ее «дегрессивные объединения». Если на место этих богдановских категорий поставить политического актора (представителя элиты, государства, правящей партии) и подчиненных его интересам, но одновременно способных к самокоммуникации ботов на основе искусственного интеллекта, то мы получаем особую гибридную субъектность, целью которой является все то же классическое подчинение объекта управления.

Гибридная субъектность интересна тем, что она на деле маскирует, скрывает от граждан реального актора, нацеленного на политико-управленческий процесс, через приемы имитации человеческой коммуникации технологиями, алгоритмами нейронных сетей и искусственного интеллекта. Достаточно представить себе, что модераторы виртуальных сообществ и активные участники социальных сетей будут на самом деле «интеллектуальными» ботами, которые начнут самокоммуницировать между собой, инициировать дискурс, конструировать и распространять фейки, ставить лайки и дизлайки, комментировать видео, «троллить» политического оппонента, влиять на политическую повестку.

В теоретическую рамку гибридной субъектности также хорошо ложатся весьма проницательные идеи И.А. Исаева о так называемой «мегамашине власти». По его мнению, данная «машина» сначала, на заре человеческой истории, являлась во многом мифологическим представлением о неком порядке и создавалась для прикладных задач – постепенного расширения власти над людьми и природой, через разные компоненты – политические, хозяйственные, военные, бюрократические и т.п. Но самым важным ее признаком, по мнению Исаева, стали управленческие технологии на основании манипуляций с цифрами. Таким образом, и архаичные, и современные технологии управления руководствовались одной и той же максимой «число – рациональное основание политического» [Исаев, 2019].

Таким образом, мы можем заметить, что эволюция технологий искусственного интеллекта и потенциал их применения в социально-политической сфере являются весьма активно разрабатываемой на протяжении длительного времени учеными и специалистами научной проблемой, не имеющей сегодня однозначного решения и универсального подхода.

Полученные результаты

Как демонстрирует анализ актуальной практики цифровизации, современные технологии позволят уже в ближайшем будущем заменить индивида алгоритмом нейронной сети, функцией которого станет осуществление информационно-коммуникационной активности от лица реального пользователя на основе анализа предпочтений пользователя и его предыдущего опыта, усвоенного искусственным интеллектом. По сути, ничто не мешает алгоритмам нейросетей осуществлять коммуникацию от имени различных акторов в процессах их социального взаимодействия.

Как заметил еще пять лет назад Шон Гурли, «искусственный интеллект и алгоритмы обучения сделают почти невозможным отличить роботов от людей, а настоящие новости – от подделки. И мы увидим появление более автоматизированной вычислительной пропаганды – ботов, использующих сложные структуры искусственного интеллекта, устраняющих необходимость в том, чтобы люди управляли профилями. Алгоритмы будут не только читать новости, но и писать их. Они будут алгоритмически адаптированы к каждому человеку и использованы для изменения их политических убеждений или для манипулирования их действиями»**.

Особо отметим, что нейронные сети могут обучаться не только в рамках логики человека и на его опыте, в результате чего созданный ими ценностно-смысловой контент может оказаться абсолютно не связанным с интересами человека. В связи с этим важным представляется вопрос о том, как будут развиваться алгоритмы нейронных сетей, освобожденные от «ручного управления». В этом отношении весьма показателен эксперимент Microsoft по внедрению нейросетевого комплекса Tay с элементами эмоционального интеллекта в сервис микроблогов Twitter. В результате самообучения, основанного на анализе результатов сетевого взаимодействия с реальными пользователями Twitter, Тау «радикализовался» и, как следствие, стал поддерживать радикальные идеи, поддерживая политику Гитлера и геноцид, а также оскорбляя феминисток. Крайне неудовлетворительные результаты были получены и при обучении искусственного интеллекта в рамках аналогичного проекта китайских специалистов [Xu, 2018], когда разработанные боты (Xiao Bing и BabyQ) стали демонстрировать критическую позицию в отношении действующего в стране политического режима. Перечисленные прецеденты показывают риски ценностного обучения искусственного интеллекта в рамках традиционного интерфейса «человек-бот».

Уже сегодня анализ современной коммуникативной практики в интернет-пространстве показывает, что в последние годы боты-киберсимулякры*** все активнее используются в процессах самокоммуникации. Эти виртуальные конструкции интенсивно внедряются в коммуникационное пространство для организации массовых пользовательских дискуссий и управления ими в пространстве социальных сетей, что позволяет формировать эффект общественного мнения, влияющего на мнение онлайн-пользователей. Постепенно цифровое пространство массовых самокоммуникаций все больше наполняется манипулятивным и пропагандистским контентом, и киберсимулякры стали играть значительную роль в процессах воздействия на массовое сознание в Интернете, выступая в качестве инициаторов и активных участников массовых дискуссий, связанных с анализом и интерпретацией социально-политических явлений и событий, а также развитием коллективных смыслов в процессах онлайн-самокоммуникации [Bazarkina, Pashentsev, 2019].

Окруженный в пространстве социальных сетей киберсимулякрами, имитирующими реальных пользователей, а также алгоритмами нейронных сетей, которые генерируют персонализированный контент на основе анализа личности, человек попадает в цифровую информационную капсулу, в которой субъекты коммуникаций не понятны, а во многих случаях симулированы. Более того, в рамках такой капсулы человек становится лишь управляемым объектом технологического формирования убеждений, смыслов, представлений о социально-политической реальности [Lovink, 2016].

Тесно связан с процессами киберсимулякризации феномен цифровой аватаризации, которая означает не только распространение аккаунтов реальных людей для их подключения к процессу коммуникации, но и возникновение цифровых аватаров виртуальных личностей на основе искусственного интеллекта. Так, в актуальную политическую практику активно внедряются «виртуальные политики» [Федорченко, 2020]. Например, в Новой Зеландии на базе искусственного интеллекта был разработан проект SAM, который вел диалоги с пользователями в социальных сетях и готовился тем самым к всеобщим выборам в 2020 г. В Японии искусственный интеллект Michihito Matsuda имел собственную предвыборную программу и занял третье место на выборах Тамы (часть Токио). Однако что произойдет с социумом, если боты «виртуальных политиков» и «виртуальных чиновников» полностью перейдут в режим самокоммуникации, взаимодействуя с людьми лишь только по необходимости через свои антропоморфные цифровые аватары?****

Кроме того, анализ современной практики цифровых коммуникаций демонстрирует, что мы все чаще сталкиваемся с процессами формирования интерфейса, в рамках которого при самостоятельном общении начинают учитываться не уникальные особенности, интересы личности, а некие «стандарты коммуникации». Политический интерфейс, создаваемый алгоритмами нейронных сетей и использующий разработки искусственного интеллекта, приобретает характер «машины власти» с функционалом универсализации и стандартизации [там же]. Поскольку цифровые ритуалы продолжают развиваться в контексте формирования самосвязи, они фактически стирают границу между активностью киберсимулякров, основанных на искусственном интеллекте, и деятельностью реальных людей, в результате чего человек теряет субъективность в цифровом пространстве.

При этом ученые выделяют и такое явление, как асимметрию интерфейса «человек-машина», когда, чтобы компенсировать ограниченность доступа компьютера и интеллектуальной техники к действиям человека, разработчики изначально создавали такой дизайн систем, который бы частично принуждал пользователей к выполнению определенной процедуры последовательных шагов. Само политическое в таком интерфейсе формируется из-за возникновения авокации (термин К. Чешера) – специфических условий, которые побуждают реальных людей как интегральных актантов становиться составной частью целой технологической системы социоматериального характера (Г. Ловинк в своей «Критической теории интернета» пишет о схожем феномене социотехнической системы). В этой системе возникают инвокации – действия, определяющие параметры коммуникации, а также эвокации – системные изменения, влияющие на материальную жизнь и авокации [Сачмен, 2019, с. 184, 408].

Если учитывать гипотезу о том, что пик глобализации пройден [Жуков, 2020], то в скором времени важнейшие информационно-коммуникационные системы будут локализованы в виде «национальных зон» различных политических режимов. На этом этапе аватаризации может произойти более глубокая интерфейсизация, которая завершится конструированием вокруг каждого политического режима собственного политического интерфейса из стандартизированных   и   обязательных   правил   коммуникации. В результате возможен окончательный «захват» политическими интерфейсами цифровых аватаров собственных граждан через стандартизацию алгоритмов нейросетей и унификацию правил коммуникации «гражданин – гражданин», «гражданин – власть», «гражданин – машина» в приложениях, порталах, сообществах. Такой социотехнический порядок может базироваться на механизме самокоммуникации, в рамках которого многие задачи политических партий, министерств, организаций переходят к интеллектуальным системам, взаимодействующим между собой на принципах самосвязи. Партия, министерство или политик, уже не способные обработать огромный объем информации в новых социотехнических условиях и вынужденные пользоваться услугами ботов, обретают гибридную субъектность.

И здесь актуальным становится вопрос о том, как гражданин сможет сохранить независимость в выборе цифрового контента в процессах потребления информации. Анализируя активность пользователей, искусственный интеллект способен самостоятельно выбирать и предлагать источники информации, публикации, события, наиболее привлекательных политиков и партии, исходя из индивидуальных характеристик и предпочтений индивида [Kosinski, Stillwella, Graepel, 2013]. Кроме того, искусственный интеллект также может продвигать контент для определения повестки дня и управления важностью события*****. В случае реализации такого сценария можно с высокой степенью уверенности прогнозировать существенное снижение степени независимости людей в процессах индивидуального потребления информации, а также утрату навыков и компетенций сознательной работы с информацией и формирования объективных представлений о действительности.

При этом очевидно, что у создателей технологий искусственного интеллекта и алгоритмов нейронных сетей есть свои интересы в политике, экономике и глобальном управлении [Howell, 2011]. Эти интересы могут существенно повлиять на содержательные аспекты функционирования искусственного интеллекта и нейронных сетей в пространстве цифровых коммуникаций. В результате вероятным представляется формирование гибридного коммуникационного пространства, в котором обычный человек станет лишь жертвой столкновения и противостояния различных заинтересованных сторон, обладающих компетенциями создания и применения технологических решений на основе искусственного интеллекта и нейросетей.

Обсуждение и выводы

Подводя итоги данного исследования, необходимо сделать ряд выводов. В первую очередь следует отметить, что как и любая другая технология, созданная человеком, искусственный интеллект и нейронные сети обладают как созидательным, так и деструктивным потенциалом. Однако данный потенциал формируется преимущественно в рамках тех смысловых парадигм, которые задают содержательные векторы использования цифровых технологий в современном общественно-политическом и социальном развитии.

Как нам представляется, именно человек является основным создателем векторов технологического развития на данном этапе развития человеческой цивилизации. И именно от человека зависит то, каким образом будут применяться современные цифровые инструменты, какие интересы, ценности и смыслы будут определять дальнейшую технологическую эволюцию, будет ли цифровизация носить гуманистический характер. В связи с этим активное внедрение технологий искусственного интеллекта и самообучающихся нейронных сетей в различные сферы жизни современного государства и общества, по нашему мнению, неизбежно связано как с возникновением широкого спектра возможностей в сфере демократизации современных государств и общественного развития, так и с формированием целого ряда потенциальных угроз, рисков и вызовов для современного общества.

Основной спектр актуальных ключевых угроз, рисков и вызовов для современного общества мы видим именно в плоскости возможной утраты человеком своей субъектности, что с высокой степенью вероятности может привести к редукции возможностей индивида в процессах познания мира и формирования объективного восприятия действительности, а также к снижению способности человека критически воспринимать и оценивать окружающий мир.

В качестве одного из экстремальных, но при этом вполне вероятных сценариев технологического развития мы допускаем такую редукцию социума, при котором самообучающиеся нейронные сети и алгоритмы искусственного интеллекта будут коммуницировать друг с другом от лица индивидов на основе изучения и анализа их персональных цифровых профилей, при этом не только без их участия, но и с их согласия, формируя тем самым социальные нормы, в которых человек будет исключен из традиционного социального взаимодействия под эгидой его личной безопасности и персонального комфорта******. Данный сценарий может быть успешно реализован в рамках формирования технократического тоталитарного государства.

Что касается политической сферы, то здесь, по нашему мнению, существует значительный потенциал для использования технологий искусственного интеллекта и самообучающихся нейронных сетей в процессах установления режимов цифрового контроля и цифровых диктатур*******, основанных на манипулировании массовым сознанием и ограничении возможности гражданина свободно получать объективную общественно-политическую информацию, а также делиться ею с другими гражданами без ограничений, подвергаясь в случае несанкционированной коммуникационной активности легитимному насилию со стороны государства.

В этой связи мы хотели бы закончить свою работу пророческими словами Бенджамина Барбера о том, что «если мы измеряем власть потенциалом монополии и контроля над информацией и коммуникациями, очевидно, что новая технология может стать опасным помощником тирании. Даже в отсутствие сознательных злоупотреблений со стороны правительства этот потенциал может ограничить нашу свободу, посягнуть на нашу частную жизнь и нанести ущерб нашему политическому равенству. Нет тирании более опасной, чем невидимая и мягкая тирания, при которой субъекты становятся соучастниками своих жертв и порабощение является результатом обстоятельств, а не намерений. Технологии не обязательно неизбежно коррумпируют демократию, но нельзя игнорировать ее потенциал для благого господства» [Barber, 1998].

 


* См. также: Artificial intelligence and international security / M.C. Horowitz, P. Scharre, G.C. Allen, K. Frederick, A. Cho, E. Saravalle. – Washington: Center for a New American Security   (CNAS), 2018. – Mode of access (accessed: 01.04.2021).

** Gourley S. Get ready for the robot propaganda machine // WIRED. – 2015. – February. – Mode of access (accessed: 01.04.2021).

*** Киберсимулякр – виртуальная личность, функционирующая в интернет-пространстве и имитирующая репрезентацию реального пользователя сети.

**** Примечательно, что американская компания Avaya уже анонсировала создание первой платформы для чат-ботов, благодаря которой они смогут взаимодействовать между собой для повышения собственной эффективности и расширения возможностей пользователей.

***** Artificial intelligence and international security / M.C. Horowitz, P. Scharre, G.C. Allen, K. Frederick, A. Cho, E. Saravalle. – Washington: Center for a New American Security (CNAS), 2018. – Mode of access (accessed: 01.04.2021).

****** При этом мы допускаем, что такого рода коммуникационные практики могут осуществляться не только между разными нейросетевыми ресурсами, но и в рамках единого нейросетевого пространства, обеспечивающего «коммуникацию» между своими пользователями в рамках единой цифровой платформы, комфортно «капсулируя» пользователей в границах единого ресурса.

******* Такая диктатура может функционировать в режиме цифрового паноптикума, в котором индивид не только не имеет возможности свободно общаться с другими людьми, формировать независимые суждения, свободно делиться своим мнением с другими, но даже не представляет, насколько реален субъект, с которым он взаимодействует.

 


Литература:

Барбрук Р. Интернет-революция: от капитализма доткомов к кибернетическому коммунизму. – М.: Ад Маргинем Пресс, 2015. – 128 с.

Быков И.А. Искусственный интеллект как источник политических суждений // Журнал политических исследований. – 2020. – Т. 4, № 2. – С. 23–33. – DOI

Жуков Д.С. Искусственный интеллект для общественно-государственного организма: будущее уже стартовало в Китае // Журнал политических исследований. – 2020. – Т. 4, № 2. – С. 70–79. – DOI

Исаев И.А. Технологии власти. Власть технологии. – М.: Проспект, 2019. – 144 с.

Ларина Е.С., Овчинский В.С. Искусственный интеллект. Большие данные. Преступность. – М.: Книжный мир, 2018. – 416 с.

Локтионов М.В. А.А. Богданов как основоположник общей теории систем // Философия науки и техники. – 2016. – Т. 21, № 2. – С. 80–96. – DOI

Родькин П.Е. Медиа и социум. Три попытки вскрыть субъект власти : критический очерк. – М.: Совпадение, 2016. – 72 с.

Сачмен Л. Реконфигурация отношений человек – машина: планы и ситуативные действия. – М.: Элементарные формы, 2019. – 488 с.

Срничек Н. Капитализм платформ. – М.: Издательский дом Высшей школы экономики, 2019. – 128 с.

Федорченко С.Н. Феномен искусственного интеллекта: гражданин между цифровым аватаром и политическим интерфейсом // Журнал политических исследований. – 2020. – Т. 4, № 2. – С. 34–57. – DOI

Добавить комментарий