горизонт. Сканирование горизонтов роль информационных технологий в будущем
Скачать 3.29 Mb.
|
92 Ади Кунцман нологиям как синониму желаемого будущего. Вместо того, чтобы каждый раз, воображая или планируя буду- щее, браться, по умолчанию, за компьютерные решения, имеет смысл разорвать символическую связь между будущим и цифрой и спросить себя: действительно ли решение, основанное на цифровизации, самое лучшее? Каковы его последствия — для личности, общества, окру- жающей среды? Где возможный выход из построенного плана для тех, кому он не подойдет? И главное, какие у него альтернативы? Эпилог. Будущее без информационных технологий? Самый первый человек, которого встречает читатель «Авто» Уэйлинга, это Майкл Уалкер, в прошлом британ- ский интернет-гуру, хакер и борец за свободу информа- ции, пытавшийся уничтожить Интернет после принятия международного закона о контроле доступа в сеть. По- сле нескольких лет в изгнании, сменив внешность путем пластических операций, Майкл возвращается в Англию с поддельными документами, чтобы разрушить всю ци- фровую инфраструктуру, на этот раз окончательно. Так выглядит не один научно-фантастический роман или фильм, где герой-одиночка, как правило хакер, бо- рется с информационной системой. Однако один в поле не воин, если речь идет не о научной фантастике, а о на- стоящей жизни. Так что же может сделать гражданское общество? В первую очередь, серьезно задуматься о расширении и даже трансформации понятия «гражданских прав» в эпоху повальной цифровизации. Сегодня гражданские права должны включать право на отказ от цифры и ве- сти к борьбе за доступность общественных услуг, типа транспорта, социальных пособий, оплаты коммуналки и т. д., не завязанных на владение смартфоном и доступ в сеть. То есть решение обойтись без цифры не должно 93 Граж данские свобо ды, ко ллективная память и эк ология в век неизбе жной цифры вести к дискриминации «несетевиков» и выбросу не- подключенных за пределы удобной, достойной и задей- ствованной жизни. Однако в условиях государственной цифровизации получить такое право может быть нелег- ко, и в этом случае гражданское общество должно заду- маться над альтернативами, как, например, безвалютный обмен и низовые системы взаимопомощи. Право на отказ — это еще и право на полный отзыв личных данных, собранных государственными инстан- циями или частными компаниями. Такое право может быть результатом массовых акций потребителей, син- хронно удаляющих свои профили, протестуя против кон- троля над личной информацией 113 Право на отзыв, своевременное удаление либо из- начальное невключение данных может и должно быть за- щищено законом (как, например, введенный в 2018 году в Евросоюзе закон о защите данных, General Data Protec- tion Regulation (GDPR), где необходимо активное согла- сие каждого на хранение и использование личных данных, вместо существовавшей до этого системы включения по умолчанию («opt in» вместо «opt out») 114 . Сюда же стоит отнести борьбу за право на свободное передвижение граждан без электронных документов и биометрической регистрации; а также защиту от рутинного использования технологий распознавания лиц в общественных местах. И во-вторых, гражданское общество должно занять ведущую позицию в более широком процессе пере- 113 Терро Карппи, например, писал об арт-проекте «Фейсбучного само- убийства» Karppi T. (2011) Digital suicide and the biopolitics of leaving Facebook // Transformations Journal of Media and Culture [Электронный ресурс]. 2011. Issue No. 20 — Slow Media. URL: http://www.transforma- tionsjournal.org/journal/issue_20/article_02.shtml (дата обращения 28.02. 2020). 114 В реальности, разумеется, это право не так легко соблюсти. См., напри- мер, недавнее исследование, проведенное автором и коллегами в Вели- кобритании, о чрезмерном сборе личных данных и нарушениях личной и врачебной конфиденциальности здравоохранительными приложения- ми, теоретически находящимися в зоне власти GDPR. Kuntsman A., Miyake E., Martin S. (2019) Re-thinking Digital Health: Data, Appisation and the (im) possibility of ‘Opting out’ // Digital Health [Элек- тронный ресурс]. 2019. 9 октября. URL: https://journals.sagepub.com/ doi/10.1177/2055207619880671 (дата обращения 28.02.2020). 94 Ади Кунцман осмысления неизбежности цифры. Конкретные пред- писания здесь вряд ли уместны, так как потребности разных групп могут сильно отличаться. Также будет от- личаться и их позиция по отношению к технологической токсичности. Например, для тех, кто живет в непосред- ственной близости от электронных свалок или сервер- ных ферм, токсичность представляет прямую угрозу здоровью. Здесь главной задачей местного граждан- ского общества может быть противостояние созданию новых свалок и ферм, а также требование сноса уже существующих — от акций протеста до активного гра- жданского сопротивления. В то же время для жителей, находящихся далеко от зон токсичности, вопрос экологически чистых и этически созданных гаджетов довольно абстрактный, и здесь роль гражданского общества, в первую очередь, в создании чувства ответственности и в продвижении альтернатив: например, в уменьшении потребления информацион- ных технологий; создании альтернативных средств рас- пространения информации; починке и продлении жизни смартфонов и других гаджетов; и даже, возможно, в разра- ботке альтернативных, «долгоиграющих» приборов связи. То же самое с вопросом шаткости оцифрованной па- мяти. В тех случаях, когда память уже завязана на соц- сетях, платформах и облачных хранилищах, гражданское общество может и должно разработать как навыки, так и конкретные возможности альтернативного хранения, усиливающие свободу памяти от государства и корпора- ций, а также от технокатастроф и зависимости от при- родных ресурсов. Это может быть обратным процессом «обумажнивания» архивов, или другие, еще неведомые нашему воображению, варианты. Вместе с тем для тех граждан, чье устное или визуальное наследие существу- ет вне цифры, главной помощью будет защита от оцифро- вывания и поддержка культурной и поколенческой пре- емственности другими, не компьютерными, способами. Предугадать будущее невозможно. Может быть, че- рез десятилетие или даже раньше мы будем выглядеть, Граж данские свобо ды, ко ллективная память и эк ология в век неизбе жной цифры как герои «Авто», не представляющие свою жизнь без искусственного интеллекта, автоматизации, а также пол- ной прозрачности. А может, экокатастрофа приведет к полному разрушению информационных инфраструк- тур, и тогда наша сетевая жизнь, а также возможность централизованного контроля за ней, исчезнут в небытие. К обеим возможностям гражданское общество должно готовиться уже сегодня. 96 Лилия Земну хов а Лилия Земнухова Социолог, кандидат наук, научный сотрудник Социологического института РАН и Центра STS Европейского университета в Санкт-Петербурге Гражданское общество и контроль социальных эффектов технологий 97 Граж данск ое общ ество и контро ль социальных эффект ов те хно логий Современные технологии отражают социальные напря- жения в обществе, усиливают устоявшиеся структурные неравенства и воспроизводят культурные убеждения. Доминирующий на сегодня технократический подход в разработке технологий предполагает рациональную логику даже в отношении социальных эффектов, поэтому он ограничен и нуждается в пересмотре и включении но- вых акторов на разных этапах производства. Смена па- радигмы разработки может быть реализована благодаря разнообразию социального знания, которое должно лечь в основу принятия технологических решений еще до за- крытия «черного ящика», то есть технологии, в которую уже нельзя внести изменений. Разработка требует привлечения участников со своими сильными сферами экспертизы, особенно если речь идет о социальном развитии: необходимо участие локальных сообществ, социально ориентированных НКО и других представителей гражданского общества. При этом совместное участие разработчиков и разных общественных представителей ставит новый круг задач и вызовов. Кто эти новые акторы, как их контролировать, отслеживать и делать подотчётными, и какие для этого будут нужны компетенции? Каковы границы ответствен- ности и на чем основываться, оценивая действия акто- ров? Можно ли добиться прозрачности / технологии прозрачности? Могут ли технологии контролировать тех- нологии? Глава основана на примерах технологических трендов — приватность и этика технологий, развитие, ос- нованное на ИИ, а также блокчейн. Проблемное поле 2018-й стал годом, когда этические вопросы техноло- гического развития, и в частности искусственного ин- теллекта, официально стали заботой индустриальных игроков: в ИТ-гигантах стали создаваться внутренние ко- миссии и комитеты по этическим вопросам. После пио- 98 Лилия Земну хов а нера Microsoft рабочие группы по этике сформировали Google, SAP, Facebook. Тема этики и приватности данных стала критической не только для компаний и пользовате- лей продуктов, но и для государственных акторов. Симптоматично, что уже в 2019 году Google успел распустить свой комитет 115 после критики выбора соста- ва. Одна из представителей комитета допускала неакку- ратные высказывания в отношении ЛГБТ и мигрантов, по- этому выбор ее кандидатуры в состав комиссии по этике стал сам по себе этическим вопросом. Эта резонансная история показала, что технологическое развитие стало сферой принятия многих политических и идеологиче- ских решений, в которых могут и хотят участвовать и экс- перты, и рядовые сотрудники, и публика. Технологии не могут оставаться саморегулируемыми системами, потому что затрагивают слишком много обла- стей общественной жизни, а социальные эффекты их раз- вития зависят от того, насколько активно в их производстве и распространении участвуют представители социальных групп и сообществ. В фокусе этой главы — проблема уча- стия гражданского общества в технологическом развитии и возможностей его контроля. В большей степени будут обсуждаться три технологических тренда, в развитии ко- торых оказываются критичными не инженерные участ- ники — блокчейн, приватность и этика, а также развитие, основанное на искусственном интеллекте (ИИ). В качестве теоретического и методологического бэкграунда выбрано направление, известное как «социальное конструирова- ние технологий» (Social Construction of Technology, SCOT), из дисциплинарной сферы исследований науки и техноло- гий (Science and Technology Studies, STS). В основе идей SCOT лежит представление о том, что производство технологий не может сводиться только к ин- женерным решениям, поскольку процесс окружают много 115 Д’Онфро Дж. (2019) Google распустил совет по вопросам этики в обла- сти искусственного интеллекта после протестов сотрудников // Forbes.ru [Электронный ресурс]. 2019. 8 апреля. URL: https://www.forbes.ru/tehno - logii/374499-google-raspustil-sovet-po-voprosam-etiki-v-oblasti-iskusst- vennogo-intellekta-posle (дата обращения 26.02.2020). 99 Граж данск ое общ ество и контро ль социальных эффект ов те хно логий других групп и участников, которые не меньше влияют на процесс, чем сами инженеры. В исследовательской среде и академической литературе STS вообще и SCOT в частности развивались как попытка преодолеть ограни- ченность перспективы технологического детерминизма, который, несмотря на активную критику еще с 70–80-х годов, сегодня продолжает доминировать и сквозить во всех технологических направлениях, политиках и отчетах. SCOT обозначили поворот к технологиям в социаль- ных исследованиях, что позволило критически подойти к процессу разработки и распространения технологий, а также их использования. Ключевая мысль состояла в том, что науку и технологии необходимо рассматривать в динамическом срезе как процесс совместного участия разных социальных групп со своими интересами. Гражданское общество в этом контексте становится активным участником не только создания и модификации технологий, и даже контроля над их развитием. SCOT помо- гает понять, как принимаются те или иные технологические решения, как устроено технологическое производство и какие акторы и обстоятельства влияют на технологиче- ское развитие. Так, например, была предложена концепция «определения ситуации» (definition of situation) 116 , чтобы понимать, в каком направлении происходит изменение по- ведения в условиях структуры, процессов, группы, индиви- да. Таким образом, SCOT предоставляет объяснительные ресурсы для определения и формирования ролей таких стейкхолдеров 117 , как гражданское общество. В исследованиях особое внимание уделялось роли производства и потребления в процессе технологического развития, а четкость границ между ними ставится под во- прос. Процесс создания технологии стал рассматриваться как производство или формирование пользователя, попыт- 116 Bowker G., Star L. (1999) Sorting Things Out: Classification and Its Conse- quences. Cambridge: MIT Press. 117 Стейкхолдер — заинтересованная сторона, причастная сторона, участ- ник работ, роль в проекте — лицо или организация, имеющая права, долю, требования или интересы относительно системы или её свойств, удовле- творяющих их потребностям и ожиданиям. 100 Лилия Земну хов а ка предположить его практики. 118 Пользователям при этом уделяется отдельное внимание, поскольку они являются ак- тивными агентами изменений 119 в технологии, ее модифика- ции, перестраивания. Пользователи привносят неожидан- ные практики 120 , могут противостоять технологиям или же отказываться от них вовсе. Поворот к пользователям в ли- тературе по социальным исследованиям технологий был призван показать, как они непредсказуемы и разнообраз- ны, как они потребляют, модифицируют, одомашнивают, проектируют, перенастраивают, сопротивляются 121 Технологические приборы, артефакты конструируют- ся благодаря взаимодействиям — так, как их видят реле- вантные группы. Статус релевантных групп проявляется в пользовательских дебатах, рекламных и политических сообщениях, которые упорядочивают и закрывают об- щие представления, сформированные институциональ- ные ниши определены, связи рутинизированы. В этом контексте особыми пользователями становятся предста- вители гражданского общества благодаря их активной позиции, символической власти, потенциальному поли- тическому влиянию. Технологии могли привнести изменения разных мас- штабов, поэтому их необходимо рассматривать всегда во многих контекстах инфраструктуры, практик, институтов, культурного контекста. SCOT пытается избегать крайно- стей социологического конструирования и технологи- ческого детерминизма 122 . Для этого необходимо было наблюдать социальные последствия социотехнических 118 Woolgar S. (1991) Configuring the User: The Case of Usability Trials // Law J. (Ed), A Sociology of Monsters: Essays on Power Technology and Domina- tion. London: Routledge. С. 58–102. 119 Kline R., Pinch T. (1996) Users as agents of technological change: The so- cial construction of the automobile in the rural // Technology and Culture. Т. 37. С. 763–795. 120 Suchman L. (1987) Plans and Situated Actions: The Problem of Human Ma- chine Communication. Cambridge: Cambridge University Press. 121 Oudshoorn N., Pinch T. (Eds.) (2003) How Users Matter: The Co-Construc- tion of Users and Technology. Cambridge, Mass.: MIT Press. 122 Pinch T., Bijker W. (1984) The social construction of facts and artefacts: or how the sociology of science and the sociology of technology might benefit each other // Social Studies of Science. Т. 14. С. 399–441. 101 Граж данск ое общ ество и контро ль социальных эффект ов те хно логий изменений с помощью длительных наблюдений реальных практик — как производства, так и использования. Чтобы не разделять социальное и техническое апри- орно, нужно раскручивать событие конструирования как историю, где есть свои силы, интересы и социотехниче- ские ансамбли. Социотехнические ансамбли создаются с ранними участниками (early adopters), благодаря кото- рым получается быстрая обратная связь и основная фор- ма взаимодействия, — это кооперация. Предыстория и контекст Современные технологии оказываются хорошим зерка- лом того, что происходит в обществе. Они подчеркивают напряжения, высвечивают конфликты, вскрывают про- блемные места, усиливают страхи и даже создают новые типы различий или неравенств. Особенно хорошо это видно на примере технологий искусственного интеллек- та и машинного обучения, в основе работы которых ле- жат большие массивы данных, находящиеся в открытом доступе. А если такие данные связаны с человеческим поведением и взаимодействием, то алгоритмы быстрее всего схватывают и воспроизводят самые популярные и распространенные паттерны. Стигматизация, стереотипы, ненормативная лекси- ка — то, чему быстрее всего обучаются алгоритмы, ко- торым доступны данные о поведении пользователей Ин- тернета или конкретных приложений вроде голосовых помощников. Расизм, сексизм и другие типы дискрими- нации — те паттерны, которые проще всего распознают- ся и принимаются за норму. Социальные исследователи определяют такие закономерности, как смещения (bias) в данных: паттерны воспроизводятся потому, что они до- минируют количественно и практически беспрепятствен- но тиражируются. В отчетах «State of AI» 123 приводятся 123 Benaich N., Hogarth I. (2019) State of AI Report 2019. URL: https://www.sta- teof.ai/ (дата обращения 26.02.2020). 102 Лилия Земну хов а следующие примеры таких смещений (см. также главу Гюнай Казимзаде «Технологии культурного разнообразия против технологий дискриминации на примере систем, основанных на искусственном интеллекте»): — запрос «CEO» в поисковике по картинкам выдает на первой странице результатов «белых» мужчин; — распознаватель фото Google маркирует темнокожих как горилл; — запросы в поисковике имен, которые звучат как аф- роамериканские, сопровождаются рекламой на про- верку криминального прошлого; — функция Youtube перевода голоса в текст не распо- знает женские голоса; — камеры распознавания лиц HP не могут распозна- вать азиатов; — Amazon классифицирует литературу по тематике ЛГБТ в категорию 18+ и убирает из рейтингов продаж. Когда эмпирические факты из смещенной «реальной жиз- ни» превращаются в алгоритмически подтвержденные факты, они меняют представления о нормах и привычных убеждениях. Пока подобные наблюдения остаются в сфе- ре социального взаимодействия, они могут быть подверг- нуты критике, стать предметом обсуждения и иницииро- вать пересмотр сложившихся отношений и правил. Структурные основания таких социальных оценок и категоризаций часто остаются неосознаваемыми, но могут быть со временем выведены на дискурсивный и даже правовой уровень. Алгоритмы же играют двой- ственную роль в отношении таких смещений: с одной стороны, они делают их видимыми, но с другой — за- крепляют их технологически, оставляя их нормативный статус само собой разумеющимся. Задачами гражданского общества становятся сле- дующие направления: настаивать на повышении про- зрачности обсуждений, формировать запрос на социаль- ную экспертизу, проявлять активный интерес к доступу к технологическим изменениям и их мониторингу или контролю. Ошибки представленности данных и несба- |