Главная страница

Эссе. DeepFake в чем опасность обществу и государству эссе


Скачать 19.49 Kb.
НазваниеDeepFake в чем опасность обществу и государству эссе
Дата28.11.2022
Размер19.49 Kb.
Формат файлаdocx
Имя файлаЭссе .docx
ТипДокументы
#816618

Выполнил Григорьев В.С.
Эссе на тему: «DeepFake в чем опасность обществу и государству эссе»
В начале февраля 2020 года широкий резонанс вызвала новость о том, что индийский политик Маной Тивари эффективно использовал специализированное программное обеспечение «подмены лиц» Deepfake (или FaceSwap) для того, чтобы создать «дипфейк» собственного рекламного ролика на разных языках для того, чтобы привлечь больше избирателей. Данное событие стало очередной убедительной иллюстрацией как значительного политического и маркетингового потенциала дипфейков, так и возможных угроз, исходящих от их применения, включая манипулирование общественным мнением, вмешательство в личную жизнь граждан и конфликтную мобилизацию этнических или протестных групп.

Актуальность рассматриваемой темы поднимает вопрос о том, насколько легальной и допустимой практикой является использование дипфейков «нового поколения» в публичной, и тем более, в политической деятельности.

Само понятие «Deepfake» образовалось от сочетания терминов «глубокое обучение» и «подделка». Deepfakes – это методика компьютерного синтеза изображения, основанная на искусственном интеллекте, которая используется для соединения и наложения существующих изображений и видео на исходные изображения или видеоролики. Искусственный интеллект использует синтез изображения человека – объединяет несколько картинок, на которых человек запечатлен с разных ракурсов и с разным выражением лица, и делает из них видео. Анализируя фотографии, специальный алгоритм «само- обучается» тому, как выглядит и может двигаться человек. Сам по себе синтез изображений, видео или аудио может не иметь очевидных социально-опасных целей, однако манипулирование средствами массовой информации с использованием изображений, видео или голосов реальных людей создает целый комплекс моральных, юридических и управленческих проблем.

Deepfakes может достаточно достоверно изображать людей, совершающих действия, которых они в действительности никогда не делали, или говорящих такие вещи, которые они никогда не говорили. Формируя модели от сотен до тысяч целевых изображений, алгоритмы deepfake «узнают», как выглядит чье-то лицо под разными углами и в различных выражениях. С помощью самообучения алгоритм может предсказать, как будет выглядеть лицо целевого индивида (или жертвы информационной диверсии), имитирующее выражение лица другого человека. Аналогичный процесс используется для тренировки алгоритма deepfake для имитации акцента, интонации и тона чьего-либо голоса.

Квалификационные и технические требования для создания качественных дипфейков невелики. Любой мотивированный человек с ПК среднего уровня может создавать deepfakes. На открытых ресурсах Интернет в свобод- ном доступе находится ряд программ с открытым исходным кодом, например DeepFaceLab и FaceSwap

Говоря о потенциальных опасностях Deepfakes стоит отметить, что Уже в ближайшем будущем deepfakes может затронуть различные уровни общественной и политической жизни и способствовать распространению широкого спектра угроз: от репутационных рисков для знаменитостей и обычных граждан, до развития организованной преступности и проблем социальной стабильности и национальной безопасности.

Во-первых, существуют значительные угрозы злоупотреблений на индивидуальном уровне. Дипфейки можно использовать для «киберзапугивания», клеветы и шантажа отдельных лиц, в том числе журналистов и полити- ков. Так, в 2017 году сеть захлестнула волна порнографии с deepfake лицами знаменитостей, наложенными на тела порноактрис. Интернет-травля отдель- ных публичных лиц (в первую очередь женщин) при помощи дипфейк-кон- тента непристойного и порнографического содержания имеет наиболее разрушительный эффект в азиатских странах.

Во-вторых, возможностями технологии deepfake может воспользоваться организованная преступность. Deepfakes может стать «золотой жилой» для преступных организаций и виртуальных мошенников. Конечно, наиболее серьезные опасения вызывает потенциал использования технологий создания дипфейков для разжигания конфликтов, массовых гражданских беспорядков и подрыва национальной безопасности. Например, во многих странах можно провоцировать межэтнические или межконфессиональные столкновения выкладывая в социальные сети фейковые видео, где представитель определенной группы высказывается или осуществляет иные действия, которые могут быть восприняты другими как оскорбление. Если широкие слои населения не будут осведомлены о феномене deepfakes и их возможностях, то любое такое поддельное видео с провокационным контентом может приписать любому политику или представителю какого-либо эт- носа экстремистский посыл. В свою очередь любая попытка властей реагировать и объяснять технологию дипфейков постфактум окажется запоздалой в такой ситуации. По мере развития медиатехнологий их аудитория становится все более вовлеченной. В условиях высокой сетевой вовлеченности становится нелегко опровергнуть фальсифицированное видео после того, как оно было просмотрено большим количеством людей.

Несмотря на реальную опасность deepfakes, следует признать, что данная технология – в первую очередь просто технический инструмент, который имеет больше положительных применений, чем отрицательных. Однако сегодня правительства стоят перед необходимостью разработать и предпринять определенный комплекс действий и мер предосторожности, чтобы свести к минимуму возможность ущерба от использования deepfakes с негативными и преступными намерениями.

Данная проблематика уже стоит в политической повестке ряда стран. Например, летом 2019 года Комитет по разведке Палаты представителей США провел открытые слушания по тематике угроз национальной безопасности, создаваемых искусственным интеллектом, в первую очередь deepfake AI, в ходе которых было единогласно принято решение о том, что дипфейки представляют реальную угрозу для американского общества на различных уровнях. Ведутся дебаты о принятии закона, запрещающего должностным лицам и агентствам Соединенных Штатов создавать и распространять такой контент. В настоящий момент в США завершается подготовка проекта федерального закона, регулирующего данную сферу.

В России в настоящее время также идет анализ возможностей ограниче- ния неконтролируемого распространения дипфейков в рамках уже принятых законов, направленных на борьбу с недостоверной информацией, публикуе- мой под видом общественно значимых достоверных сообщений.

Конечно, распространение опасных дипфейков должно сдерживаться при помощи внедрения и совершенствования механизмов фактчекинга (проверки сообщений и выявления фейков). Частные лица, социальные медиа-платформы и особенно СМИ должны иметь инструменты для быстрого и эффективного тестирования информационных сообщений, аудио- и видеозапи- сей, которые они подозревают в подделке. Также желательно, чтобы конечные пользователи – люди были в состоянии определить, является ли подлинной ин- формация, которую они просматривают и которой делятся с другими. Таким образом, приоритетной задачей является развитие сервисов и инструментов фактчекинга. В идеале они должны быть простыми (т.е. не требующими для использования серьезных ИТ-навыков и специального образования) и бесплатными, что труднодостижимо и требует соответствующих инвестиций.

В качестве приоритетного направления сегодня рассматривается государственный контроль и давление на сервисы социальных сетей с целью бо- лее серьезной модерации их контента и внедрения инструментов фактчекинга. Таким образом, веб-сайты и онлайн-платформы, на которых распространяется потенциально опасная фейковая информация, должны нести ответственность и определенную подотчетность. Сегодня анализируются правовые и информационные механизмы, побуждающие социальные сети и мессенджеры более тщательно маркировать «синтетические медиа», повышать осведомленность общественности о таких материалах.

Вопросом времени является введение в действие законов, запрещающих определенный неправомерный контент deepfake. Разработка проектов таких законов уже идет в ряде стран мира.

В то же время радикальные меры, подобные инициативам удалить алгоритмы deepfake из публичного доступа, являются сомнительными и фактически нереализуемыми. Помимо того, что соответствующее программное обеспечение уже установлено на миллионах компьютеров по всему миру, консервация и игнорирование данной технологии приведет к обратным эффектам – станет намного сложнее противодействовать агрессивной дезинформации с использованием дипфейков, а медиаграмотность, и, соответственно, ин- формационная устойчивость общества искусственно затормозится в своем развитии. Сегодня же происходит постепенный процесс адаптации общества и сетевой культуры к новым медийным возможностям. Дипфейки входят в массовую культуру и эстетизируются, их возможности используются для создания развлекательного контента. В ближайшие годы мы сможем оценить политический потенциал применения дипфейков и правительствам важно подготовиться к этому.


написать администратору сайта