Главная страница
Навигация по странице:

  • В-третьих, в каких областях дипломатической деятельности ИИ может изменить ситуацию, в какой форме и с какими рисками

  • дипломатия в век искусственного интеллекта. дипломатия в век искусственного интеллекта Рябоконь. "Социальные взаимодействия в век искусственного интеллекта "


    Скачать 40.57 Kb.
    Название"Социальные взаимодействия в век искусственного интеллекта "
    Анкордипломатия в век искусственного интеллекта
    Дата18.09.2022
    Размер40.57 Kb.
    Формат файлаdocx
    Имя файладипломатия в век искусственного интеллекта Рябоконь .docx
    ТипРеферат
    #682707

    Московский Государственный Университет

    имени М.В. Ломоносова

    Факультет политологии

    Реферат на тему:

    “Социальные взаимодействия в век искусственного интеллекта ”.

    Выполнил студент 303 группы факультета политологии МГУ

    Рябоконь Антон Ярославович

    Москва,

    2021 год

    Хотелось бы в данном реферате привести результаты исследований Дипломатической академии Эмиратов, являющейся автономным федеральным образованием и проводящим высокоэффективную дипломатическую

    подготовку, а также распространяющий исследования и идеи

    лидерства, которые способствуют пониманию дипломатии и международных отношений.

    Надо сказать, что глобальная гонка за созданием искусственных компонентов осуществления дипломатии, детерминированная возможностями разведки, расширяется с четким акцентом на военное, правительственное наблюдение и экономические приложения. Также начались исследования по изучению потенциала ИИ для решения некоторых наиболее сложных социальных проблем в мире и были найдены основания для оптимизма в отношении того, что ИИ может улучшить условия в различных социальных областях, начиная от образовательных проблем и заканчивая решением проблем здравоохранения и голода. Как и в случае с другими технологическими революциями, ИИ неизбежно будет иметь далеко идущие последствия на каждом новом витке развития наших обществ, и дипломатия, по необходимости, не может избежать его влияния.

    Вопрос о преобразующем воздействии ИИ на дипломатию связан с тремя взаимосвязанными вопросами:

    1. во-первых, что именно означает искусственный интеллект, как


    он работает и какие формы он принимает?


    1. Во-вторых, в какой степени искусственный интеллект способен революционизировать то, как политики принимают решения?




    1. В-третьих, в каких областях дипломатической деятельности ИИ может изменить ситуацию, в какой форме и с какими рисками?

    Соединяя теории развития искусственного интеллекта, принятия решений и институциональной адаптации, в рабочем документе разрабатывается аналитическая основа для изучения преобразующих отношений между ИИ в дипломатии таким образом, чтобы способствовать получению соответствующего политического понимания относительно потенциала интеграции ИИ в деятельность МИД и посольств и его вероятного влияния на основные дипломатические задачи и виды деятельности.

    Ключевыми методологическими предпосылками при это становятся:

    • Искусственный интеллект относится к деятельности, посредством которой компьютеры

    обрабатывают большие объемы данных с использованием высокоразвитых алгоритмов для имитации человеческих рассуждений и/или поведения.

    • “Эффект искусственного интеллекта” помогает объяснить движущиеся ожидания о технологии: по мере того, как ИИ внедряет новую технологию в общее пространство, люди привыкают к этой технологии, она перестает считаться искусственным интеллектом, и появляются новые технологии.

    • Дипломатические функции все еще могут традиционно выполняться существующими средствами и ресурсами без поддержки искусственного интеллекта. Однако новый потенциал, который дает искусственный интеллект, заключается в когнитивном усилении, повышении эффективности и скорости.

    • Системы искусственного интеллекта достаточно развиты концептуально, чтобы обеспечить поддержку принятия решений для широкого спектра дипломатических задач. Они, скорее всего, эволюционируют до позволяют автоматизировать рутинные задачи и услуги на оперативном и тактическом уровнях, но они, скорее всего, не будут участвовать в принятии стратегических решений по техническим и этическим причинам.

    • Структурированные решения, описательная аналитика и процедурные знания являются наиболее вероятными отправными точками для внедрения искусственного интеллекта в дипломатической сфере; они хорошо применимы к консульским услугам и международным переговорам.

    • Степень устойчивости технологических инноваций ИИ, восприятие ответственности ИИ за дипломатическое взаимодействие, этические размышления по вопросам, касающимся человеческого контроля и (гео)политических последствий ИИ, а также практические

    соображения, связанные со слежкой, представляют собой потенциальные точки выхода, которые могут побудить министерства иностранных дел (МИД) ограничить, отложить или отказаться от внедрения ИИ.

    • Потенциально революционный вклад ИИ в дипломатию будет заключаться в том, чтобы помочь лицу, принимающему решения, определить курс действий динамичным образом; то есть путем постоянной и автоматической адаптации своих рекомендаций на основе непрерывного описания, диагностики, прогнозирования и циклы действий.

    • Министерства иностранных дел могли развернуть, базу TIID как концептуальный план проектирования, поставки и развертывания решений ИИ в дипломатии, которая сочетает в себе соображения о том, что цель (задача совершенствования), как выполнить это (новшество), с тем, что какие ресурсы (физические/цифровые интеграции) и в какие институциональные конфигурации (развертывания).

    Термин “искусственный интеллект” был впервые введен американским ученым-компьютерщиком Джоном Маккарти в 1956 году, который определил ИИ как “науку и технику создания интеллектуальных машин, особенно интеллектуальных компьютерных программ”. В общих чертах ИИ относится к деятельности, посредством которой компьютеры обрабатывают большие объемы данных с использованием высокоразвитых алгоритмов для имитации человеческих рассуждений и/или поведения.

    С 1950 года способность машины действовать по-человечески оценивается на основе теста Тьюринга. Чтобы пройти тест, машина должна быть способна вступать в диалог в течение не менее пяти минут таким образом, чтобы человек, проводящий допрос, не мог отличить ее поведение от поведения человека.

    Чтобы действовать по-человечески, машина должна соответствовать двум условиям: соответствующим образом реагировать на различия в человеческом диалоге и проявлять человеческую индивидуальность и намерения. До сих пор ни одна машина не прошла тест, и некоторые исследователи полагают, что по математическим причинам было бы фактически невозможно запрограммировать машину, которая может овладейте сложной и развивающейся моделью различий, которая содержится в человеческих диалогах. Мышление по-человечески, с другой стороны, означало бы, что машина сможет мыслить как человек, то есть она сможет хранить, обрабатывать, организовывать информацию так, чтобы она могла решать проблемы и делать выводы о новых ситуациях. Опираясь на теории когнитивной теории, область когнитивных вычислений взяла на себя ведущую роль в объединении символических методов со статистическими методами для изучения того, как ИИ может рассуждать и учиться с огромными объемами данных.

    Рассел и Норвиг используют эти два измерения (рассуждения и поведение), чтобы сгруппировать определения ИИ в соответствии с тем акцентом, который они делают на мышлении и действиях по-человечески. Определения касаются, например, мыслительных процессов и рассуждений и рациональной производительности в целом.

    Другой подход к определению ИИ заключается в увеличении масштаба двух составляющих компонентов концепции. Нильс Дж. Нильсон определяет, например, искусственный интеллект как “деятельность, направленную на то, чтобы сделать машины интеллектуальными”, в то время как “интеллект - это то качество, которое позволяет организации функционировать надлежащим образом и предусмотрительно в своей среде”. Повторяя мнение Нильссона, Группа высокого уровня Европейской комиссии по ИИ обеспечивает более полное понимание этого термина:

    “Системы искусственного интеллекта (ИИ) - это программные (и, возможно, также аппаратные) системы, разработанные людьми, которые, учитывая сложную цель, действуют в физическом или цифровом измерении воспринимая окружающую среду посредством сбора данных, интерпретируя собранные структурированные или неструктурированные данные, рассуждения о знаниях или обработка информации, полученной на основе этих данных, и принятие решения о наилучших действиях, которые необходимо предпринять для достижения поставленной цели”.

    Подводя итог, можно сказать, что, хотя концепция искусственного интеллекта продолжает развиваться, можно утверждать, что стремление

    расширить границы машинного интеллекта является главным якорем, скрепляющим эту концепцию. Как отмечают авторы доклада “Искусственный интеллект и жизнь в 2030 году”, мы не должны ожидать, что ИИ будет “доставить” продукт, меняющий жизнь, а скорее продолжать создавать постепенные улучшения в своем стремлении достичь и, возможно, превзойти человеческие стандарты мышления и поведения. При этом ИИ также приводит в действие так называемый “эффект ИИ”: по мере того, как ИИ внедряет новую технологию в общее русло, люди привыкают к

    этой технологии, она перестает считаться ИИ, и появляются новые технологии.
    Подходы. Три различных подхода определяют пути развития искусственного интеллекта. Первый - символический искусственный интеллект,

    также известный как Старый добрый искусственный интеллект (GOFAI), который относится к созданию экспертных систем и производственных

    правил, позволяющих машине определять поведенческие пути. Компания IBM Deep Blue, победившая Гарри Каспарова в шахматы в 1997 году, использовала такой символический подход. DeepBlue имитировал поведение гроссмейстера, используя алгоритм, извлекающий значение из набора статических правил, разработанных человеком для интерпретации и обеспечения оптимального ответа на конкретный шахматный ход. Главное преимущество GOFAI заключается в том, что процесс с помощью то, какое решение принимает алгоритм, является прозрачным, поддающимся проверке и объяснению. Точное знание правил и того, как алгоритм объединяет их в деревья решений, позволяет поэтапно тестировать и повышать эффективность системы. В то же время в этом также кроется главная слабость GOFAI: его неспособность адаптироваться без вмешательства человека к новым обстоятельствам, учитывая тот факт, что он должен

    строго следовать заученному набору правил.
    Коннекционистские, вычислительные или несимволические подходы к искусственному интеллекту предполагают предоставление необработанных

    данные об окружающей среде передаются в машину и позволяют ей распознавать закономерности и создавать собственные сложные, многомерные представления необработанных сенсорных данных, предоставляемых ей. Другими словами, коннекционистские

    системы способны обучаться на основе необработанных данных без прямого вмешательства человека. Это может произойти с помощью

    машинного обучения (ML), с помощью которого машина может учиться самостоятельно, используя статистические модели без

    явного программирования, или с помощью глубокого обучения (DL), более сложной формы ML, которая использует многоуровневую структуру

    алгоритмов, воспроизводящих искусственную нейронную сеть для обработки и классификации информации.
    Алгоритм новостной ленты Facebook является примером подхода к машинному обучению, направленного на содействие “значимому социальному взаимодействию” путем придания большего значения параметрам, которые делают публикацию личной, привлекательной и достойной обсуждения. Машин глубокого обучения, с другой стороны, делают еще один шаг вперед и позволяют, среди прочего, автоматически переводить с одного языка на другой или точно распознавать и идентифицировать людей и объекты на изображениях. AlphaZero, программа искусственного интеллекта Google, является одним из наиболее успешных приложений DL. Начав со случайной игры и не имея никаких знаний в предметной области, кроме правил игры, Alpha Zero убедительно победила

    программу-чемпиона мира в играх в шахматы и сеги (японские шахматы), а также в Go, в другую национальная восточную компьютерную игру.
    При этом отсутствие интерпретируемости того, как алгоритмы принимают решения, плохое обобщение результатов при использовании данных за пределами распределения, на котором была обучена нейронная сеть, и неэффективность данных подвергли системы ИИ-коннекционистов законной критике и стимулировали попытки согласовать глубокие обучение с помощью символического искусственного интеллекта. Таким образом, гибридные подходы появились в качестве возможного промежуточного

    базового решения, сочетающеего минимальные обучающие данные и отсутствие явного программирования с возможностью облегчения

    простого обобщения путем получения символического представления из контролируемых учебных ситуаций. Гибридные системы определяют пути для алгоритмических вычислений путем приоритизации распределенных и локальных представлений объектов и концепций для решения низкоуровневых и сложных задач.
    Точно так же, как автомобили различаются по качеству и производительности, программы искусственного интеллекта также значительно различаются по широкому спектру - от элементарных до сверхинтеллектуальных форм. В консульских и дипломатических

    делах левая сторона этого спектра уже видна. На нижней границе шкалы сложности чат-боты теперь помогают с подачей заявлений на визу, юридической помощью беженцам и консульской регистрацией.
    В то же время министерства иностранных дел разрабатывают алгоритмы, которые либо способствуют распространению позитивных повествований, либо препятствуют онлайн- дезинформации и пропаганде. Однако все эти приложения, независимо от степени их технической сложности, подпадают под категорию "узкого" или "слабого" искусственного интеллекта, поскольку они запрограммированы на выполнение одной задачи. Они извлекают и обрабатывают информацию из определенного набора данных для предоставления рекомендаций по правовым вопросам и

    консульским услугам. "Узкое" обозначение таких приложений искусственного интеллекта связано с тем фактом, что они не могут

    выполнять задачи за пределами информационных границ, очерченных их набором данных.

    Напротив, общий ИИ относится к машинам, которые проявляют человеческие способности, начиная от решения проблем и

    творчества и заканчивая принятием решений в условиях неопределенности и абстрактным мышлением. Таким образом, они способны

    выполнять интеллектуальную деятельность, как люди, без какой-либо внешней помощи. Самое главное, что для сильного ИИ потребуется некоторая форма самосознания или сознания, чтобы иметь возможность полноценно функционировать. Если да, то сильный ИИ может достичь такой точки, когда он сможет не только имитировать человеческий мозг, но и превзойти когнитивные способности людей во всех областях, представляющих интерес. Это то, что Ник Бостром называет суперинтеллект, ИИ система, которая может делать все, что человеческий интеллект может сделать, но быстрее (скорость суперинтеллекта), или что он может

    совокупность большого числа мелких разумных существ (‘коллективного сверхразума’) или что это как минимум так же быстро, как

    человеческий разум, но значительно умнее и качественнее (качество суперинтеллекта).

    При этом сильный ИИ, не говоря уже о суперинтеллекте, в настоящее время остается всего лишь теоретическими конструкциями, поскольку

    все приложения, разработанные до сих пор, в том числе те, которые привлекли внимание средств массовой информации, таких как Amazon, беспилотные прототипы Alexa или Tesla благополучно попадают в категорию узкого искусственного интеллекта. Однако это может измениться в

    ближайшем будущем, особенно если технологии квантовых вычислений достигнут значительного прогресса. Результаты большого опроса исследователей машинного обучения об их представлениях о прогрессе в области искусственного интеллекта относительно оптимистичны.

    Исследователи предсказывают, что ИИ превзойдет людей во многих видах деятельности в ближайшие десять лет, таких как перевод

    языков (к 2024 году), написание школьных сочинений (к 2026 году), вождение грузовика (к 2027 году), работа в розничной торговле (к

    2031), написание бестселлера (к 2049 году) и даже работа хирургом (к 2053 году). Кроме того они считают, что существует 50%-ная вероятность того, что ИИ превзойдет людей во всех задачах через 45 лет и автоматизирует все

    человеческие рабочие места через 120 лет. Поскольку в обозримом будущем в области ИИ по-прежнему будут доминировать "узкие" приложения, функциональность на основе памяти стала альтернативным ориентиром для классификации ИИ.

    • Реактивные машины: Эта форма интеллекта довольно проста. Он не обладает способностью формировать воспоминания и не может использовать прошлый опыт для принятия обоснованных решений. Он воспринимает мир непосредственно и реагирует на то , что "видит", но не имеет представления о мире. Шахматная программа IBM, которая победила Гарри Каспаров в 1990-е годы - хороший пример реактивной машины. Он смотрел на фигуры на шахматной доске, чтобы оценить оптимальный ход среди различных возможностей, но без какой-либо памяти о своих прошлых ходах и

    без какого-либо символического представления о самой игре в шахматы.

    • Ограниченная память: Эта категория относится к системам искусственного интеллекта, которые могут использовать прошлый опыт для принятия текущих решений, но эти воспоминания преходящи. Они не могут быть преобразованы в долгосрочный опыт, который нужно вспомнить и

    используется для принятия решений в аналогичных ситуациях. Однако у них есть заранее запрограммированные представления о мире, чтобы направлять применение кратковременной памяти при принятии решений. Самоуправляемые автомобили используют датчики, например, для формирования временной памяти о случаях входящего движения и дорожных условиях. Затем они интегрируют эти воспоминания в заранее запрограммированные представления о дорожном транспорте (дорожные знаки, светофоры, правила вождения) и принимают соответствующие решения о том, как безопасно перемещаться.

    • Теория разума: Следующий уровень интеллекта имеет социальное измерение. Он формирует представления о мире, учась определять ментальные состояния существ, населяющих мир (их эмоции, убеждения, намерения). Этот процесс обучения способствует формированию долговременной памяти, которая используется для адаптации поведения в ответ на внешние раздражители. Amazon, похоже, движется в этом направлении, работая над носимым устройством, которое даст Alexa, своему флагманскому устройству с искусственным интеллектом, возможность считывать человеческие эмоции и посоветовать владельцу, как более эффективно взаимодействовать с другими людьми.

    • Самосознание: Последняя стадия развития ИИ происходит, когда интеллект становится способным не только понимать психические состояния других, но и самого себя. Другими словами, это развивает сознание. Вместо того чтобы оставаться замкнутым в запрограммированной обстановке, которая обучает его имитировать когнитивные функции человека, самосознающий ИИ учится думать о себе и окружающей среде. Эта форма интеллекта хорошо соответствует трем концепциям суперинтеллекта Бострома, упомянутым выше (скорость, коллектив, качество). Вторя скептицизму Бострома, это, вероятно, безопасно сказать, что развитие самосознанием ИИ остается маловероятным на данный момент без прорывов в оборудовании (скорость вычислений, хранения, емкость, надежность) и программного обеспечения (цель координации, обмен памяти), а также в нейро-наука (особенно о связи мозга и обучения).
    “Я верю, что в конце века употребление слов и общее образованное мнение настолько изменятся, что можно будет говорить о мыслящих машинах, не ожидая, что им будут противоречить” , - говорил Алан Тьюринг. Размышляя о влиянии ИИ на наши общества, возможно, полезно вспомнить знаменитое высказывание бывшего министра обороны США Дональда Рамсфелда о роли эпистемологического фрейминга в стратегическом мышлении: “Как мы знаем, есть известные знания; есть вещи, которые мы знаем, что мы знаем. Мы также знаем, что существуют известные неизвестные; то есть мы знаем, что есть некоторые вещи, которых мы не знаем. Но есть также неизвестные

    неизвестные - те, которых мы не знаем, мы не знаем, именно последняя категория, как правило, является самой трудной”. Эта логика рассуждений удивительно хорошо отражает текущие дебаты о технологическом развитии искусственного интеллекта.
    Более конкретно, существует значительная путаница в отношении того, что ИИ может делать концептуально, что он может сделать в будущем, и в отношении того, что мы еще не знаем, сможет ли ИИ сделать. Чтобы прояснить эти различия, в этом разделе подробно рассматриваются концептуальные прорывы, обещания и возможности, которые

    Искусственный интеллект уже есть или может появиться в области принятия решений. Знание - это сила, как однажды проницательно заметил сэр Фрэнсис Бэкон, но только в том случае, если, можно было бы добавить, что приобретенная таким образом сила ведет к правильным решениям. ИИ действительно обладает потенциалом революционизировать способ принятия решений, и приэтом он способен создавать важные возможности, а также проблемы для разработки политики в иностранных дел в целом и в дипломатии в частности.
    Концептуально говоря, что именно может сделать искусственный интеллект и насколько эффективно он может помочь в принятии решений? Концепции

    экспертной системы, структурированности решений и воплощенных знаний играют центральную роль в решении этой двойной проблемы.

    вопрос. Экспертные системы объединяют базу знаний (базу данных соответствующей информации о конкретном предмете) и набор правил для решения проблем способом, аналогичным человеческому эксперту. Системы, основанные на знаниях, могут помочь в принятии решений, выполняя одну из следующих функций:

    • В качестве помощника, привлеченного лицом, принимающим решения, для выполнения конкретной задачи в рамках более широкого мероприятия.

    • В качестве критика, рассматривающего уже выполненную работу и комментирующего такие аспекты, как точность, последовательность и

    полнота.
    Идея использования возможностей искусственного интеллекта для облегчения принятия решений в любой из этих ролей явно привлекательна,

    но для того, чтобы она работала, необходимо учитывать два возможных ограничения. Первый связан со степенью структурированности решения, то есть с тем, насколько повторяющимися и рутинными являются некоторые из этих решений (структурированные решения), насколько новыми и без четких альтернатив могут быть другие (неструктурированные решения), и как далеко в этом спектре может находиться третья категория решений (полуструктурированные решения). Предполагается, что

    что структурированные решения более поддаются моделированию ИИ, в то время как неструктурированные решения менее подвержены

    этому, поскольку они, как правило, полагаются на суждения и проницательность лица, принимающего решения. Экспериментальные результаты, изучающие три уровня принятия организационных решений, т.е. стратегические (неструктурированные), тактические (структурированные) и оперативные решения (высоко структурированные), обеспечивают эмпирическую поддержку этой точки зрения.
    Второе ограничение связано со степенью интерактивности между лицом, принимающим решения, и системой поддержки искусственного интеллекта, поскольку картина "закрытого мира" традиционных экспертных систем занижает уровень переговоров и взаимодействия, который существует и, как ожидается, будет культивироваться между людьми и машинами. Как упоминалось в другом месте, предлагая понимание взаимосвязи между информационными технологиями и социальными

    Контекстами исследования в области социальной информатики (SI) направлены на улучшение понимания того, как люди и информационные технологии взаимодействуют и влияют друг на друга.
    Исследование типа знаний, встроенных в системы искусственного интеллекта, выявляет некоторые интересные закономерности, по

    которым могут развиваться отношения между человеком и машиной. “Расширение” включает, например, воплощение телеологических знаний для расширения познания, тем самым увеличивая человеческую работу. “Освобождение” относится к воплощению условных знаний для осуществления человеческого познания, тем самым стимулируя человеческую работу (то есть уменьшая рабочую нагрузку за счет автономного выполнения работы). “Оснащение” - это воплощение процедурных знаний способствовать развитию человеческого познания, тем самым помогая работе (то есть снижая когнитивные усилия).

    “Ускорение” предполагает воплощение декларативных знаний для автоматизации работы (то есть сокращения физических усилий работников).

    Чтобы проиллюстрировать это, дипломатическая система искусственного интеллекта с декларативными знаниями (ноу-хау) сможет собирать,

    агрегировать и хранить общедоступную информацию о позициях различных сторон на переговорах.

    Человек, обладающий процедурными знаниями (ноу-хау), сможет извлекать соответствующую информацию на основе определенных

    входные критерии, помогающие участникам переговоров в их работе. Система искусственного интеллекта с условными знаниями (ноу-хау)

    был бы в состоянии понять условия для использования декларативных и процедурных знаний, таких как, когда система может распознать потенциал прорыва в переговорах и предоставить соответствующую информацию,

    чтобы это произошло.


    написать администратору сайта