Главная страница
Навигация по странице:

  • Группа

  • Этика искусственного интеллекта

  • Угроза человеческому достоинству

  • ИИ определяет идеальную пару для пересадки печени

  • Девять главных этических проблем искусственного интеллекта

  • 3. Гуманность

  • Искусственный интелект. Биоэтика и проблема искусственного интелекта


    Скачать 1.01 Mb.
    НазваниеБиоэтика и проблема искусственного интелекта
    АнкорИскусственный интелект
    Дата27.02.2022
    Размер1.01 Mb.
    Формат файлаpptx
    Имя файлаИскусственный интелект.pptx
    ТипПрезентация
    #375658

    Презентация на тему: «Биоэтика и проблема искусственного интелекта»

    Ф.И.О. докторанта: Кырыкбаев Д.Р.

    Образовательная программа: «Общественное здравоохранение»

    Группа: Д.ОЗ. 1р.-21

    Алматы 2021г.

    Искусственный интеллект (ИИ)

    • Общий искусственный интеллект – машинный интеллект, который способен решать те же задачи, что и человеческий мозг
    • Специализированный ИИ (СИИ) – машинный интеллект, способный анализировать и решать задачи в узкоспециализированной области.
    • Современные решения в области ИИ относятся к его специализированному типу.
    • Так что имеется в виду под ИИ, так как даже среди ученых и разработчиков это понятие до сих пор остается весьма размытым. Обычно речь идет в первую очередь про решения на основе технологий машинного обучения для выполнения сложных прикладных задач — от распознавания изображений и речи до управления транспортом.
    • Конкретный пример — медицинская генетика. С развитием молекулярной биологии, расшифровкой структуры ДНК и прорывом в области редактирования генома тема биоэтики как автономной дисциплины на стыке естественнонаучного и философского знания становится центральной. Если еще пятнадцать лет назад расшифровка генома человека стоила более $10 млн, то сегодня цена начинается с $1000, а завтра она опустится еще ниже. Есть огромный массив геномных данных, в том числе о потенциальных генетических заболеваниях и индивидуальных рисках развития патологических состояний. А допустимо ли морально, этически определять наличие у человека склонности к футболу и музыке и исходя из этого решать, кого принимать в футбольную секцию или в музыкальную школу?
    • Этика искусственного интеллекта является частью этики технологий характерной для роботов и других искусственно интеллектуальных существ. Она обычно подразделяется на робоэтику, которая решает вопросы морального поведения людей при проектировании, конструировании, использовании и лечении искусственно разумных существ и машинную этику, которая затрагивает проблемы морального поведения искусственных моральных агентов (ИМА).

    Угроза человеческому достоинству

    • Джозеф Вейзенбаум утверждал в 1976 году, что технология искусственного интеллекта не должна использоваться для замены людей на должностях, требующих уважения и заботы, таких как:
    • Сотрудник служба поддержки клиентов (технологии ИИ уже используется сегодня в телефонных системах интерактивных голосовых ответов)
    • Терапевт (как было предложено Кеннетом Колби в 1970-х годах)
    • Сиделка для пожилых людей (как рассказала Памела МакКордак в своей книге «Пятое поколение»)
    • Солдат
    • Судья
    • Полицейский
    • Вайзенбаум объясняет, что от людей на этих должностях мы требуем подлинного чувства эмпатии. Если машины их заменят, мы окажемся отчужденными, обесцененными и разочарованными. Искусственный интеллект, если его использовать таким образом, представляет угрозу для человеческого достоинства. Вайзенбаум утверждает, что факт того, что мы рассматриваем возможность машинам занимать эти позиции, говорит о том, что мы испытали «атрофию человеческого духа, возникающую из-за того, что мы думаем о себе как о компьютерах»

    Предвзятость в системах ИИ

    • ИИ становится все более неотъемлемой частью систем распознавания лиц и голоса. Некоторые из этих систем имеют реальное влияние на бизнес и людей. Эти системы уязвимы для предвзятостей и ошибок, вносимых создателями-людьми. Кроме того, данные, используемые для обучения самих этих систем ИИ, могут иметь искажения. Например, алгоритмы распознавания лиц, разработанные Microsoft, IBM и Face++, оказались необъективны, когда дело дошло до определения пола людей. Эти системы искусственного интеллекта были в состоянии определять пол белых мужчин более точно, чем пол темнокожих мужчин. Ещё одним примером необъективности ИИ стало прекращение со стороны Amazon’s.com Inc использования ИИ для найма сотрудников. Алгоритм предпочитал больше кандидатов-мужчин, чем женщин. Это произошло потому, что система Amazon была обучена с использованием данных, собранных за 10-летний период, которые поступали в основном от кандидатов-мужчин

    Ответственность за частично или полностью беспилотные автомобили

    • Есть все основания считать, что в будущем неизбежно широкое использование частично или полностью беспилотных автомобилей. Но полностью автономные технологии ставят перед нами новые проблемы и вызовы. В последнее время поднялись дебаты по поводу юридической ответственности сторон при попадании беспилотных автомобилей в аварии. В одном из отчётов автомобиль без водителя сбил пешехода и встала проблема, кто виноват в аварии. Несмотря на то, что водитель во время аварии находился в автомобиле, органы управления были полностью в руках компьютера. Необходимо решить такого рода вопросы прежде, чем беспилотные автомобили будут иметь широкое распространение.

    Неожиданные последствия

    • Многие исследователи утверждают, что в результате «интеллектуального взрыва», произошедшего где-то в XXI веке, самосовершенствующийся ИИ может стать настолько мощнее людей, что мы не сможем помешать ему достичь своих целей[72]. В своей статье «Этические проблемы в продвинутом искусственном интеллекте» философ Ник Бостром утверждает, что искусственный интеллект способен вызвать вымирание человека. Он утверждает, что общий сверхразум способен на самостоятельную инициативу и на создание собственных планов, и поэтому его более целесообразно рассматривать как автономного агента. Поскольку искусственный интеллект не обязан разделять человеческие мотивации, разработчики супер-интеллекта должны были бы заложить его первоначальную мотивацию. Теоретически, сверхинтеллектуальный ИИ сможет привести к практически любому возможному исходу и пресечь любую попытку помешать достижению своей главной цели, может возникнуть много неконтролируемых непреднамеренных последствий. Это может убить всех других агентов, убедить их изменить свое поведение или заблокировать их попытки вмешательства.
    • Однако вместо того, чтобы превзойти человеческую расу и вести её к разрушению, Бостром также утверждает, что супер-интеллект может помочь нам решить многие сложные проблемы, такие как болезни, бедность, разрушение окружающей среды, и может помочь нам «улучшить» себя.

    Онкология и не только

    • Использование ИИ в медицине является абсолютно оправданным. Например, совместное исследование Beth Israel Deaconess Medical Center, Harvard Medical School и Massachusetts Institute of Technology, проведенное в 2016 году и посвященное диагностике метастатического рака груди, показало, что ошибка диагностики нейросетью составляет 7,5%, специалистом-онкологом 3,5%, а при их взаимодействии всего 0,5%, т.е. количественное улучшение составляет 85%.
    • Компания Roche активно работает над повышением точности диагностики рака по гистологическим снимкам. В июне 2016 года представитель Roche делал презентацию на саммите по Apache Spark (фреймворк для распределенной обработки Big Data) в Сан-Франциско, где были продемонстрированы хорошие результаты проводимого исследования по пространственному анализу гистологических снимков. Работа основана на методе DBSCAN (density-based spatial clastering of application with noise), а вычисления проводятся над Big Data (анализ 5,3 трлн комбинаций) с помощью Apache Spark.

    ИИ определяет идеальную пару для пересадки печени

    • В госпитале Austin Health (Мельбурн, Австралия) создали систему, основанную на машинном обучении, которая подбирает идеального реципиента для пересадки печени от появившегося донора. Разработчики вдохновились сайтами знакомств, где вы регистрируетесь, заполняете анкету, и вам тут же подбирают несколько подходящих кандидатур. Так и в Austin Health - при появлении нового донора система тут же подбирает наиболее подходящих реципиентов из списка ожидания, основываясь на возрасте, размерах тела, группе крови и десятках других параметров. Говорят, что таким образом удалось снизить уровень отторжения органов с 32% до 16%.

    VR в обучении

    • VR-технология позволяет проводить обучение студентов-медиков и молодых стоматологов в безопасном и контролируемом окружении, позволяя им тренироваться, делать ошибки, не вредя никакому живому пациенту. Эта технология позволяет им подготовиться к любым неожиданным ситуациям и путем многочисленных повторов понять, как с ними справляться.
    • Проводя виртуальные операции и процедуры, имея возможность взаимодействовать с виртуальным пациентом, студенты могут оттачивать свои навыки, которые затем смогут применить в реальном мире.

    Почему не так всё хорошо?

    • Проблема 1 : вопрос конфиденциальности персональных медицинских данных. Доступ к персональной информации, касающейся здоровья, -- вопрос довольно чувствительный, и часто регламентируется различными нормативно-правовыми актами. В США таковым является HIPAA (Health Insurance Portability and Accountability Act), принятый в 1996 году. Возникает много вопросов о том, где, как будут храниться эти данные, а также кто будет иметь к ним доступ. Кто будет финансировать на практике разработку, внедрение и поддержку подобного рода систем? Последние скандалы с различными взломами, утечками и хакерскими атаками, к сожалению, не добавляют отптимизма.
    • Проблема 2 : человеческий страх. Очевидно, что пациенту (пока) проще доверить провести диагностику/операцию человеку нежели компьютеру (не говоря уже про автономных роботов), пусть и с высокоразвитым ИИ. Не все психологические барьеры легко (и быстро) преодолимы.

    Девять главных этических проблем искусственного интеллекта

    • 1. Безработица. 
    • 2. Неравенство (в результате, лица, владеющие компаниями, где работу выполняет ИИ, будут получать все деньги).
    • 3. Гуманность (машины влияют на наше поведение и взаимодействие).
    • 4. Искусственная тупость.
    • 5. Роботы-расисты.
    • 6. Безопасность.
    • 7. Злые гении. 
    • 8. Сингулярность (мы не можем полагаться только на вытягивание вилки из розетки, потому что достаточно продвинутая машина сможет предвидеть этот шаг и защитить себя. Это то, что называют «сингулярностью»: момент, когда человеческие существа перестанут быть наиболее умными на Земле).
    • 9. Права роботов. 
    • Некоторые этические вопросы касаются смягчения стараний, некоторые — риска негативных последствий. Пока мы рассматриваем эти риски, мы также должны держать в голове то, что в целом этот технологический прогресс означает лучшую жизнь для всех. Искусственный интеллект имеет огромный потенциал, и его ответственное использование зависит от нас.
    • Мир научился собирать и анализировать данные, но ответа на вопрос об этичности их использования в коммерческих целях у общества пока нет. Систему этических координат и стандартов в сфере искусственного интеллекта (ИИ) еще только предстоит выработать.


    написать администратору сайта