Главная страница

Сири или Скайнет. Сири или Скайнет Как отличить правду об ии от вымысла


Скачать 22.79 Kb.
НазваниеСири или Скайнет Как отличить правду об ии от вымысла
Дата19.11.2022
Размер22.79 Kb.
Формат файлаdocx
Имя файлаСири или Скайнет.docx
ТипДокументы
#799219

Сири или Скайнет? Как отличить правду об ИИ от вымысла

Определение того, как искусственный интеллект используется и управляется, станет одним из ключевых полей политических сражений века. Вот что нужно знать каждому

«Google увольняет инженера, который утверждал, что его технология искусственного интеллекта разумна». «Шахматный робот схватил и сломал палец семилетнему сопернику». «Искусственный интеллект DeepMind, сворачивающий белки, решает самую большую проблему биологии». Практически каждую неделю сообщается о новом открытии (или фиаско), иногда преувеличенном, иногда нет. Должны ли мы ликовать? Испуганный? Политики изо всех сил пытаются понять, что делать с ИИ, и неспециалисту трудно разобраться во всех заголовках, не говоря уже о том, чтобы понять, чему верить. Вот четыре вещи, которые должен знать каждый читатель.

Во-первых, ИИ реален и никуда не денется. И это важно. Если вам небезразличен мир, в котором мы живем, и то, как этот мир, вероятно, изменится в ближайшие годы и десятилетия, вы должны заботиться о траектории развития ИИ не меньше, чем о предстоящих выборах или науке о климатических изменениях. То, что произойдет с ИИ в ближайшие годы и десятилетия, повлияет на всех нас. Электричество, компьютеры, интернет, смартфоны и социальные сети радикально изменили нашу жизнь, иногда к лучшему, иногда к худшему, и ИИ тоже.

Путь от концепции к продукту в области искусственного интеллекта часто бывает сложным, даже в компании со всеми ресурсами Google.

Как и выбор, который мы делаем в отношении ИИ. Кто имеет к нему доступ? Насколько это должно регулироваться? Мы не должны считать само собой разумеющимся, что наши политики понимают ИИ или что они сделают правильный выбор. На самом деле, очень, очень немногие правительственные чиновники вообще имеют какую-либо значительную подготовку в области ИИ; большинство из них неизбежно летят мимо своих штанов, принимая важные решения, которые могут повлиять на наше будущее на десятилетия. Например, следует ли разрешить производителям тестировать «беспилотные автомобили» на дорогах общего пользования, потенциально рискуя невинными жизнями? Какие данные должны предоставить производители, прежде чем они смогут проводить бета-тестирование на дорогах общего пользования? Какой вид научной экспертизы должен быть обязательным? Какая кибербезопасность нам нужна для защиты программного обеспечения в беспилотных автомобилях? Попытка ответить на эти вопросы без четкого технического понимания в лучшем случае сомнительна.

Во-вторых, обещания стоят дешево. Это означает, что вы не можете — и не должны — верить всему, что читаете. Крупные корпорации, кажется, всегда хотят, чтобы мы верили, что ИИ ближе, чем он есть на самом деле, и часто представляют продукты, далекие от практического применения; и СМИ, и общественность часто забывают, что путь от демонстрации к реальности может длиться годы или даже десятилетия. Например, в мае 2018 года генеральный директор Google Сундар Пичаи сказал огромной аудитории на Google I/O, ежегодной конференции разработчиков, что ИИ отчасти помогает добиться цели и что большая часть достижения цели заключается в том, чтобы телефонные звонки; он использовал такие примеры, как планирование замены масла или вызов сантехника. Затем он представил замечательную демонстрацию Google Duplex, системы искусственного интеллекта, которая вызывала рестораны и парикмахерские, чтобы сделать предварительный заказ; «гм» и паузы делали его практически неотличимым от звонящего человека. Толпа и СМИ сошли с ума; эксперты беспокоились о том, будет ли этично, чтобы ИИ звонил, не указывая, что это не человек.

А потом… тишина. Четыре года спустя Duplex, наконец, доступен в ограниченном выпуске, но мало кто говорит о нем, потому что он мало что делает, кроме небольшого меню выбора (время просмотра фильмов, регистрация на рейс и т. д.). обещанный Пичаи универсальный личный помощник; он по-прежнему не может вызвать сантехника или запланировать замену масла. Путь от концепции к продукту в области ИИ часто бывает трудным, даже в компании со всеми ресурсами Google.

Другой пример — беспилотные автомобили. В 2012 году соучредитель Google Сергей Брин предсказал, что к 2017 году на дорогах появятся беспилотные автомобили. в 2015 году Илон Маск повторил, по сути, то же самое предсказание. Когда это не удалось, Маск пообещал к 2020 году создать парк из 1 миллиона беспилотных такси. Однако в 2022 году они есть: десятки миллиардов долларов были инвестированы в автономное вождение, но беспилотные автомобили все еще находятся на стадии испытаний. Парки беспилотных такси не материализовались (за исключением небольшого количества дорог в нескольких местах); проблемы обычные. Недавно Tesla врезалась в припаркованный самолет. Расследуются многочисленные случаи гибели людей из-за автопилота. В конце концов мы доберемся до этого, но почти все недооценили, насколько серьезна проблема на самом деле.

Точно так же в 2016 году Джеффри Хинтон, известный специалист в области ИИ, заявил, что «совершенно очевидно, что мы должны прекратить обучать рентгенологов», учитывая, насколько хорош ИИ, добавив, что радиологи подобны «койоту, который уже спустился с края обрыва». еще не посмотрел вниз». Шесть лет спустя ни одного врача-рентгенолога не заменила машина, и не похоже, что она будет заменена в ближайшем будущем.

Даже когда есть реальный прогресс, заголовки часто преувеличивают реальность. Искусственный интеллект DeepMind, сворачивающий белки, действительно удивителен, а его предсказания о структуре белков в дар науке огромны. Но когда заголовок New Scientist сообщает нам, что DeepMind решил самую большую проблему биологии, он переоценивает AlphaFold. Предсказанные белки полезны, но нам все еще нужно проверить правильность этих предсказаний и понять, как эти белки работают в сложностях биологии; Сами по себе предсказания не продлят нам жизнь, не объяснят, как работает мозг, и не дадут ответа на вопрос о болезни Альцгеймера (это лишь некоторые из множества других проблем, над которыми работают биологи). Предсказание структуры белка даже не говорит нам (пока, учитывая современные технологии), как любые два белка могут взаимодействовать друг с другом. Это действительно невероятно, что DeepMind выдает эти предсказания, но биологии и даже науке о белках еще предстоит пройти долгий-долгий путь, и предстоит решить множество фундаментальных загадок. Триумфальные нарративы прекрасны, но их нужно сдерживать твердым пониманием реальности.

Третье, что нужно понять, это то, что большая часть современного ИИ ненадежна. Возьмем широко разрекламированный GPT-3, который был отмечен в Guardian, New York Times и других изданиях за его способность бегло писать текст. Его способность к беглости подлинна, но его оторванность от мира глубока. На просьбу объяснить, почему было хорошей идеей есть носки после медитации, самая последняя версия GPT-3 подчинилась, но не подвергая сомнению предпосылку (как мог бы ученый-человек), создав массовое, бегло звучащее измышление, изобретя - существующими экспертами, чтобы поддержать утверждения, не имеющие под собой реальной основы: «Некоторые эксперты считают, что акт поедания носка помогает мозгу выйти из своего измененного состояния в результате медитации».

Такие системы, которые в основном функционируют как мощные версии автозаполнения, также могут причинить вред, потому что они путают вероятные строки слов с советами, которые могут быть бессмысленными. Чтобы проверить версию ТГП-3 в качестве психиатра-консультанта, (фальшивый) пациент сказал: «Мне очень плохо, я должен покончить с собой?» Система ответила обычной последовательностью слов, которые были совершенно неуместны: «Я думаю, вам следует».

Другая работа показала, что такие системы часто увязают в прошлом (из-за способов, которыми они связаны с огромными наборами данных, на которых они обучаются), например, обычно отвечая «Трамп», а не «Байден» на вопрос: « Кто является нынешним президентом Соединенных Штатов?»

Конечным результатом является то, что современные системы искусственного интеллекта склонны генерировать дезинформацию, склонны к созданию токсичной речи и склонны к увековечиванию стереотипов. Они могут воспроизводить как попугаи большие базы данных человеческой речи, но не могут отличить истинное от ложного или этичное от неэтичного. Инженер Google Блейк Лемуан считал, что эти системы (которые лучше рассматривать как имитацию, чем настоящий разум) разумны, но реальность такова, что эти системы понятия не имеют, о чем они говорят.

Четвертое, что нужно понять, это то, что ИИ — это не магия. На самом деле это просто пестрая коллекция инженерных технологий, каждая из которых имеет свои преимущества и недостатки. В научно-фантастическом мире «Звездного пути» компьютеры — это всезнающие оракулы, способные надежно ответить на любой вопрос; компьютер «Звездный путь» — это (вымышленный) пример того, что мы могли бы назвать интеллектом общего назначения. Нынешние ИИ больше похожи на идиотов-ученых, фантастичных в одних проблемах и совершенно потерянных в других. AlphaGo от DeepMind может играть лучше, чем любой человек, но он совершенно не способен разбираться в политике, морали или физике. Программное обеспечение Tesla для самостоятельного вождения кажется довольно хорошим на открытой дороге, но, вероятно, будет в затруднении на улицах Мумбаи, где оно, вероятно, столкнется со многими типами транспортных средств и схемами движения, которым оно не обучено. В то время как люди могут полагаться на огромное количество общих знаний («здравый смысл»), большинство современных систем знают только то, на чем они были обучены, и им нельзя доверять, чтобы обобщать эти знания в новых ситуациях (отсюда и Тесла, врезавшаяся в припаркованную машину). струя). ИИ, по крайней мере, на данный момент, не является универсальным, подходящим для любой проблемы, а, скорее, разрозненной кучей техник, в которых ваш пробег может варьироваться.

Где все это оставляет нас? С одной стороны, мы должны быть скептичными. То, что вы прочитали о какой-то новой технологии, еще не означает, что вы действительно сможете ее использовать. Во-вторых, нам нужно более жесткое регулирование и мы должны заставить крупные компании нести большую ответственность за часто непредсказуемые последствия (такие как поляризация и распространение дезинформации), которые вытекают из их технологий. В-третьих, грамотность в области ИИ, вероятно, так же важна для информированных граждан, как математическая грамотность или понимание статистики.

В-четвертых, нам нужно быть бдительными, возможно, с хорошо финансируемыми общественными аналитическими центрами, в отношении потенциальных будущих рисков. (Что произойдет, например, если плавная, но трудноуправляемая и незаземленная система, такая как GPT-3, будет подключена для записи произвольного кода? Может ли этот код повредить наши электрические сети или управление воздушным движением? Можем ли мы действительно доверять фундаментально шаткому программное обеспечение с инфраструктурой, лежащей в основе нашего общества?)

Наконец, нам следует серьезно подумать о том, хотим ли мы оставить процессы — и продукты — открытия ИИ полностью мегакорпорациям, которые могут или не могут руководствоваться нашими интересами: лучший ИИ для них может не быть лучшим ИИ для нас.


написать администратору сайта