Главная страница

Искусственный интеллект. К. ф н., доц. Малькова Т. П. Философские аспекты проблемы искусственного интеллекта


Скачать 30.5 Kb.
НазваниеК. ф н., доц. Малькова Т. П. Философские аспекты проблемы искусственного интеллекта
Дата04.03.2018
Размер30.5 Kb.
Формат файлаdoc
Имя файлаИскусственный интеллект.doc
ТипДокументы
#37729

К.ф.н., доц. Малькова Т.П.

Философские аспекты проблемы искусственного интеллекта
Значительный вклад в разработку проблемы искусственного интеллекта внесен с развитием кибер­нетики и теории информации. Успехи кибернетики определили возможность мо­делирования с помощью электронных машин отдельных пси­хических функций человека. Современные ЭВМ при на­личии соответствующих программ могут успешно решать ма­тематические и логические задачи, выполнять функции уп­равления системами, играть в шахматы и т.п. Они способны хранить обширную информацию и выдавать ее по первому требованию. Такие свойства кибер­нетических устройств, как быстродействие, точность, неутомляемость, обширная память, создают им преимущества по сравнению с человеком во всех случаях, когда решение задачи может быть алгоритмизировано.

Эти преимущества нельзя абсолютизировать. Творческие функции по-прежнему составляют удел человека, творчество не поддается алгоритмизации, его механизмы – загадка для человека. Кибернетическая машина не знает эмоций. В этом ее преимущество: ей нельзя испортить настроение, тем самым снизить эффективность работы. Но и недостаток, так как эмоции составляют важнейший эвристический фактор человеческой деятельности. Машина не обладает интуицией, ей чуждо воображение, фантазия. По существу, она воспроизводит лишь один аспект мышления - логический, в то время как реальное мышление включает также эмоциональные, интуитивные, чувственно-образные, волевые составляющие. Это свидетельствует об ограниченности возможностей кибернетических устройств в решении познавательных задач. Они остаются средством автоматизации тех сторон интеллектуальной деятельности, которые связаны с четкими правилами перера­ботки информации.

Есть ли предел машинного моделирования? Априорная установка пределов не оправдана. На первых этапах считалось невозможным создать устройст­ва для решения задач, не имеющих жесткого алгоритма. По­сле их создания было сформулировано другое ограничение: нельзя создать систему, меняющую поведение в зависимости от ситуации, т.е. способную к обучению и самообучению. Когда такие устройства были созданы, ограничение приня­ло новую форму: моделирующее устройство не может расши­рить число заложенных в программу исходных данных. Но и оно было снято с появлением вероятностных устройств.

В связи с «информационным бумом», возникшим в ходе компьютерной революции, использованием многообразных си­стем искусственного интеллекта возникает вопрос об эффек­тивности процессов понимания, так как приходится участво­вать в обмене информацией не только между людьми, но и между кибернетическими системами. Достигает ли искусственная система понимания смысло­вых контекстов? X. Дрейфус считает, что для распознавания образов и понимания, в системе должен существовать самый первый контекст, но он не распознается машиной, потому что отсутствует алгоритм его осмысления. Подтверждением являются тесты А. Тьюринга, программа «Элиза» Дж. Вейзенбаума, «PARRY» К. Колби, мысленный эксперимент Дж. Сёрля «Китайская комната». На основе опыта можно сделать вывод, что моделирующее устройст­во способно имитировать функции мозга, поддающиеся описанию и программированию.

Кибернетика дала серьезное основание для функциональ­ного подхода к исследованию живых и разумных существ. Суть его в том, что специфика живой системы определяется функ­циями, от описания субстратных характеристик системы отвлекаются, поскольку они могут быть раз­ными. Р. фон Баумгартен предлагает рассмотреть в качестве субстрата «ансамбли» согласованных систем прове­дения, переработки возбуждений и регуляции степени син­хронизации нейронов в структурах мозга, ко­торые, в принципе, поддаются моделированию. Н. Винер в свое время предостерегал от подобного редукционизма, вво­дя массу ограничений для моделирования. Важно не смешивать кибер­нетические и философские понятия. К. Сэйр, следуя этому предостережению, выделил два аспек­та проблемы искусственного интеллекта: «онтологический» и «научный». Последний он связал с собственно моделированием, онтоло­гический - с решением психофизической проблемы, что предполагает формирование языка, адекватного описываемому кругу явлений.

Появление на Земле жизни, человека, наделенного созна­нием, социума, культуры рассматривается наукой в качестве эволю­ции, увеличивающей «негэнтропийную гибкость». Мозг чело­века, сравнимый по размеру с мозгом животных, имеет большую негэнтропийную гибкость, которая без­мерно увеличивается с развитием языка как средства общения и социальной адаптации. Рассудочная, мыслительная, языковая (коммуникативная) деятельность – феномены исключительно со­циокультурные. Культура при­дает человеку огромные негэнтропийные преимущества. Со­циальная адаптация предполагает сохранение прямых и об­ратных связей с природой, действующих на уровне онто- и филогенеза, а также появление комплекса связей интеллекту­ального, морального и прочего плана, играющих огромную роль в процессе приспособления и выживания человека.

Негэнтропйная гибкость социума требует увеличения эффективности информационных каналов, а так­же объемов оперативной и долгосрочной памяти, что застав­ляет человека развивать не только индивидуальное сознание, мышление, интеллект, но и подключаться к «социальной па­мяти», «инфосфере». Таким образом, понимание гносеологического и онтологиче­ского аспекта проблемы моделирования в значительной сте­пени сужает конкретно-научные задачи моделирования сис­тем искусственного интеллекта на этом эта­пе научного развития, сводя их к моделированию логических функций мозга человека.


написать администратору сайта