Главная страница

Выравнивание инженерного доверия теория, метод и эксперименты а


Скачать 0.97 Mb.
НазваниеВыравнивание инженерного доверия теория, метод и эксперименты а
Анкорd223ff
Дата19.12.2022
Размер0.97 Mb.
Формат файлаpdf
Имя файла2012_Schorlemmer_trust_engineering (1).pdf
ТипДокументы
#853553
страница4 из 8
1   2   3   4   5   6   7   8
Пример 6. Дэйв не единственный автор, написавший статью. Эдвард и
Фрэнк — другие целевые агенты, которым Алиса и Боб доверяют друг другу, что подтверждается взаимодействиями в I9Alice;Bob.
Результирующая теория XAlice
4.1. Синтаксис и семантика LDomain
,
3. /Боб; доверять Фрэнку; 5ÞS'XAlice½Фрэнк/Элис; доверять Фрэнку; 5ÞС.
459
А. Костер и соавт. / Междунар. Дж. Человеко-компьютерные исследования 70 (2012) 450–473
Machine Translated by Google
если я с на основе логики Хербранда с использованием взаимодействий в качестве моделей Хербранда. Мы намеренно оставили определение взаимодействий расплывчатым в начале раздела
3 и теперь рассматриваем взаимодействия как вселенную Хербранда для
LDomain. Пусть ULDomain будет набором всех основных атомов в
LDomain, также известным как его база Хербранда. Каждое взаимодействие i следует рассматривать как множество fp1; р2; ... ; png где каждый Таким образом, мы можем видеть каждое взаимодействие i pi 2 ULDomain . как структуру Гербранда и может рассматривать все атомы pi 2 i как истинные для взаимодействия i, а все остальные элементы в ULDomain как ложные. Это приводит к стандартной выполнимости по Эрбранду для формул, в которых взаимодействия рассматриваются как модели Эрбранда. Однако если формула с описывает не отдельное взаимодействие, а скорее идентифицирует свойства набора взаимодействий, которые поддерживают оценку доверия, то такой семантики недостаточно. Например, если я ¼ fi1; i2g и мы используем формулу c = p14p2 для описания I, тогда мы хотим, чтобы I моделировал c, но не обязательно i1 или i2 моделировал c, потому что отдельные атомы p1 и p2 могут относиться к разным взаимодействиям. Поэтому мы определяем выполнимость следующим образом:
Это эквивалентно нормальной семантике Эрбранда после выравнивания I. Пусть FH обозначает стандартную семантику
Гербранда, тогда I c3flattenðIÞFHc.
Пусть I — множество взаимодействий, j; c — формулы в
LDomain и p — атом LDomain, тогда: если и только если (i 2 I : p 2 i I p
I (x : cðxÞ тогда и только тогда, когда I cðaÞ для некоторого основного члена a знания об окружающей среде. В обоих случаях мы предполагаем, что LDomain является языком FOL. Для определения фонового знания этого достаточно, и мы обсудим его использование как таковое позже. Однако сообщение должно содержать описания взаимодействий, которые необходимо обобщить. Чтобы научиться такому обобщению, нам нужен особый формат, а именно предложения Хорна.
Подробнее об их построении и использовании см. ниже, но сейчас достаточно знать, что для достижения этого мы требуем, чтобы связь в LDomain была ограничена, взяв экзистенциально-конъюнктивный (EC) фрагмент FOL, лежащий в основе большинства утвердительных языков в Представление знаний. Мы подчеркиваем, что мы не хотим ограничивать таким образом все общие знания между агентами. Исходная информация также описана в LDomain, но мы не ограничиваем синтаксис этим фрагментом, и он может содержать другие полные предложения первого порядка.
Определение 4.1 (Выполнимость LDomain на основе взаимодействия ).
I j4c тогда и только тогда, когда I j и I c
Этот язык использует онтологию, определенную на рис. 3, с использованием UML-подобной нотации. Он намеренно сделан небольшим и описывает только объективные свойства статей.
Агент может описать статью с помощью уникального идентификатора, которым в этом примере мы предполагаем название (на самом деле это предположение не выполняется, и нам нужен, например, DOI для уникальной идентификации статей).
Например, мы можем определить и сослаться на article1, используя атомарный заголовок предложения («ArticleOne»), и описать атрибуты этой статьи, такие как ее авторы, с помощью предикатов для отношений: author («ArticleOne», «Dave»). Это фрагмент EC
FOL, используемый для описания одиночных взаимодействий.
Фоновое знание использует ту же самую онтологию, но не ограничивается фрагментом EC: оно может содержать такие формулы, как 8X : названиеðXÞ-(Y : авторðX; YÞ, утверждающие, что все статьи имеют по крайней мере одного автора. Строго говоря, это предложение говорит, что все элементы, имеющие заголовок, имеют по крайней мере одного автора, однако, поскольку мы используем заголовок в качестве идентификатора, мы уже знаем, что все статьи имеют заголовки.
IC
Пример 7. Агентам нужен язык для описания статей, соответствующий указанным выше ограничениям.
Пример 8. Агент может использовать LDomain для описания статей, на которых основано его доверие. Например, он может описать статью article1, используя формулу title('Article One'). Затем мы рассматриваем каждое взаимодействие или статью как модель
Гербранда таких предикатов. Каждая статья представляет собой набор всех
*
*
*
*
*
LDomain — это общий язык всех агентов в системе, и мы определяем выполнимость предложений в LDomain.
А. Костер и соавт. / Междунар. Дж. Человеко-компьютерные исследования 70 (2012) 450–473
Рис. 3. UML-подобное представление LDomain.
460
Автор
Название
ACMSubcategory : Строка
Имя
ACMSubject :
Строка
Название института : Язык
String: Престиж
String: Int авторы ключевое словоиз
+
+
1
Название конференции : строка core_rating: строка
*
Имя ключевого слова ACM : строка имя: Строка
1
Публикация
1
hasTopics
Тема
1
+
Название журнала :
Собственный фактор строки: float в подкатегории hasTopics
* работает в
Название статьи : Строка
Название
ACMSubcategory : Строка
+
inCategory
1
опубликовано в
Machine Translated by Google

Рассмотрение сообщений о выравнивании таким образом приводит к естественному способу рассмотрения прогностических моделей: представление SRA в виде предложений Хорна и тот факт, что у нас есть набор примеров, из которых нам нужно вывести более общую модель, естественным образом приводит к рассматривая это как проблему индуктивного обучения. Индуктивное логическое программирование (ILP) — это метод машинного обучения, связанный с обучением в выразительных логических или реляционных представлениях. Мы следуем
De Raedt (2008) и формализуем проблему
ILP следующим образом:
Пример 9. Напомним из примера 6 , что у нас было ограничение теории X½Dave: /Bob; доверять Дэйву; 3ÞS 'XAlice ½Dave/Alice;trustðDave;
4ÞС. Теперь мы знаем, как агент узнает о таком ограничении через общение. Боб отправил сообщение с оценкой доверия ðDave; 3Þ и обоснование в LDomain:
Определение 4.5 (Проблема ILP,
De Raedt, 2008, с.
71). Проблема ILP состоит из:
Мы определили сообщение выравнивания как передачу оценки доверия и набора идентификаторов взаимодействий. Мы расширяем этот язык общения: агенты используют LDomain для передачи свойств взаимодействий. Обратите внимание, что мы по-прежнему требуем, чтобы агенты точно определяли набор взаимодействий, используемых для поддержки переданной оценки доверия, поэтому передаваемые свойства должны быть достаточными для этого.
Язык примеров Le, элементами которого являются описания примеров, наблюдений или данных.
Определение 4.3 (Специальное правило выравнивания (SRA)). Пусть /
b;cS будет сообщением о выравнивании от агента B к агенту A, и пусть
I будет уникальным набором взаимодействий, которые поддерживают b, а также моделью Herbrand для c. Кроме того, пусть a 2 LTrust такой, что ObserveAðIÞ FA a, a и b имеют одну и ту же цель. Затем мы определяем SRA как правило a'b;skolemðcÞ.
Другими словами: если I является моделью Эрбранда E, то: либо наблюдения I поддерживают оценку доверия A A, либо это не модель
Herbrand модели c, либо наблюдения B I не поддерживают оценку доверия b.
4.3. Изучение предсказания
Язык гипотез Lh, элементы которого описывают гипотезы (или закономерности в них) о примерах, наблюдениях или данных.
Определение 4.4 (Модель для SRA). Пусть E = a'b;c 2 E и I DI, тогда IE тогда и только тогда, когда: если ObserveBðIÞFBb и I c, то ObserveAðIÞFAa.
8I0 I9AB : ðI0 c4ObserveBðI0 Þ FB bI = I0 Þ.
Создавая SRA из каждого сообщения о выравнивании, агент формирует набор SRA на этапе (2) процесса, показанного на рис.
1.
Потому что farticle1; article2g — это токен, который поддерживает оценки доверия и является моделью Herbrand для части LDomain , у нас есть farticle1; артикул 2g E1
по семантике Гербранда. Поэтому нам необходимо расширить отношения между взаимодействиями и нашими языками следующим образом:
I c4ObserveBðIÞ FB b.
Таким образом, сообщение выравнивания содержит оценку доверия и описание в LDomain уникального набора взаимодействий, наблюдение за которыми поддерживает переданную оценку доверия.
Агенты вольны выбирать, что они сообщают в части LDomain сообщения, пока это однозначно идентифицирует взаимодействия, поддерживающие оценку доверия.
'ConferenceA'Þ4 автора ð'ArticleTwo'; 'Дэйв'Þ4topic ð'ArticleTwo';
'Тема X'Þ. Таким образом, Алиса может построить SRA:
связанные с ним предикаты, такие как article1¼{название('ArticleOne'), автор('ArticleOne', 'Dave'), публикация('ArticleOne', 'Conference A')}.
Таким образом, мы имеем: farticle1g title ð'ArticleOne'Þ, потому что titleð'ArticleOne'Þ 2 article1.
Поскольку LDomain является языком FOL, любой c 2 LDomain можно сколемизировать, заменив экзистенциально квантифицированные переменные новой константой. Мы будем называть эту формулу skolemðcÞ. Теперь мы определяем специальное правило для выравнивания (SRA) прямым способом из сообщения выравнивания.
Определение 4.2 (Сообщение о выравнивании). Сообщение о выравнивании от агента B представляет собой кортеж /b; cS с b 2
LTrust½T для некоторой цели T, c 2 LDomain и существует набор взаимодействий I I9AB , такой что:
автор 'ArticleOne'; Дэйв ð 4 публикация ð «ArticleOne»;
темаð'ArticleTwo'; 'Тема X'Þ
SRA, как определено выше, представляет собой не что иное, как ограничение /B; бСХА/А; aS теории XA переписан и аннотирован описанием c в LDomain токена, который поддерживает это ограничение в ядре канала. Учитывая ограничения на LTrust и LDomain, мы видим, что SRA — это определенное предложение Horn. Мы пишем E для множества всех SRA, созданных агентом, и мы видим, что E является представлением подмножества XA.
4.2. Особые правила выравнивания
В последнем разделе мы обсудили семантику LDomain с точки зрения моделей Хербранда, однако SRA в E представляют собой комбинацию предложений в LDomain и LTrust. Семантика LTrust задается моделями доверия агентов, а не автор 'ArticleOne'; 'Дэйв'Þ;
авторð'ArticleTwo'; 'Дэйв'Þ;
E1 ¼ доверятьð'Дэйв'; 4Þ'доверяй'Дэйву'; 3Т;
публикация «ArticleOne»; «Конференция А»;
461
А. Костер и соавт. / Междунар. Дж. Человеко-компьютерные исследования 70 (2012) 450–473
Machine Translated by Google

Если мы найдем гипотезу, покрывающую все примеры об автомобилях, то с фоновыми знаниями эта гипотеза покроет все примеры об автомобилях.
Определение охвата с использованием фоновых знаний выглядит следующим образом:
Поскольку мы ограничиваем наш язык гипотез конъюнкциями предложений
Хорна, мы можем упростить определение общности и вместо этого использовать:
в качестве
Определение 4.11 (Наименее общее обобщение для атомов,
De Raedt, 2008, стр. 120).
Наименьшее общее обобщение двух атомов a1; a2 является обобщением a элементов a1 и a2 таким, что для любого другого обобщения a0 выражения a1; a2 существует нетривиальная замена y (другими словами, она не только переименовывает переменные), такая, что a0 y = a.
Определение 4.8 (Общность,
De Raedt, 2008, стр.
48). Пусть H1 и H2 — гипотезы.
Мы говорим, что H1 более общий, чем H2, обозначаемый как H1kH2, если и только если все примеры, охватываемые H2 , также охватываются H1, то есть fe 9 cðH1; eÞg+fe 9 cрH2; напр. Наоборот, мы говорим, что H2 в этой ситуации более специфичен, чем H1 .
только если это влечет за собой.
Обобщение
Эти фоновые знания могут, например, содержать информацию о таксономии, например, что все автомобили являются автомобилями.
В наибольшей степени это может быть применено к задачам классификации, в которых примеры разбиваются на помеченные классы, а задача состоит в том, чтобы обнаружить общеприменимые правила языка гипотез, охватывающие как можно больше примеров, принадлежащих к одному классу, и как можно меньше примеров, принадлежащих одному классу. возможная принадлежность к любому другому классу. Регрессия — еще одна форма этого, в которой классы не определены заранее, но все примеры пронумерованы.
Проблема тогда состоит в том, чтобы найти общеприменимые правила, которые группируют примеры так, чтобы среднее внутреннее отклонение каждой группы было минимальным. То, как правило делит набор примеров, определяется охватом. Рассматривая гипотезы как общий набор предложений, которые влекут за собой примеры, которые они охватывают, мы представляем выравнивание доверия как проблему «обучения на основе следствия» и используем соответствующее отношение охвата:
Определение 4.7 (Покрытие следования фоновой информацией,
De Raedt, 2008, стр.
92). Учитывая исходную информацию B, гипотеза H покрывает пример e тогда и только тогда, когда H [BFe. Другими словами, если e влечет за собой
Другими словами, гипотеза охватывает пример, если и
Определение 4.10 (Наименее общее обобщение,
De Raedt, 2008, стр. 134). lggc1; c2Þ¼flggða1; a2Þ 9 a1 2 c14a2 2 c24lggða1; a2Þa>g, где lggða1; a2Þ — наименьшее общее обобщение двух атомов, а > — самый общий пункт: он удовлетворяется всеми моделями.
Это определение покрытия позволяет нам определить, когда одна гипотеза является более общей, чем другая.
Другими словами: Hn покрывает все примеры из E, и если любая другая гипотеза покрывает E, то она более общая, чем Hn.
Другой способ определить это — сказать, что Hn является наименьшим общим обобщением E. Определив таким образом, мы можем начать искать это
Hn, рассматривая различные операторы обобщения. Поскольку в наших примерах речь идет о предложениях Хорна, определенных по основанию, мы должны использовать оператор обобщения, который может иметь дело с этой выразительностью. y-подключение
(Plotkin, 1970) является наиболее важной структурой для этого, и практически все алгоритмы ILP используют его.
Гипотеза Hn, которую мы ищем, представляет собой формулу, согласно которой для всех e 2 E существует H 2 Hn , такое что H 'B;y e, где 'B;y отношение следствия, заданное y-подведением с использованием фоновых знаний. . Эта гипотеза находится путем итеративного поиска наименьшего общего обобщения двух предложений, начиная с самих SRA. Наименьшее общее обобщение предложений, lggðc1; c2Þ, определяется как:
Мы будем рассматривать этот тип информационных фоновых знаний BD
LDomain.
В сочетании гипотезы и исходной информации мы говорим, что гипотеза покрывает ее.
Следовательно, эта гипотеза должна удовлетворять критериям: Hn 2 LH , такое что Hn E, и для всех H0 2 LH , если H0 E, то H0 Hn.
Однако E — не единственная информация, которой располагает агент для поиска H: он также может использовать фоновые знания.
Наша задача состоит в том, чтобы найти наиболее конкретную гипотезу Hn , которая влечет за собой все примеры из E с учетом фоновых знаний.
Отношение покрытия cDLh Le для определения того, покрывает ли гипотеза пример.
Мы вернемся к нашему определению LDomain: языку, на котором представляются факты о мире. Однако не все эти предикаты независимы друг от друга. Как упоминалось ранее, могут быть знания об окружающей среде, которые доступны всем агентам в системе или могут быть распространены в предыдущих раундах коммуникации.
Определение 4.6 (Покрытие для наследования,
De Raedt, 2008, стр.
72). Для гипотезы H 2 LH и примера e 2 Le, cðH; eÞ тогда и только тогда, когда
HFe.
Мы используем набор E SRA как Le и рассматриваем каждую SRA в качестве примера. Для нашего языка гипотез мы используем логику Хорна с нелогическими параметрами из LTrust и LDomain. Гипотеза H является конъюнкцией предложений Хорна в этом языке. Задача состоит в том, чтобы найти гипотезу H, которая покрывает все наши примеры, или, более формально, гипотезу H, такую, что для всех SRA E 2 E мы имеем H e .
Наименьшее общее обобщение двух атомов определяется
Определение 4.9 (Общность предложений Хорна). Если гипотезы H1 и H2 являются предложениями Хорна, мы можем рассматривать их как наборы литералов. Мы говорим H1kH2 тогда и только тогда, когда H1DH2. Это эквивалентно приведенному выше определению.
Чтобы правильно рассматривать нашу проблему как проблему ILP, нам нужно определить примерный язык Le и язык гипотез Lh, чтобы работал оператор покрытия.
3
,
А. Костер и соавт. / Междунар. Дж. Человеко-компьютерные исследования 70 (2012) 450–473
Мы используем сопоставление для обозначения замены.
462 3
Machine Translated by Google

Пример 10. Исходная информация, которая, как предполагается, известна всем агентам в системе, представляет собой набор предложений {rating('ConferenceA', 'TierA' 'TierA'), subtopic('TopicX',
'TopicY', строят нижнюю Пункт SRA E1: ? E1Þ ¼ доверятьð'Dave';
4Þ'доверятьð'Dave'; 3Þ; авторð'ArticleOne'; 'Dave'Þ; публикацияð'ArticleOne'; 'ConferenceA'Þ; авторð'ArticleTwo'; 'Dave
'Þ; темаð'ArticleTwo'; 'TopicX'Þ; рейтингð'КонференцияA'; 'TierA'Þ; подтемаð'TopicX'; 'TopicY'Þ
из n СРА ai'bi; ci с i 2 ½1; n и I DI, то I и только при выполнении следующего условия:
Используя нижнее предложение, мы определяем lggBðc1; c2Þ
¼ lggð? Рс1Т; ? ðc2ÞÞ. Все эти операции имеют работающие алгоритмы для их выполнения, описанные в
De Raedt (2008) и
Nienhuys-Cheng and de Wolf (1997).
Мы закончим этот раздел теоремой, касающейся метода е
Определение 4.12 (Нижнее предложение,
De Raedt, 2008, стр. 139–
141).
Для основной статьи Хорна c и справочной информации B нижняя часть ? ðcÞ определяется как наиболее конкретное основное предложение, такое, что B [ f? ðcÞgFc, то есть нет предложения c0 * ? ðcÞ такое, что B [ fc0 gFc. Это также называется предложением насыщения, потому что мы можем рассматривать это как процесс добавления основных литералов к c до тех пор, пока оно не станет насыщенным: больше нет литералов, которые мы можем добавить, не лишаясь силы посылки B [ f? ðcÞgFc.
Теорема 1. Для множества агентов Agents, выравнивающих агентов A и B и семейства каналов доверия fC½TgT2Agents попарное объединение теорий X½T этих каналов образует полную решетку относительно y-подстановки. Кроме того, если мы
1   2   3   4   5   6   7   8


написать администратору сайта