ПРИНЯТИЕ ПРОСТЫХ РЕШЕНИЙ

В этой главе показано, как должен принимать решения агент, чтобы получать то, что ему требуется, по крайней мере в среднем количестве случаев.

В данной главе мы вернемся к идее теории полезности, которая была представлена в главе 13, и покажем, как можно объединить эту теорию с теорией вероятностей, чтобы создать агента, действующего на основе теории решений, т.е. агента, способного принимать рациональные решения с учетом того, в чем он убежден и к чему стремится. Такой агент может принимать решения в таких ситуациях, когда из-за неопределенности и конфликтующих целей логический агент остается неспособным что-либо решить. По существу, агент, основанный на цели, может лишь проводить бинарное различие между хорошими (целевыми) и плохими (нецелевыми) состояниями, тогда как агент, основанный на теории решений, пользуется непрерывными показателями качества состояния.
В разделе 16.1 изложен основной принцип теории решений — максимизация ожидаемой полезности. В разделе 16.2 показано, что поведение любого рационального агента можно понять, определив функцию полезности, которую он максимизирует. В разделе 16.3 более подробно обсуждаются характерные особенности функций полезности и, в частности, то, как они связаны с отдельными величинами, такими как деньги. В разделе 16.4 показано, как обращаться с функциями полезности, которые зависят от нескольких величин. В разделе 16.5 описана реализация систем принятия решений. В частности, в этом разделе описан формальный подход, называемый сетями принятия решений (известный также под названием диаграмм влияния); такие сети являются дополнением байесовских сетей, в которое включены действия и показатели полезности. В оставшейся части этой главы рассматриваются проблемы, связанные с применением теории решений в экспертных системах.
СОВМЕСТНЫЙ УЧЕТ УБЕЖДЕНИЙ И ЖЕЛАНИЙ В УСЛОВИЯХ НЕОПРЕДЕЛЕННОСТИ
В книге Port-Royal Logic ("Логика Пор-Ройяль"), написанной в 1662 году, французский философ Арно изложил следующую мысль.
"Чтобы судить о том, что следует делать, чтобы получить хорошее или избежать плохого, необходимо рассматривать не только хорошее и плохое само по себе, но и вероятность того, произойдет ли оно или не произойдет, а также рассматривать математически пропорцию, в которой все эти обстоятельства встречаются вместе."
В современной литературе вместо понятий хорошего или плохого применяется понятие полезности, но общий принцип остается таким же. Для описания предпочтений агента, с помощью которых он различает состояния мира, применяется функция полезности, которая присваивает состоянию единственное числовое значение, чтобы показать, насколько оно желательно. Полезности объединяются с вероятностями действий для определения ожидаемой полезности каждого действия.
В этой главе будет использоваться запись U(S) для обозначения полезности состояния S с точки зрения агента, принимающего решения. На данный момент мы будем рассматривать состояния как полные снимки параметров мира, по аналогии с ситуациями, которые рассматривались в главе 10. На первых порах такой подход позволяет упростить изложение данной темы, но когда придется отдельно определять полезность каждого возможного состояния, он может стать довольно громоздким. В разделе 16.4 будет показано, как можно выполнить в некоторых обстоятельствах декомпозицию состояний в целях присваивания значений полезности.
Любое недетерминированное действие А имеет возможные результирующие состояния Resul ti (А), где индекс i пробегает по различным результатам. Прежде чем осуществить действие А, агент присваивает вероятность P(ResultL(A) \Do{A) , Е) каждому результату, где Е представляет собой сумму доступных агенту свидетельств о мире, a Do (А) — высказывание, согласно которому действие А выполняется в текущем состоянии. Таким образом, можно вычислить ожидаемую полезность действия с учетом свидетельства, EU( А \ Е), с использованием следующей формулы:
EU(A\E) = P(Resulti(A) \Do(A) , Е) U(Resulti(A) ) (16.1)
i
Принцип "JSk максимальной ожидаемой полезности (Maximum Expected Utility — MEU) гласит, что рациональный агент должен выбирать действие, которое максимизирует ожидаемую полезность для агента. А если бы с помощью этого уравнения потребовалось выбрать наилучшую последовательность действий, то пришлось бы перенумеровать все последовательности действий и выбрать наилучшую; очевидно, что такой подход при наличии длинных последовательностей действий становится неосуществимым. Поэтому данная глава посвящена главным образом описанию простых решений (которые обычно предусматривают единственное действие), а в следующей главе будут представлены новые методы, позволяющие эффективно применять последовательности действий.
В определенном смысле принцип MEU может рассматриваться как определение всего искусственного интеллекта. Все, что должен делать интеллектуальный агент, сводится к вычислению различных количественных величин, определению максимальной полезности по всем своим действиям, а затем осуществлению этих действий. Но сказанное не означает, что тем самым проблема искусственного интеллекта решена по определению!
Хотя принцип MEU позволяет определить правильное действие, которое должно быть выполнено в любой задаче принятия решений, связанный с этим объем вычислений может оказаться неосуществимым, а иногда нелегко даже полностью сформулировать саму задачу. Для того чтобы определить начальное состояние мира, требуется применить восприятие, обучение, представление знаний, логический и вероятностный вывод. Для вычисления вероятностей PiResul tL (A) \Do(A) ,Е) необходимо иметь полную причинную модель мира, а также, как было показано в главе 14, осуществлять NP-трудный вероятностный вывод в байесовских сетях. Для вычисления полезности каждого состояния, U{Result±(A) ), часто требуется поиск или планирование, поскольку агент не может определить, насколько хорошим является состояние, до тех пор, пока не узнает, чего он может достичь из этого состояния. Поэтому теория принятия решений — это не панацея, которая позволила бы решить всю проблему искусственного интеллекта. С другой стороны, она предоставляет инфраструктуру, с помощью которой можно определить, где должны найти свое место те или иные компоненты любой системы искусственного интеллекта.
Очевидно, что принцип MEU связан с идеей показателей производительности, которая была представлена в главе 2. Эта основная идея очень проста. Рассмотрим варианты среды, действия в которых могут привести к получению агентом данной конкретной истории восприятий, а также предположим, что существует возможность спроектировать несколько разных агентов. & Если агент максимизирует функцию полезности, правильно отражающую показатели производительности, по которым можно судить о его поведении, то этот агент достигнет наивысших возможных значений показателей производительности, если будет проведено усреднение полученных значений показателей по всем вариантам среды, в которые может быть помещен этот агент. Это определение представляет собой также основное обоснование для самого принципа MEU. Хотя на первый взгляд такое определение может показаться содержащим тавтологию, фактически оно воплощает в себе очень важный переход от глобального, внешнего критерия рациональности (по результатам оценки производительности на основании историй восприятия в среде) к локальному, внутреннему критерию, основанному на максимизации функции полезности применительно к следующему состоянию.
В данной главе будут рассматриваться только единственные, или единоразовые решения, тогда как в главе 2 были определены показатели производительности, измеряемые по историям восприятия в среде, которые обычно становятся результатом многих решений. В следующей главе, посвященной описанию последовательных решений, будет показано, как можно согласовать эти два подхода к оценке функционирования агента.







Материалы

Яндекс.Метрика