Computer Science МФТИ Changes    |    Index    |    Search
::: CraftMDP :::
Parents: WebHome > AgentProjects > AgentCraft
 
  ACM . Agent . CraftMDP # Edit # Attach # Diffs # Printable # More :::

Main
• Register
• Users
• Site Map

Curriculum

Agent Web
• projects

Algorithms

Web Learn

Image Kit

ProgTech

Publishing

Применение MDP в стратегических играх.

  Задача оптимального управления виртуальными войсками одна из основных, которые стоят перед разработчиками стратегических игр. Рассмотрим подход к решению данной задачи с использованием марковских процессов принятия решения(Markov Decision Processes).

  Каждый воин, в таком рассмотрении, называется объектом, обозначим его как С. Описание объекта включает в себя: состояние объекта C.S, ссылки объекта на другие объекты C.L и действие, совершаемое в данный момент объектом, С.A. Множество значений каждого элемента описания определяется классом, к которому принадлежит объект. Кроме того, каждому классу соответствует вероятностная функция P(C.S'|C.S,C.A,C1.S,C1.A,...), где Ci - есть такие объекты, что С входит в Ci.L. Эта функция определяет состояние объекта в следующий момент времени. Для каждого класса определена функция поощрения R(C.S, C.A). Полная функция поощрения для всех объектов есть сумма функций каждого. На каждом ходу можно управлять C.A любого объекта. Задачей является максимизация полной функции поощрения (обычно эта функция увеличивается с уменьшением жизней вражеских солдат).

  Cуществует множество способов решения такой оптимизационной задачи, одними из наиболее эффективных являются методы линейного программирования.

  Успех в реализации зависит в большой степени как от удачности определения вероятностных функций и функций поощрения, так и от точности решения оптимизационной задачи.

  Более подробно про MDP и их применение:


Rambler's Top100 Rambler's Top100


# Edit menu  

Topic revision r1.1 - 24 May 2004 - 14:32 GMT - MaxKudrin?
Topic parents: WebHome > AgentProjects > AgentCraft
Copyright © 2003-2017 by the contributing authors.