8139

Обучение с подкреплением. Пассивное обучение. Активное обучение.

Лекция

Информатика, кибернетика и программирование

Обучение с подкреплением. Пассивное обучение. Активное обучение. Задача обучения с подкреплением состоит в том, чтобы обеспечить использование наблюдаемых вознаграждений для определения в процессе обучения оптимальной стратегии для данной среды. Пре...

Русский

2013-02-04

41 KB

8 чел.

Обучение с подкреплением.

Пассивное обучение. Активное обучение.

Задача обучения с подкреплением состоит в том, чтобы обеспечить использование наблюдаемых вознаграждений для определения в процессе обучения оптимальной стратегии для данной среды.

Предполагается, что среда является полностью наблюдаемой, поэтому информация о текущем состоянии поступает с результатами каждого восприятия. Обычно рассматривают три проекта агентов:

  •  Агент, действующий с учетом полезности, определяет с помощью обучения функцию полезности состояния и использует ее для выбора действий, которые максимизируют ожидаемую полезность результата;
  •  Агент, действующий по принципу Q-обучения, определяет с помощью обучения функцию “действие-значение”, или Q-функцию, получая сведения об ожидаемой полезности выполнения данного конкретного действия в данном конкретном состоянии.
  •  Рефлексный агент определяет с помощью обучения стратегию, которая непосредственно отображает состояния в действия.

Пассивное обучение с подкреплением

При таком виде обучения стратегия агента остается неизменной, а задача состоит в том, чтобы определить с помощью обучения полезности состояний (или пар “состояние-действие”). Для этого может также потребоваться определение с помощью обучения модели среды. Задача пассивного обучения аналогична задаче оценки стратегии, которая является частью алгоритма итерации по стратегиям. Пассивный обучающийся агент не знает модели перехода T(s,a,s), которая определяет вероятность достижения состояния s из состояния s после выполнения действия a; он также не знает функцию вознаграждения R(s), которая задает вознаграждение для каждого состояния.

Существует простой метод непосредственной оценки полезности, идея которого состоит в том, что полезностью данного конкретного состояния является ожидаемое суммарное вознаграждение, связанное с действиями, выполняемыми, начиная с этого состояния, а каждая попытка представляет собой выборку этого значения для каждого посещенного состояния. Таким образом, в конце каждой последовательности алгоритм вычисляет наблюдаемое будущее вознаграждение для каждого состояния и обновляет соответствующим образом оценку полезности для этого состояния путем ведения текущего среднего значения для каждого состояния. В пределе, после выполнения бесконечного количества попыток, среднее по выборкам сходится к значению истинного ожидания.

Очевидно, что непосредственная оценка полезности представляет собой один из видов контролируемого обучения, в котором каждый пример задает состояние в качестве входных данных, а наблюдаемое будущее вознаграждение – в качестве выходных. Это означает, что данный метод позволяет свести обучение с подкреплением к стандартной задаче индуктивного обучения. Однако в этом методе не учитывается тот факт, что полезности состояний не являются независимыми. Дело в том, что полезность каждого состояния равна сумме его собственного вознаграждения и ожидаемой полезности его состояний-преемников. Данный метод можно рассматривать как поиск в пространстве гипотез, которое имеет размеры намного большие, чем необходимо, поскольку включает также много функций, которые нарушают уравнения Беллмана. По этой причине данный алгоритм часто сходится очень медленно.

Активное обучение с подкреплением

Пассивный обучающийся агент руководствуется постоянно заданной стратегией, которая определяет его поведение, а активный агент должен сам принимать решение о том, какие действия следует предпринять. Прежде всего, агенту потребуется определить с помощью обучения полную модель с вероятностями результатов для всех действий, а не просто модель для заданной стратегии. Затем необходимо принять в расчет тот факт, что агент должен осуществлять выбор из целого ряда действий. Полезности, которые ему потребуются для обучения, определяются оптимальной стратегией и подчиняются уравнениям Беллмана:

U(s) = R(s) + maxs    U(s’)

Эти уравнения могут быть решены для получения функции полезности U с помощью алгоритмов итерации по значениям или итерации по стратегиям. Последняя задача состоит в определении того, что делать на каждом этапе. Получив функцию полезности U, оптимальную для модели, определяемой с помощью обучения, агент может извлечь информацию об оптимальном действии, составляя одношаговый прогноз для максимизации ожидаемой полезности. Еще один вариант состоит в том, что если используется итерация по стратегиям, то оптимальная стратегия уже известна, поэтому агент должен просто выполнить действие, рекомендуемое согласно оптимальной стратегии.

Однако может оказаться, что выбор оптимального действия приводит к неоптимальным результатам. Причиной этого может быть то, что модель, определяемая с помощью обучения, не является такой же, как истинная среда; поэтому то, что оптимально в модели, определяемой с помощью обучения, может оказаться неоптимальным в истинной среде. Поэтому агент должен искать компромисс между потреблением полученных результатов для максимизации своего вознаграждения (что отражается в его текущих оценках полезностей) и исследованием среды для максимизации своего долговременного благосостояния.


 

А также другие работы, которые могут Вас заинтересовать

48666. Проектирование схем энергоснабжения промышленного предприятия 440 KB
  Расчет электрических нагрузок низшего напряжения цехов предприятия Расчетные нагрузки цехов определяются по средней мощности с учетом корректирующего коэффициента . Расчетные нагрузки на напряжение ниже 1000 В определяются следующими выражениями: 1. Силовые нагрузки на напряжение 16 кВ Рр.2 где Руст установленная мощность силового оборудования цеха кВт; Ки коэффициент использования;  корректирующий коэффициент; tg соответствует характерному для данного цеха коэффициенту мощности нагрузки.
48667. Eкспортно-імпортної політики України в умовах світової економічної кризи 817 KB
  Вона складається з ввозу імпорту і вивозу експорту товарів. До експорту відносять: товари вироблені вирощені чи добуті в країні; товари раніше ввезені зза кордону що були перероблені а також товари переробка яких здійснювалась під митним контролем. Оскільки основна частка товарів в міжнародній торгівлі перевозиться морським транспортом за основу розрахунку цін експорту та імпорту береться транспортування морем. В результаті відмінності в базі розрахунків сукупна вартість світового експорту статистично буде завжди менше вартості...
48669. Расчет цифровой логической КМОП микросхемы серии КР1554 413.5 KB
  В момент времени to выхода вершины несорбирующегося компонента Zo сигнал с выхода пикового детектора 6 устанавливает триггер 27 в единичное состояние. Высокий потенциал с его прямого выхода запускает тактовый генератор импульсов 10. В момент времени выхода вершины пика компонента Z сигнал с выхода пикового детектора 6 поступает на вход установки в ноль триггера 19. Высокий потенциал с его инверсного выхода поступает на один из входов элемента И 7.
48670. Система электроснабжения района города, расположенного в Пермской области 1.03 MB
  Рассмотрим 2 варианта формирования сети 10 кВ – схема с питанием непосредственно от источника питания и вариант с сооружением РТП. Определение места расположения РТП проводится по формулам. РТП см м Xтп 14.38 Таким образом целесообразное место организации РТП – это подстанция.
48671. Кредитування підприємств в сучасних умовах розвитку економіки 138.5 KB
  Для регулювання діяльності комерційних банків Національний Банк України визначає для них такі економічні нормативи: мінімальний розмір статутного фонду; граничне співвідношення між розміром власних коштів банку і сумою його активів; показники ліквідності балансу. Визначається в процентному відношенні до загальної суми власних коштів банку. У разі систематичного недотримання комерційними банками цього законодавства Центральний банк може: ставити перед засновниками комерційного банку питання про здійснення заходів з фінансового...
48672. Игра Артиллерийская дуэль 195.5 KB
  Одинаковые кубики лежат в прямоугольной коробке. Каждый кубик окрашен в шесть цветов, по числу граней. Дно коробки разделено на квадраты. В каждом квадрате, кроме одного, лежит по кубику. За счет свободной ячейки кубики можно последовательно перекатывать из квадрата в квадрат. Вынимать и переворачивать кубики не разрешается.
48673. Модель регулятора уровня жидкости 99 KB
  Подводящая и отводящая труба – объекты одного класса TTube. Верхний и нижний датчик – объекты одного класса TSensor. Поэтому вводится понятие модели объект Relity класса TRelity. При этом отпадает необходимость в наличии класса TSignl.
48674. Определение стоимости поставок товара на склад 501 KB
  Структура проектируемой базы данных. Создание базы данных программными средствами. Создание базы данных Создание модуля данных