В математике оператор слова может относиться к нескольким различным, но связанным понятиям. Оператор может быть определен как функция между двумя векторными пространствами, он может быть определен как функция, в которой домен и кодомен одинаковы, или его можно определить как функцию от функций (которые являются векторами) к другим функциям (для Например, дифференциальный оператор ), то есть функция высокого порядка (если вы знакомы с функциональным программированием).
Что такое оператор Беллмана в обучении с подкреплением (RL)? Зачем нам это вообще нужно? Как оператор Беллмана связан с уравнениями Беллмана в RL?
Ответы:
Обозначения, которые я буду использовать, взяты из двух разных лекций Дэвида Сильвера и также сопровождаются этими слайдами .
Ожидаемое уравнение Беллманаvπ(s)=∑a∈Aπ(a|s)(Ras+γ∑s′∈SPass′vπ(s′))(1)
Если мы позволимPπss′=∑a∈Aπ(a|s)Pass′(2)
а также
Rπs=∑a∈Aπ(a|s)Ras(3)
тогда мы можем переписать (1) в виде
Это можно записать в матричной форме
Or, more compactly,
Notice that both sides of(6) are n -dimensional vectors. Here n=|S| is the size of the state space. We can then define an operator Tπ:Rn→Rn as
for anyv∈Rn . This is the expected Bellman operator.
Similarly, you can rewrite the Bellman optimality equation
as the Bellman optimality operator
The Bellman operators are "operators" in that they are mappings from one point to another within the vector space of state values,Rn .
Rewriting the Bellman equations as operators is useful for proving that certain dynamic programming algorithms (e.g. policy iteration, value iteration) converge to a unique fixed point. This usefulness comes in the form of a body of existing work in operator theory, which allows us to make use of special properties of the Bellman operators.
Specifically, the fact that the Bellman operators are contractions gives the useful results that, for any policyπ and any initial vector v ,
wherevπ is the value of policy π and v∗ is the value of an optimal policy π∗ . The proof is due to the contraction mapping theorem.
источник