Differences
This shows you the differences between two versions of the page.
Both sides previous revisionPrevious revisionNext revision | Previous revision | ||
statnice:bakalar:b4b36zui [2025/06/03 11:44] – [STRIPS] zapleka3 | statnice:bakalar:b4b36zui [2025/06/03 12:40] (current) – zapleka3 | ||
---|---|---|---|
Line 351: | Line 351: | ||
* Příliš silná heuristika (např. $h(n) > h^*(n)$) může zrychlit výpočet, ale ztrácí optimálnost. | * Příliš silná heuristika (např. $h(n) > h^*(n)$) může zrychlit výpočet, ale ztrácí optimálnost. | ||
- | ====== 4. Algoritmy posilovaného učení | + | ===== 4. Algoritmy posilovaného učení ===== |
**policy evaluation, policy improvement, | **policy evaluation, policy improvement, | ||
Line 914: | Line 914: | ||
$$ | $$ | ||
- | kde: - $H$ je hypotéza, | + | kde: |
+ | * $H$ – hypotéza, | ||
+ | * $D$ – pozorovaná | ||
+ | * $P(H|D)$ | ||
+ | * $P(D|H)$ | ||
+ | * $P(H)$ | ||
+ | * $P(D)$ | ||
==== Maximalizace očekávané utility ==== | ==== Maximalizace očekávané utility ==== | ||
- | Cílem rozhodování pod neurčitostí je zvolit | + | Racionální agent by měl volit takovou |
$$ | $$ | ||
Line 924: | Line 930: | ||
$$ | $$ | ||
- | kde: - $a$ je akce, - $s$ je možný stav světa, | + | kde: |
+ | * $a$ – akce, | ||
+ | * $s$ – možný stav světa, | ||
+ | * $P(s|a)$ | ||
+ | * $U(s, | ||
+ | |||
+ | Používá se v rozhodovacích sítích a obecně ve všech situacích, kde je třeba rozhodovat pod neurčitostí. | ||
==== Bayesovské sítě ==== | ==== Bayesovské sítě ==== | ||
- | Bayesovské sítě | + | Bayesovské sítě jsou **orientované acyklické grafy (DAG)**, kde: |
+ | * uzly reprezentují náhodné proměnné, | ||
+ | * hrany vyjadřují | ||
+ | * každá proměnná má tabulku | ||
- | Sítě umožňují efektivní | + | Bayesovské sítě umožňují efektivní |
+ | |||
+ | **Celková distribuční pravděpodobnost** v síti se rozpadá podle struktury grafu: | ||
+ | |||
+ | $$ | ||
+ | P(X_1, ..., X_n) = \prod_{i=1}^{n} P(X_i \mid \text{rodiče}(X_i)) | ||
+ | $$ | ||
=== Příklad Bayesovské sítě === | === Příklad Bayesovské sítě === | ||
Line 950: | Line 971: | ||
\end{document} | \end{document} | ||
</ | </ | ||
+ | |||
Tato Bayesovská síť ilustruje následující závislosti mezi náhodnými proměnnými: | Tato Bayesovská síť ilustruje následující závislosti mezi náhodnými proměnnými: | ||
Line 989: | Line 1011: | ||
$$ | $$ | ||
- | Použití: | + | **Použití:** |
- | + | * detekce spamu, | |
+ | * analýza sentimentu, | ||
+ | * lékařská | ||
==== Skrytý Markovův model (Hidden Markov Model, HMM) ==== | ==== Skrytý Markovův model (Hidden Markov Model, HMM) ==== | ||
Line 1008: | Line 1031: | ||
$$ | $$ | ||
- | Použití: - rozpoznávání řeči, - analýza časových řad, - strojový překlad, - sledování objektů. | + | **Algoritmy:** |
+ | * **Forward-backward** – výpočet marginálních pravděpodobností, | ||
+ | * **Viterbi** – nalezení nejpravděpodobnější sekvence skrytých stavů, | ||
+ | * **Baum-Welch** – EM algoritmus pro trénink HMM. | ||
- | Hlavní algoritmy: - **Forward-backward** (výpočet pravděpodobností), - **Viterbiho algoritmus** (nejpravděpodobnější posloupnost), - **Baum-Welch** (EM algoritmus pro trénink). | + | **Použití:** |
+ | | ||
+ | | ||
+ | | ||
+ | | ||
===== 8. Řešení POMDP ===== | ===== 8. Řešení POMDP ===== | ||
Line 1016: | Line 1046: | ||
**PBVI, HSVI** | **PBVI, HSVI** | ||
- | Řešení | + | ==== Řešení POMDP ==== |
- | POMDP je formálně definován jako sedmice | + | **Řešení částečně pozorovatelných Markovových rozhodovacích procesů (POMDP)** spočívá v nalezení optimální politiky na základě neúplné informace o stavu systému. V POMDP není stav přímo pozorovatelný – rozhodování se děje na základě tzv. **belief state** – pravděpodobnostního rozdělení přes možné stavy. |
+ | |||
+ | === Formální definice === | ||
+ | |||
+ | POMDP je definován jako sedmice | ||
+ | * **S** – množina stavů | ||
+ | * **A** – množina akcí | ||
+ | * **T(s' | ||
+ | * **R(s,a)** – odměnová funkce | ||
+ | * **Ω** – množina pozorování | ||
+ | * **O(o|s', | ||
+ | * **γ** – diskontní faktor | ||
+ | |||
+ | Hodnotová funkce je definovaná nad belief space a je konvexní. Přesné řešení je výpočetně náročné, proto používáme aproximační algoritmy. | ||
+ | |||
+ | Řešení problémů částečně pozorovatelných Markovových rozhodovacích procesů (POMDP) spočívá v nalezení optimální politiky, která maximalizuje očekávaný výnos na základě neúplné informace o stavu systému. V POMDP je totiž skutečný stav systému skrytý (latentní) a rozhodnutí je činěno na základě tzv. věrohodnostního rozdělení (belief state) – pravděpodobnostního rozdělení přes možné stavy daného systému. | ||
Hodnotová funkce pro POMDP je definována nad věrohodnostními stavy a je konvexní. Přesné řešení POMDP je výpočetně neproveditelné pro větší problémy, proto se používají aproximační metody. Mezi ně patří: | Hodnotová funkce pro POMDP je definována nad věrohodnostními stavy a je konvexní. Přesné řešení POMDP je výpočetně neproveditelné pro větší problémy, proto se používají aproximační metody. Mezi ně patří: | ||
Line 1024: | Line 1069: | ||
==== Point-Based Value Iteration (PBVI) ==== | ==== Point-Based Value Iteration (PBVI) ==== | ||
- | PBVI aproximuje hodnotovou funkci | + | PBVI aproximuje hodnotovou funkci |
- | Algoritmus PBVI: 1. Inicializuj hodnotovou funkci | + | 1. Inicializace hodnotové funkce |
+ | 2. Iterace pro každý $b \in B$: | ||
+ | $$ | ||
+ | V_{i+1}(b) = \max_{a \in A} \left[ R(b, a) + \gamma \sum_{o \in Ω} P(o|b, | ||
+ | $$ | ||
+ | |||
+ | * $b_{a,o}$ je nová víra (belief) | ||
+ | * Hodnotová funkce se reprezentuje pomocí **α-vektorů**, | ||
Tímto způsobem PBVI konstruuje aproximaci optimality pomocí hodnotové funkce složené z tzv. $\alpha$-vektorů. | Tímto způsobem PBVI konstruuje aproximaci optimality pomocí hodnotové funkce složené z tzv. $\alpha$-vektorů. | ||
+ | |||
+ | PBVI výrazně zjednodušuje výpočet tím, že nepočítá hodnotu v celém belief prostoru. | ||
==== Heuristic Search Value Iteration (HSVI) ==== | ==== Heuristic Search Value Iteration (HSVI) ==== | ||
- | HSVI je vylepšením PBVI, které využívá | + | HSVI kombinuje |
+ | |||
+ | 1. **Inicializace: | ||
+ | * Dolní mez $V^-$: jednoduché politiky (např. fixní akce) | ||
+ | * Horní mez $V^+$: řešení odpovídající plně pozorovatelnému MDP | ||
+ | |||
+ | 2. **Heuristické prohledávání: | ||
+ | * Vybíráme beliefy, kde je největší rozdíl mezi $V^+$ a $V^-$ | ||
+ | * Průchod stromem víry (belief tree) řízený rozdílem mezi odhady | ||
+ | |||
+ | 3. **Update: | ||
+ | * Dolní mez – přidání nových α-vektorů | ||
+ | * Horní mez – konvexní obálka a přepočet odhadu | ||
Algoritmus HSVI: 1. Udržuje dolní odhad $V^-$ a horní odhad $V^+$ hodnotové funkce. 2. Používá hloubkové prohledávání stromu víry řízené heuristikou k výběru větví, kde je největší rozdíl mezi $V^+$ a $V^-$. 3. Provádí zálohování hodnot a zpřesňuje odhady na cestě k listům stromu. | Algoritmus HSVI: 1. Udržuje dolní odhad $V^-$ a horní odhad $V^+$ hodnotové funkce. 2. Používá hloubkové prohledávání stromu víry řízené heuristikou k výběru větví, kde je největší rozdíl mezi $V^+$ a $V^-$. 3. Provádí zálohování hodnot a zpřesňuje odhady na cestě k listům stromu. | ||
+ | |||
+ | HSVI garantuje ε-optimalitu: | ||
+ | |||
+ | HSVI zachovává horní a dolní meze hodnotové funkce a iterativně je zpřesňuje pouze v místech, která ovlivňují politiku. | ||
HSVI kombinuje výpočetní efektivitu s garancemi na kvalitu aproximace: algoritmus konverguje k ε-optimální politice, pokud se rozdíl mezi horním a dolním odhadem zmenší pod ε. | HSVI kombinuje výpočetní efektivitu s garancemi na kvalitu aproximace: algoritmus konverguje k ε-optimální politice, pokud se rozdíl mezi horním a dolním odhadem zmenší pod ε. |