Differences
This shows you the differences between two versions of the page.
Both sides previous revisionPrevious revisionNext revision | Previous revision | ||
statnice:bakalar:b4b33rpz [2025/06/07 11:32] – [Adaboost] mistrjirka | statnice:bakalar:b4b33rpz [2025/06/07 11:45] (current) – [Příklad s TikZ] mistrjirka | ||
---|---|---|---|
Line 522: | Line 522: | ||
===== Neuronové sítě ===== | ===== Neuronové sítě ===== | ||
**Neuronové sítě s dopředným šířením. Struktura. Učení pomocí metody zpětného šíření. Vlastnosti (výhody a nevýhody).** | **Neuronové sítě s dopředným šířením. Struktura. Učení pomocí metody zpětného šíření. Vlastnosti (výhody a nevýhody).** | ||
+ | |||
+ | **Neuronové sítě s dopředným šířením jsou vícevrstvé architektury inspirované biologickými neurony, které transformují vstupy na výstupy pomocí vážených spojení a nelineárních aktivačních funkcí. Učí se metodou zpětného šíření chyby.** | ||
+ | |||
+ | ==== Struktura ==== | ||
+ | |||
+ | * Skládá se z vrstev: **vstupní** (přijímá data), **skryté** (provádí výpočty) a **výstupní** (poskytuje výsledek). | ||
+ | * Každý neuron počítá vážený součet vstupů plus bias: $z = \sum w_i x_i + b$, následovaný aktivační funkcí: $a = g(z)$. | ||
+ | * Typické nelineární funkce: sigmoida, tanh, ReLU. | ||
+ | |||
+ | ==== Učení metodou zpětného šíření ==== | ||
+ | |||
+ | - **Dopředné šíření**: | ||
+ | - **Výpočet chyby**: Porovnání výstupu s cílem pomocí loss funkce (např. MSE). | ||
+ | - **Zpětné šíření**: | ||
+ | * Gradienty chyby se šíří od výstupu ke vstupu pomocí řetězového pravidla. | ||
+ | * Aktualizace vah: $w \leftarrow w - \alpha \frac{\partial L}{\partial w}$, kde $\alpha$ je learning rate. | ||
+ | |||
+ | ==== Vlastnosti ==== | ||
+ | |||
+ | * **Výhody**: | ||
+ | * **Nevýhody**: | ||
+ | |||
+ | ==== Konvoluce (příklad) ==== | ||
+ | |||
+ | Operace aplikuje filtr (jádro) na vstupní matici pro extrakci lokálních vzorů. Příklad pro vstup $X$ a jádro $K$: $$ | ||
+ | X = \begin{pmatrix} | ||
+ | 1 & 2 & 3 \\ | ||
+ | 4 & 5 & 6 \\ | ||
+ | 7 & 8 & 9 | ||
+ | \end{pmatrix}, | ||
+ | K = \begin{pmatrix} | ||
+ | 0 & -1 \\ | ||
+ | 1 & 0 | ||
+ | \end{pmatrix} | ||
+ | $$ Výstup pro pozici (1,1): $$ | ||
+ | (1 \cdot 0) + (2 \cdot -1) + (4 \cdot 1) + (5 \cdot 0) = -2 + 4 = 2 | ||
+ | $$ | ||
+ | |||
+ | ==== Pooling a MaxPooling (příklad ==== | ||
+ | |||
+ | Snižuje prostorové rozměry, zachovává dominantní rysy. **MaxPooling** vybírá maximální hodnotu v okně. Příklad pro okno 2×2: $$ | ||
+ | \text{Vstup: | ||
+ | 5 & 8 & 2 \\ | ||
+ | 3 & 1 & 4 \\ | ||
+ | 6 & 7 & 9 | ||
+ | \end{pmatrix} \quad | ||
+ | \text{Výstup: | ||
+ | \max(5, | ||
+ | \max(6,7) & \max(9) | ||
+ | \end{pmatrix} = \begin{pmatrix} | ||
+ | 8 & 4 \\ | ||
+ | 7 & 9 | ||
+ | \end{pmatrix} | ||
+ | $$ | ||
+ | |||
+ | ==== Použití Softmax ==== | ||
+ | |||
+ | Převede výstupní vektor na pravděpodobnostní distribuci: $$ | ||
+ | \text{softmax}(z_i) = \frac{e^{z_i}}{\sum_{j=1}^K e^{z_j}} | ||
+ | $$ Používá se ve **výstupní vrstvě** pro klasifikační úlohy (např. rozpoznání digitů v MNIST). | ||
+ | |||
+ | ==== Nevýhody lineární aktivační funkce ==== | ||
+ | |||
+ | Pokud by všechny vrstvy používaly **pouze lineární funkce** ($g(z) = z$): - Síť by se degradovala na jediný perceptron (lineární kombinátor). - Ztratila by schopnost modelovat nelineární vztahy, např. XOR problém. - Klesla by výrazně expresivita modelu. | ||
===== Klasifikace metodou nejbližšího souseda ===== | ===== Klasifikace metodou nejbližšího souseda ===== | ||
**Klasifikace metodou nejbližšího souseda. Výhody a nevýhody. Řadu nevýhod triviální implementace lze odstranit, jak?** | **Klasifikace metodou nejbližšího souseda. Výhody a nevýhody. Řadu nevýhod triviální implementace lze odstranit, jak?** | ||
+ | |||
+ | |||
+ | **Metoda k-NN (k-Nearest Neighbors) je algoritmus učení s učitelem, který klasifikuje neznámý vzorek na základě většinové třídy jeho //k// nejbližších sousedů v trénovacích datech. Nevýhody triviální implementace řeší např. k-D stromy.** | ||
+ | |||
+ | ==== Příklad ==== | ||
+ | |||
+ | Uvažujme 2D datovou sadu s třídami △ (modrá) a ● (červená): | ||
+ | |||
+ | < | ||
+ | \usepackage{amsmath} | ||
+ | \usepackage{pgfplots} | ||
+ | \usetikzlibrary{automata, | ||
+ | \begin{document} | ||
+ | |||
+ | \begin{tikzpicture}[scale=0.6] | ||
+ | \draw[gray!30] (0,0) grid (6,5); | ||
+ | \draw[-> | ||
+ | \draw[-> | ||
+ | \foreach \point/\col in {(1, | ||
+ | \fill[\col] \point circle (4pt); | ||
+ | \node[blue] at (1,1) {$\triangle$}; | ||
+ | \node[blue] at (1,3) {$\triangle$}; | ||
+ | \node[blue] at (2,2) {$\triangle$}; | ||
+ | \node[red] at (4,4) {$\bullet$}; | ||
+ | \node[red] at (5,3) {$\bullet$}; | ||
+ | \node[red] at (5,5) {$\bullet$}; | ||
+ | \fill[green] (3,3) circle (4pt); % Testovací bod | ||
+ | \node at (3,3.3) {?}; | ||
+ | \end{tikzpicture} | ||
+ | |||
+ | \end{document} | ||
+ | </ | ||
+ | Pro testovací bod (3,3) a //k//=3:\\ | ||
+ | 1. Vzdálenosti k △: √5≈2.24, | ||
+ | 2. Vzdálenosti k ●: √2≈1.41, | ||
+ | Nejbližší sousedé: △ (1.0), ● (1.41), △ (1.41) → většina △ → klasifikace jako △. | ||
+ | |||
+ | ==== Využití ==== | ||
+ | |||
+ | * Rozpoznávání obrazců (OCR, detekce objektů) | ||
+ | * Doporučovací systémy (“uživatelé s podobným profilem”) | ||
+ | * Lékařská diagnostika (klasifikace vzorků) | ||
+ | |||
+ | ==== Výhody ==== | ||
+ | |||
+ | - **Jednoduchá implementace** bez potřeby tréninkového modelu\\ | ||
+ | - **Adaptabilita** na nová data (stačí přidat vzorky)\\ | ||
+ | - **Vhodná pro vysoký počet tříd** (i stovky tříd) [1]\\ | ||
+ | - **Neparametrická** – nedělá předpoklady o distribuci dat | ||
+ | |||
+ | ==== Nevýhody ==== | ||
+ | |||
+ | - **Výpočetní náročnost** – O(//n//) pro každou klasifikaci (prohledávání všech vzorků)\\ | ||
+ | - **Citlivost na šum a irelevantní atributy**\\ | ||
+ | - **Problém vysoké dimenzionality** (curse of dimensionality)\\ | ||
+ | - **Nevhodná pro nevyvážená data** (dominance větších tříd) | ||
+ | |||
+ | ==== Řešení nevýhod ==== | ||
+ | |||
+ | * < | ||
+ | **k-D stromy** (k-dimensional trees):\\ | ||
+ | Binární stromy pro hierarchické rozdělení prostoru. Příklad pro 2D: | ||
+ | < | ||
+ | Root: (x=3.5) | ||
+ | ├─ Vlevo: body s x<3.5 (rozděl na y=2.5) | ||
+ | └─ Vpravo: body s x≥3.5 (rozděl na y=4) | ||
+ | </ | ||
+ | |||
+ | Složitost klesne na O(log //n//) při nízkých dimenzích [1].\\ | ||
+ | |||
+ | </ | ||
+ | * **Vážení atributů** (např. ReliefF algoritmus)\\ | ||
+ | * **Normalizace dat** (potlačení vlivu škálování)\\ | ||
+ | * **Výběr optimálního //k//** (křížová validací) | ||
+ | |||
+ | ==== Omezení k-D stromů ==== | ||
+ | |||
+ | * Efektivita klesá pro dimenze >20 (“curse of dimensionality”)\\ | ||
+ | * Konstrukce stromu O(//n// log //n//), ale jednorázová investice [1] | ||
===== Shlukování metodou k-means ===== | ===== Shlukování metodou k-means ===== | ||
- | **Shlukování metodou k-means, formulace úlohy a popis algoritmu. Vlastnosti algoritmu. Zobecnění - použití pro jiné ztrátové funkce než L2.** | ||
+ | **Shlukování metodou k-means, formulace úlohy a popis algoritmu. Vlastnosti algoritmu. Zobecnění – použití pro jiné ztrátové funkce než L2.** | ||
+ | |||
+ | ==== Formulace úlohy ==== | ||
+ | |||
+ | Cílem je rozdělit množinu $n$ datových bodů $\mathcal{D} = \{ \mathbf{x}_1, | ||
+ | $$ | ||
+ | J = \sum_{i=1}^k \sum_{\mathbf{x} \in C_i} \|\mathbf{x} - \boldsymbol{\mu}_i\|^2 | ||
+ | $$\\ | ||
+ | kde $C_i$ je $i$-tý shluk a $\boldsymbol{\mu}_i$ jeho centroid (průměr bodů ve shluku). | ||
+ | |||
+ | ==== Popis algoritmu ==== | ||
+ | |||
+ | - **Inicializace: | ||
+ | |||
+ | - **Přiřazení bodů:** Každý bod přiřazen k nejbližšímu centroidu (Eukleidovská vzdálenost): | ||
+ | $$ | ||
+ | C_i = \{ \mathbf{x} : \|\mathbf{x} - \boldsymbol{\mu}_i\|^2 \leq \|\mathbf{x} - \boldsymbol{\mu}_j\|^2 \, \forall j \} | ||
+ | $$\\ | ||
+ | |||
+ | - **Aktualizace centroidů: | ||
+ | $$ | ||
+ | \boldsymbol{\mu}_i = \frac{1}{|C_i|} \sum_{\mathbf{x} \in C_i} \mathbf{x} | ||
+ | $$\\ | ||
+ | |||
+ | - **Ukončení: | ||
+ | |||
+ | ==== Příklad ==== | ||
+ | |||
+ | < | ||
+ | \usepackage{amsmath} | ||
+ | \usepackage{pgfplots} | ||
+ | \usetikzlibrary{automata, | ||
+ | \begin{document} | ||
+ | |||
+ | \begin{tikzpicture} | ||
+ | % Data points | ||
+ | \filldraw[blue] (0.5,1.5) circle (2pt); | ||
+ | \filldraw[blue] (1,1) circle (2pt); | ||
+ | \filldraw[blue] (1.5,0.5) circle (2pt); | ||
+ | \filldraw[red] (3,2) circle (2pt); | ||
+ | \filldraw[red] (3.5,2.5) circle (2pt); | ||
+ | \filldraw[red] (4,3) circle (2pt); | ||
+ | \filldraw[green] (2,4) circle (2pt); | ||
+ | \filldraw[green] (2.5,4.5) circle (2pt); | ||
+ | \filldraw[green] (3,5) circle (2pt); | ||
+ | |||
+ | % Centroids (after convergence) | ||
+ | \filldraw[black] (1,1) circle (4pt) node[below] {$\mu_1$}; | ||
+ | \filldraw[black] (3.5,2.5) circle (4pt) node[below] {$\mu_2$}; | ||
+ | \filldraw[black] (2.5,4.5) circle (4pt) node[above] {$\mu_3$}; | ||
+ | \end{tikzpicture} | ||
+ | |||
+ | \end{document} | ||
+ | </ | ||
+ | //Výsledek po konvergenci: | ||
+ | |||
+ | ==== Vlastnosti algoritmu ==== | ||
+ | |||
+ | * **Rychlý a škálovatelný** pro velká data ($O(n \cdot k \cdot d)$ na iteraci).\\ | ||
+ | |||
+ | * **Citlivý na inicializaci** (špatná volba centroidů → suboptimální řešení).\\ | ||
+ | |||
+ | * **Předpokládá konvexní shluky** stejné velikosti (špatně zpracuje nestejnoměrná data).\\ | ||
+ | |||
+ | * **Lokální optimum:** Konverguje k nejbližšímu lokálnímu minimu $J$. | ||
+ | |||
+ | ==== Zobecnění pro jiné ztrátové funkce ==== | ||
+ | |||
+ | Místo Eukleidovské vzdálenosti ($\ell_2$) lze použít:\\ | ||
+ | - **Manhattanská vzdálenost ($\ell_1$): | ||
+ | $$ | ||
+ | J = \sum_{i=1}^k \sum_{\mathbf{x} \in C_i} \|\mathbf{x} - \boldsymbol{\mu}_i\|_1 | ||
+ | $$\\ | ||
+ | Centroid aktualizován jako **medián** shluku (odolnější vůči odlehlým hodnotám).\\ | ||
+ | - **Obecná Minkowského metrika ($\ell_p$): | ||
+ | $$ | ||
+ | \|\mathbf{x} - \boldsymbol{\mu}_i\|_p = \left( \sum_{j=1}^d |x_j - \mu_{ij}|^p \right)^{1/ | ||
+ | $$\\ | ||
+ | - **Kosinová podobnost: | ||
+ | |||
+ | ==== K-means++ ==== | ||
+ | |||
+ | Vylepšení inicializace centroidů: | ||
+ | 1. První centroid náhodně vybrán z dat.\\ | ||
+ | 2. Každý další centroid vybrán s pravděpodobností úměrnou $\|\mathbf{x} - \mu_{\text{nejblížší}}\|^2$.\\ | ||
+ | **Výhody: | ||
+ | |||
+ | ==== Aplikace ==== | ||
+ | |||
+ | * Segmentace zákazníků, | ||