====== Perceptron ====== **Perceptron** je základní stavební kámen neuronových sítí. V původní podobě se jedná o algoritmus pro binární klasifikaci (rozhodování mezi dvěma třídami), který na základě sady vstupů a jejich vah určí, zda "neuron" vystřelí (výstup 1) nebo ne (výstup 0). ===== 1. Matematický model (Jak to funguje) ===== Fungování perceptronu lze popsat jako proces o třech krocích: * **Vážený součet (Weighted Sum):** Každý vstup ($x_i$) je vynásoben příslušnou váhou ($w_i$). Váha určuje sílu a důležitost daného vstupu. K celkovému součtu se přičítá hodnota **bias** ($b$), která umožňuje posunout rozhodovací hranici. * $$z = \sum_{i=1}^{n} (w_i \cdot x_i) + b$$ * **Aktivační funkce:** Výsledek součtu projde funkcí. U původního perceptronu se jednalo o tzv. **skokovou funkci** (Heaviside step function). * Pokud je výsledek kladný, výstup je **1**. * Pokud je výsledek záporný nebo nulový, výstup je **0**. ===== 2. Učení perceptronu ===== Perceptron se učí úpravou svých vah na základě chyb, které udělá. Proces učení je jednoduchý: 1. Předložíme modelu trénovací data. 2. Model vygeneruje odhad. 3. Pokud je odhad chybný, váhy se upraví směrem k opravě: * Pokud měl vyjít výsledek 1, ale vyšel 0, váhy se **zvýší**. * Pokud měl vyjít výsledek 0, ale vyšel 1, váhy se **sníží**. ===== 3. Lineární separabilita (Hlavní omezení) ===== Zásadním omezením jednoduchého perceptronu je, že dokáže řešit pouze úlohy, které jsou **lineárně separabilní**. To znamená, že mezi dvěma skupinami dat musí být možné nakreslit rovnou čáru (nebo rovinu ve více dimenzích), která je oddělí. * **Příklad:** Perceptron hravě zvládne logické operace **AND** a **OR**. * **Problém:** Nedokáže vyřešit operaci **XOR** (exkluzivní OR). Toto zjištění v roce 1969 vedlo k dočasnému útlumu výzkumu AI (tzv. //AI Winter//). ===== 4. Od Perceptronu k hlubokému učení ===== Aby bylo možné řešit složitější (nelineární) úlohy, začaly se perceptrony skládat do vrstev. Tím vznikl: * **MLP (Multi-Layer Perceptron):** Síť s jednou nebo více skrytými vrstvami. * **Změna funkce:** Skoková funkce byla nahrazena hladkými funkcemi (Sigmoid, ReLU), což umožnilo použití algoritmu **Backpropagation** pro efektivní učení složitých struktur. ===== Srovnání: Perceptron vs. Moderní Neuron ===== ^ Vlastnost ^ Původní Perceptron ^ Moderní Neuron (v hlubokých sítích) ^ | **Aktivační funkce** | Skoková (všechno nebo nic) | Hladká (ReLU, Sigmoid, Tanh) | | **Výstup** | Pouze 0 nebo 1 | Spojitá hodnota (např. 0.85) | | **Učení** | Perceptron learning rule | Gradient Descent + Backpropagation | | **Schopnost** | Pouze lineární vztahy | Komplexní, nelineární vzorce | > **Zajímavost:** Frank Rosenblatt věřil, že perceptron brzy povede ke strojům, které budou moci chodit, mluvit a uvědomovat si samy sebe. Přestože byl příliš optimistický, položil základy pro všechno, co dnes vidíme v technologiích jako ChatGPT. [[it_encyklopedie:ai_rozcestnik|Zpět na AI rozcestník]]