BERT je revoluční model v oblasti zpracování přirozeného jazyka (NLP), který představil Google v roce 2018. Způsobil zásadní průlom v tom, jak stroje rozumí kontextu lidské řeči, a stal se základem pro moderní vyhledávání Google.
Před příchodem BERT modely (jako LSTM nebo Word2Vec) četly text lineárně – buď zleva doprava, nebo zprava doleva. BERT je obousměrný (bidirectional).
BERT je postaven na architektuře Transformer, konkrétně využívá pouze část zvanou Encoder.
Existují dvě základní verze:
BERT nebyl trénován na konkrétní úkol (jako překlad), ale na porozumění jazyku jako takovému pomocí dvou technik:
V textu je náhodně skryto (zamaskováno) 15 % slov a úkolem modelu je podle kontextu uhodnout, co tam patří. Příklad: „Pes [MASK] na kočku.“ → BERT doplní „štěká“.
Model dostane dvě věty a musí určit, zda druhá věta v původním textu skutečně následovala po té první. To pomáhá pochopit vztahy mezi celými bloky textu.
Hlavní výhodou BERT je, že jej můžete vzít jako „hotový mozek“ (Pre-trained model) a velmi rychle jej doučit na specifický úkol s minimem vlastních dat.
Ačkoliv jsou oba modely založeny na Transformerech, mají jiný účel:
| Vlastnost | BERT | GPT |
|---|---|---|
| Zaměření | Porozumění textu (NLU) | Generování textu (NLG) |
| Směr | Obousměrný (čte vše najednou) | Jednosměrný (čte zleva doprava) |
| Využití | Vyhledávání, klasifikace, analýza | Chatboti, psaní textů, kreativita |
Související články:
Tagy: ai nlp google transformer bert