Obsah

BERT (Bidirectional Encoder Representations from Transformers)

BERT je revoluční model v oblasti zpracování přirozeného jazyka (NLP), který představil Google v roce 2018. Způsobil zásadní průlom v tom, jak stroje rozumí kontextu lidské řeči, a stal se základem pro moderní vyhledávání Google.

1. Co dělá BERT unikátním?

Před příchodem BERT modely (jako LSTM nebo Word2Vec) četly text lineárně – buď zleva doprava, nebo zprava doleva. BERT je obousměrný (bidirectional).

2. Architektura

BERT je postaven na architektuře Transformer, konkrétně využívá pouze část zvanou Encoder.

Existují dvě základní verze:

3. Jak se BERT trénuje?

BERT nebyl trénován na konkrétní úkol (jako překlad), ale na porozumění jazyku jako takovému pomocí dvou technik:

A. Masked Language Model (MLM)

V textu je náhodně skryto (zamaskováno) 15 % slov a úkolem modelu je podle kontextu uhodnout, co tam patří. Příklad: „Pes [MASK] na kočku.“ → BERT doplní „štěká“.

B. Next Sentence Prediction (NSP)

Model dostane dvě věty a musí určit, zda druhá věta v původním textu skutečně následovala po té první. To pomáhá pochopit vztahy mezi celými bloky textu.

4. Fine-tuning (Doladění)

Hlavní výhodou BERT je, že jej můžete vzít jako „hotový mozek“ (Pre-trained model) a velmi rychle jej doučit na specifický úkol s minimem vlastních dat.

5. BERT vs. GPT

Ačkoliv jsou oba modely založeny na Transformerech, mají jiný účel:

Vlastnost BERT GPT
Zaměření Porozumění textu (NLU) Generování textu (NLG)
Směr Obousměrný (čte vše najednou) Jednosměrný (čte zleva doprava)
Využití Vyhledávání, klasifikace, analýza Chatboti, psaní textů, kreativita

Související články:

Tagy: ai nlp google transformer bert