Fairness v oblasti AI označuje proces zajištění toho, aby rozhodnutí učiněná modely strojového učení byla spravedlivá a nezvýhodňovala nebo nepoškozovala určité jednotlivce či skupiny. Protože se modely učí z historických dat, mohou snadno převzít a dokonce posílit lidské předsudky, které jsou v těchto datech obsaženy.
Zaujatost (bias) se do systému může dostat v různých fázích:
Existuje několik matematických definic férovosti, které si však mohou navzájem odporovat:
| Metrika | Definice | Příklad |
|---|---|---|
| Demographic Parity | Pravděpodobnost kladného výsledku by měla být stejná pro všechny skupiny. | Stejné procento schválených půjček pro muže i ženy. |
| Equal Opportunity | Model by měl mít stejnou úspěšnost v identifikaci „dobrých“ kandidátů napříč skupinami. | Stejná míra (True Positive Rate) u všech etnik. |
| Individual Fairness | Podobní jedinci by měli dostat podobné výsledky. | Dva lidé se stejným příjmem a historií dostanou stejný úrok. |
Boje proti zaujatosti se vedou ve třech fázích životního cyklu modelu:
1. **Pre-processing:** Úprava trénovacích dat (např. převážení vzorků nebo odstranění citlivých atributů). 2. **In-processing:** Změna samotného algoritmu přidáním "pokuty" za nespravedlivá rozhodnutí přímo do ztrátové funkce (loss function). 3. **Post-processing:** Úprava konečných výsledků modelu tak, aby splňovaly zvolená kritéria férovosti.
[Image showing AI fairness intervention stages: pre-processing, in-processing, and post-processing]
Jedním z největších problémů je, že nelze vyhovět všem definicím férovosti najednou. Často musíme obětovat malou část celkové přesnosti (accuracy) výměnou za větší spravedlnost. Tomu se říká Fairness-Accuracy Trade-off.
Zajímavost: Amazon musel v roce 2018 zrušit svůj experimentální náborový nástroj založený na AI, protože se ukázalo, že systematicky diskriminuje ženy. I když z dat odstranili informaci o pohlaví, model se naučil identifikovat „mužský styl“ psaní životopisů a preferoval ho.