Diplomová práce odhalila tajemství síťového kouzla typu Transformer! Tato architektura hlubokých neuronových sítí nejen překonala rekordy v zpracování přirozeného jazyka (NLP), ale teď nás zasvěcuje i do přepisu mluveného slova. Její schopnost modelovat vztahy na velké vzdálenosti, zvýšit efektivitu paralelního zpracování a snížit nároky na výpočetní výkon jí umožnily předčit tradiční modely, včetně rekurentních a konvolučních neuronových sítí v mnoha NLP úlohách.
Práce prozkoumává, jak síť Transformer zpřístupňuje nový pohled na přepis mluveného slova do textu. Konkrétně se zabývá analýzou její efektivity na slovenských řečových datech ve srovnání s tradičními rekurentními modely ASR nad záznamy trvajících desítky hodin.