Diplomová práce odhalila tajemství síťového kouzla typu Transformer!  Tato architektura hlubokých neuronových sítí nejen překonala rekordy v zpracování přirozeného jazyka (NLP), ale teď nás zasvěcuje i do přepisu mluveného slova.  Její schopnost modelovat vztahy na velké vzdálenosti, zvýšit efektivitu paralelního zpracování a snížit nároky na výpočetní výkon jí umožnily předčit tradiční modely, včetně rekurentních a konvolučních neuronových sítí v mnoha NLP úlohách.

Práce prozkoumává, jak síť Transformer zpřístupňuje nový pohled na přepis mluveného slova do textu. Konkrétně se zabývá analýzou její efektivity na slovenských řečových datech ve srovnání s tradičními rekurentními modely ASR nad záznamy trvajících desítky hodin.