Výzkumníci společnosti Apple vyvinuli systém umělé inteligence s názvem ReALM (Reference Resolution as Language Modeling), jehož cílem je radikálně zlepšit způsob, jakým hlasoví asistenti rozumí příkazům a reagují na ně.



V dokumentu (prostřednictvím VentureBeat) Apple nastiňuje nový systém, jak velké jazykové modely řeší rozlišení referencí, což zahrnuje dešifrování nejednoznačných odkazů na obrazovce a také porozumění kontextu konverzace a pozadí. V důsledku toho může ReALM vést k intuitivnějším a přirozenějším interakcím. „Rozlišení odkazů je důležitou součástí porozumění přirozenému jazyku a umožňuje uživatelům používat zájmena a další nepřímé odkazy v konverzaci bez zmatků. Pro digitální asistenty byla tato schopnost historicky významnou výzvou, omezenou potřebou interpretovat širokou škálu verbálních podnětů a vizuálních informací. Systém ReALM společnosti Apple se to snaží vyřešit převedením složitého procesu rozlišení referencí na problém čistě jazykového modelování. Přitom dokáže porozumět odkazům na vizuální prvky zobrazené na obrazovce a integrovat toto porozumění do toku konverzace.“

ReALM by mohl uživatelům umožnit interakci s digitálními asistenty mnohem efektivněji s ohledem na to, co je aktuálně zobrazeno na jejich obrazovce, aniž by potřebovali přesné a podrobné pokyny. To má potenciál učinit hlasové asistenty mnohem užitečnějšími v různých nastaveních, jako je pomoc řidičům při navigaci v informačních a zábavních systémech za jízdy nebo pomoc uživatelům se zdravotním postižením poskytováním snadnějších a přesnějších prostředků nepřímé interakce. Všeobecně se očekává, že Apple na červnové WWDC odhalí řadu funkcí AI.