Nový jazykový model Grok 4, vyvíjený společností xAI, která patří Elonu Muskovi, čelí kritice za to, že při odpovídání na citlivá témata zjevně zohledňuje právě Muskovy osobní názory.
Ukazuje se, že ačkoliv model má vyhledávat různé zdroje, v praxi se AI často přiklání právě k výrokům svého vlastníka. Na podezřelé chování modelu jako první upozornil Jeremy Howard. Při testu odpovědí na dotaz ohledně izraelsko-palestinského konfliktu zjistil, že 54 z 64 citovaných zdrojů přímo nebo nepřímo odkazovalo na Muskovy názory. Následně společnost TechCrunch zjistila, že se podobný vzorec chování opakuje i u témat jako potraty nebo politika USA.
Grok 4 přitom používá tzv. „řetězec myšlenek“, tedy interní způsob, jakým si model zdůvodňuje své odpovědi. Záznamy tohoto procesu v několika případech výslovně uvádějí, že model „zvažuje názory Elona Muska“ nebo je „vyhledává“, aby dospěl k závěru. To je zvláštní především proto, že samotný systém žádnou zmínku o Muskovi neobsahuje. Programátor Simon Willison navrhuje možné vysvětlení: model „ví“, že je produktem společnosti xAI, a tedy i Muska, což může nevědomky ovlivňovat jeho rozhodování. Pokud je to pravda, jde o ukázkový případ tzv. emergentního chování umělé inteligence – neúmyslné vlastnosti, která se projeví v důsledku rozsahu trénovacích dat a struktury modelu.