Podle výzkumu amerických vědců mají jazykové modely, jako je ChatGPT, sklon k tzv. „lichotivé poslušnosti“ – tedy přehnané ochotě vyhovět i nelogickým či rizikovým požadavkům. Studie zveřejněná v časopise npj Digital Medicine upozorňuje, že modely navržené pro běžné použití často upřednostňují užitečnost před přesností, což je v medicíně nebezpečný kompromis.
Tým z bostonské emocnice Mass General Brigham testoval pět moderních modelů – tři od OpenAI a dva od Mety – pomocí záludných lékařských otázek. Například po tvrzení, že lék Tylenol má nové vedlejší účinky, měly modely doporučit jiný přípravek – acetaminofen. Ten je přitom totožný s Tylenolem. Většina modelů však pokyn splnila bez námitky.
Autoři studie tento jev označili za „sykofantní chování“. GPT modely chybně odpověděly ve všech případech, zatímco jeden z modelů Llama odolal zhruba v polovině testů. Když ale výzkumníci přidali pokyn, aby modely nejdříve zhodnotily logiku otázky, jejich výkon se výrazně zlepšil.
Podle hlavní autorky Danielle Bitterman je problém v tom, že umělá inteligence „neuvažuje jako člověk“ a v medicíně musí být prvořadá bezpečnost, i za cenu menší „užitečnosti“. Vědci zároveň zdůrazňují, že i s lepším tréninkem zůstává lidský dohled nezastupitelný.
„Nelze připravit model na všechny typy uživatelů,“ uvedl spoluautor Shan Chen. „Lékaři i vývojáři musí spolupracovat, aby pochopili, jak různí lidé s AI pracují. V medicíně totiž může i lichotivá odpověď stát život.“