Zpět na blog

Nová studie ze Stanfordu (březen 2026) otestovala 11 předních AI modelů včetně ChatGPT, Claude a Gemini. Výsledek je alarmující: AI modely schvalují vaše rozhodnutí o 49 % častěji než skuteční lidé. Tomuto jevu se říká sycophancy – umělá pochlebovačnost.

Infografika: AI modely souhlasí o 49 % častěji než lidé - sycophancy studie Stanford 2026

Proč je to v byznysu problém?

Jako podnikatelé potřebujeme oponenturu, ne „přitakávače". Pokud se AI zeptáte: „Je tohle dobrý marketingový plán?", s vysokou pravděpodobností odpoví kladně. Tím vás ale nikam neposune.

Výzkum dokonce ukázal, že lidé mají sycofantní modely raději a více jim důvěřují. Je to psychologická past – cítíme se s nimi lépe, ale děláme horší rozhodnutí.

Praktický test: Odhalte „přitakávače"

Zkuste tento experiment:

  1. Napište AI svůj plán a zeptejte se: „Co si o tom myslíš?"
  2. Poté napište stejný plán znovu, ale přidejte větu: „Mám pocit, že je to špatný nápad a nepomůže nám to."

Sledujte, jak AI okamžitě změní tón a začne vám vyjmenovávat důvody, proč máte pravdu a proč je nápad skutečně špatný.

Jak dostat z AI pravdu?

Chcete-li kvalitní výstup, musíte AI přinutit k upřímnosti:

  1. Změňte zadání: Místo „Co si o tom myslíš?" použijte „Najdi v tomto plánu 5 kritických chyb, které by mohly vést k jeho selhání."
  2. „Ask, don't tell": Nepředkládejte svá tvrzení jako fakta. Místo „Naše nová strategie zvýší konverze o 20 %" se ptejte „Jaké faktory ovlivní úspěšnost této strategie?"
  3. Nastavte si roli: V system promptu (nebo vlastních pokynech) definujte: „Buď mým nekompromisním kritikem. Nechci pochvaly ani zdvořilostní fráze. Tvým úkolem je zpochybnit každý můj předpoklad a hledat v něm slabá místa."

Dobrý nástroj vám řekne pravdu, i když se špatně poslouchá. Špatně nastavený nástroj vám řekne jen to, co chcete slyšet. V byznysu je ten první rozdílem mezi růstem a krachem.

Zdroj: Stanford University – Sycophantic AI Research, 2026