Jak se vyhnout problémům s „ukecanou“ AI
Nový výzkum z Deakin University ukazuje, že tam, kde se očekává přesnost a důvěryhodnost – například v akademických citacích – může být AI až (ne)překvapivě nespolehlivá.
A toto zjistění je důležité i pro firmy. Protože pokud si AI vymýšlí zdroje pro akademiky, může napáchat docela velké škody při tvorbě prezentací, rešerší nebo interních podkladů ve firmách.
Co zjistila studie?
Výzkumníci z australské Deakin University zadali ChatGPT úkol vytvořit šest literárních rešerší na témata spojená s duševním zdravím. Výsledek?
Ze 176 vygenerovaných citací:
- 35 (19,9 %) bylo zcela smyšlených – články ani autoři neexistovali;
- 141 citací (45,4 %) obsahovalo chyby – např. špatné roky vydání, názvy časopisů nebo DOI odkazy;
- pouze 77 citací (43,8 %) bylo správně uvedených i relevantních.
Samožřejmě, že mnoho chybných citací působilo věrohodně – měly správnou strukturu, existující DOI čísla, ale odkazovaly na naprosto nesouvisející články. Anebo nefungovaly vůbec.
AI pomáhá, ale i kecá
Tato zjištění jsou sice z akademického prostředí, ale velmi snadno si můžeme představit, jak podobné chyby vznikají i v komerčním světě. A vlastně to není nějaká teoretická představa, ale realita, která probíhá v řadě firem právě teď.
Třeba když AI generuje rešerši pro obchodní prezentaci, návrh strategie nebo dokonce podklady pro rozhodování.
Vypadá to dobře. Čísla sedí. Odkazy jsou tam. Ale když se podíváte blíž, něco nehraje. A bez lidské kontroly si toho možná nikdo nevšimne.
Tohle je typický příklad AI halucinace – fenoménu, kdy nástroj sice vytvoří formálně správný text, ale jinak jde o snůšku nesmyslů.
Pro uživatele, kteří nejsou zvyklí výstupy ověřovat, je to dokonalá past. Zvlášť když technologie „mluví“ sebevědomě, používají odbornou terminologii a text působí konzistentně.

Proč je to důležité pro firmy?
V mnoha firmách se dnes AI používá pro:
- přípravu výstupů pro klienty;
- tvorbu obsahu pro marketing;
- interní dokumentaci;
- rešerše a analýzy;
- nebo jako asistent pro obchodní týmy.
Pokud ale výstupy nikdo kontroluje, může AI dodat důvěryhodně vypadající blábol.
To může vést k chybným rozhodnutím, poškození reputace nebo ztrátě důvěry – a to už není malý problém.
Nejsmutnější na tom je, že vlastně nejde o nic nového. Tento problém je tady po celou dobu existence generativní AI, avšak s jejím masovým rozšiřováním bohužel nezmizel. Naopak.
Proč? Protože je to mnohem jednodušší a rychlejší, řada lidí vezme výstup, který vygeneruje AI, a udělají copy/paste a jede se dál.
Je řada scénářů, kdy je to naprosto v pohodě, ale to jen do té chvíle, kdy přijde opravdu velký fail.

Co s tím?
Zkrátka generativní AI je zapotřebí používat chytře. A k tomu je potřeba v první řadě zdravý rozum, kritické myšlení a digitální mindset.
To znamená, že ve firmách jsou zapotřebí lidé, kteří:
- umějí (kriticky) myslet;
- chápou, jak AI funguje i kde jsou její limity;
- umí formulovat kvalitní zadání (prompty);
- vědí, jak ověřit výstupy;
- a jsou schopní rozeznat, kdy AI výstup jen vypadá dobře, ale nedává smysl.
V Digiskills učíme, jak s AI nástroji pracovat efektivně a bezpečně. Od základního porozumění, až po konkrétní scénáře využití v praxi – ať už jde o práci s Microsoft 365, nebo o generativní AI, jako je Microsoft 365 Copilot.
Věříme, že technologie by měly život zjednodušovat – ale nikdy na úkor zdravého rozumu. Naučíme vás s AI pracovat tak, aby vám opravdu pomáhala a nepřidělávala starosti.
Šlápněte do toho s Digiskills?