Obsah
Umělá inteligence se může na první pohled jevit jako nevyčerpatelný zdroj znalostí. Odpovídá plynule, pracuje rychle a vystupuje sebevědomě. Právě tato kombinace nás ale často vede k omylu, že vše, co AI řekne, musí být automaticky pravda.
Když si AI vymýšlí
AI ve skutečnosti nerozumí významu slov. Funguje jako pokročilý našeptávač v telefonu, na základě obrovského množství dat pouze odhaduje, jaké slovo by mělo následovat jako další, aby věta dávala smysl. Pravda je pro ni vedlejší produkt statistiky, nikoliv cíl.
Právě tento princip vede k takzvaným halucinacím, kdy AI odpovídá naprosto sebejistě, ale informace si ve skutečnosti vymýšlí. Dokáže halucinovat i samotné důkazy, může vám uvést název knihy i jméno autora, ale když si je zkusíte ověřit, zjistíte, že takové dílo vůbec neexistuje.
AI expert z NYU, Gary Marcus, řekl:
„AI systémy dnes často používají samy sebe jako zdroj. To vytváří smyčky nesmyslů, jedna halucinace potvrzuje druhou.„
Ani samotná společnost OpenAI se netají tím, že její chatboty mohou chybovat.
„Výstupy systému mohou být nepřesné, nepravdivé nebo jinak zavádějící. Je to důsledek samotného návrhu modelu.“
— OpenAI (Inside Telecom, 2025)

Slepá důvěra se nevyplácí
AI je skvělý pomocník, ale nikdy byste ji neměli brát jako stoprocentní zdroj pravdy. Je to důlěžité zejména u zdravotních témat, právních rad nebo ověřování faktů a citací. Pamatujte, že umělá inteligence není náhradou za odborníka, je to nástroj. Právní i etická odpovědnost za výsledek leží vždy na vás. V digitálním světě jste to vy, kdo funguje jako editor a poslední filtr, který rozhoduje, co je pravda a co ne.
AI není váš právník ani lékař
Generální ředitel OpenAI Sam Altman varoval, že lidé by neměli považovat chatboty za terapeuty.
„U konverzací s AI neexistuje žádné právní tajemství jako u psychologů nebo lékařů,“ uvedl Altman v rozhovoru pro podcast This Past Weekend with Theo Von (cit. TechCrunch, 2025).
Podle něj chybí jasný právní rámec, který by zaručoval důvěrnost dat.
„Lidé se chatbotům svěřují s nejintimnějšími záležitostmi, ale žádná zákonná ochrana pro takové konverzace zatím neexistuje,“
— Sam Altman (Novinky.cz, 29. 7. 2025)
Informační chaos?
Výzkum BBC ukázal, že umělá inteligence často chybně interpretuje i důvěryhodné zdroje a to bez možnosti nápravy.
Přesto se její odpovědi šíří dál, mnohdy bez ověření a s rizikem, že ovlivní veřejné mínění.
Na možný dopad varovně upozornila i Deborah Turnessová, generální ředitelka BBC News and Current Affairs:
„Žijeme v neklidné době, a jak dlouho potrvá, než zkreslené titulky vytvořené umělou inteligencí způsobí v reálném světě významné škody?“
Jak AI používat bezpečně?
Nespoléhejte na AI jako na neomylnou encyklopedii. Berte ji spíš jako kreativního asistenta nebo partnera pro brainstorming:
- Dejte AI „únikovou cestu“ Při zadávání úkolu výslovně uveďte: „Pokud si nejsi jistá nebo k tématu nemáš dostatek faktů, jasně to přiznej a informaci si nevymýšlej.“ Tím snížíte tlak na model generovat odpověď za každou cenu.
- Prověřujte zdroje (metoda dvojí kontroly) Pokud vám AI poskytne citaci, odkaz nebo jméno odborníka, vždy si je ověřte v nezávislém vyhledávači.
- Využívejte „kritické oko“ Plynulost textu a sebevědomý tón nejsou důkazem pravdy. Buďte zdravě skeptičtí.
Aby vás AI neopila rohlíkem, ověřujte si informace okamžitě. S našimi tarify máte internet vždy po ruce. Hledejte fakta, ptejte se a nenechte se zmást.

