Podle nové studie BBC, umělá inteligence často zkresluje nebo nepřesně interpretuje zpravodajské informace. Tento problém vyvolává vážné obavy o důvěryhodnost AI asistentů a přesnost informací, které poskytují.
Výzkum odhalil, že AI chatboti se ve zpravodajství mýlí poměrně často. Pokud by je lidé začali používat jako hlavní zdroj informací, mohlo by to vést k rozsáhlému šíření dezinformací. Dalším rizikem je, že důvěryhodné zpravodajské značky, jako je třeba anglická BBC, ztrácejí kontrolu nad svým vlastním obsahem. AI totiž často upravuje články nebo si vymýšlí falešné citace, což může poškodit pověst a zkomplikovat boj proti dezinformacím.
Nejde o problém jediné AI platformy – všechny hlavní systémy umělé inteligence mají podobné nedostatky. To ukazuje, že využití AI ve zpravodajství je stále v rané fázi vývoje a naráží na zásadní limity, které zatím nelze snadno překonat.
AI chatboti mají potíže s přesným zpravodajstvím

Výzkumníci BBC otestovali odpovědi čtyř populárních AI chatbotů – ChatGPT, Microsoft Copilot, Google Gemini a Perplexity. Cílem bylo zjistit, jak dobře si AI vede při odpovídání na otázky týkající se aktuálního dění.
Novináři položili chatbotům 100 otázek souvisejících se zpravodajstvím a požádali je, aby ve svých odpovědích citovali články BBC jako zdroj informací. Výsledky ukázaly znepokojivý trend:
- 51 % odpovědí obsahovalo závažné problémy, například zkreslená fakta, nesprávné citace nebo chybějící klíčový kontext.
- 91 % odpovědí mělo alespoň nějakou chybu, což znamená, že pouze 9 % odpovědí bylo zcela přesných.
- 19 % odpovědí, které se odkazovaly na BBC, obsahovalo faktické chyby – například nesprávná data událostí, chybné statistiky nebo záměnu osob.
- 13 % citací z článků BBC bylo upraveno nebo zcela vymyšleno, což znamená, že AI si některé pasáže doslova „vymyslela“ a prezentovala je jako skutečnost.
Dalším vážným problémem bylo to, že AI často nerozlišovala mezi fakty a názory. V některých případech prezentovala subjektivní tvrzení jako ověřená fakta, což je obzvláště nebezpečné v době masového šíření dezinformací a manipulace veřejného mínění.
Navíc chatbotům často chyběl širší kontext – poskytovaly izolované informace bez vysvětlení souvislostí. To může vést k chybné interpretaci i u jinak pravdivých informací. Například pokud AI uvede nějakou statistiku bez podrobností o metodologii nebo o širším významu, může být číslo sice fakticky správné, ale výsledek zavádějící.
Z těchto zjištění je zřejmé, že AI chatboti zatím nejsou dostatečně spolehliví pro poskytování přesných a kontextuálně správných zpráv. Pokud lidé nebudou tyto zpravodajské informace ověřovat z důvěryhodných zdrojů, může to vést k šíření nepravd a zkresleného pohledu na realitu.
Když AI dělá chyby: Konkrétní případy

Studie BBC přinesla několik konkrétních příkladů, kdy umělá inteligence poskytla chybné nebo zavádějící informace. Tyto chyby ukazují, jak velký problém může AI představovat, pokud lidé nekontrolují odpovědi a bezmezně jí důvěřují.
Například Google Gemini nesprávně tvrdil, že britský zdravotnický systém NHS nedoporučuje lidem začít vapovat. Ve skutečnosti však NHS vaping podporuje jako efektivní nástroj pro odvykání kouření. Tento omyl dokazuje, jak snadno může nesprávná interpretace zdrojů zmást veřejnost a vést k šíření nepřesných zdravotních doporučení. Pokud by lidé věřili této chybné informaci, mohli by zůstat u kouření místo toho, aby hledali méně škodlivou alternativu.
Další závažná chyba se objevila u Perplexity a ChatGPT, které nesprávně informovaly o smrti známého televizního moderátora Dr. Michaela Mosleyho. Toto je typický příklad situace, kdy AI může šířit nepravdivé zpravodajské informace, a to i v případě, kdy je přesnost naprosto klíčová. Takové chyby mohou zbytečně vyvolávat paniku nebo poškozovat pověst osobností, firem i institucí.
Závažným problémem je také neschopnost AI aktualizovat informace. Několik chatbotů tvrdilo, že někteří političtí lídři jsou stále ve funkci, přestože už rezignovali nebo byli nahrazeni. To ukazuje, že AI nemusí správně reflektovat aktuální změny, což může být nebezpečné zejména v politickém a veřejném diskurzu. Pokud by se například AI nesprávně odkazovala na politiky, kteří už nejsou ve funkci, mohla by způsobit zmatek v důležitých politických a společenských otázkách.
Proč jsou podobné zpravodajské informace tak nebezpečné?

Podle BBC je přesnost informací v médiích naprosto zásadní. Pokud AI asistent šíří chybné nebo zavádějící informace, může to podkopat důvěru veřejnosti v média a způsobit reálné škody.
Důvěra v zpravodajství je základem demokratické společnosti. Lidé spoléhají na přesné informace, aby mohli dělat informovaná rozhodnutí – ať už jde o volby, zdraví, ekonomiku nebo osobní život. Pokud jsou však tyto informace chybné nebo neúplné, společnost se může řídit falešnou představou o realitě, což vede k šíření dezinformací a rozdělování veřejnosti.
Další velký problém spočívá v tom, že i správné zpravodajské informace mohou být zavádějící, pokud nejsou podány s dostatečným kontextem. Například AI může uvést pravdivé číslo, ale pokud neobjasní jeho význam nebo zdroj, může dojít k nesprávné interpretaci. Lidé pak mohou na základě této „pravdy“ dojít k chybným závěrům.
Chyby umělé inteligence mohou mít dopad na politiku, zdravotnictví i byznys. Pokud například AI nesprávně interpretuje zdravotní doporučení, může ovlivnit rozhodování lidí o jejich zdraví. Pokud poskytne špatné zpravodajské informace o ekonomice, může to ovlivnit investory. Pokud zkreslí slova politických lídrů, může to vést k eskalaci napětí ve společnosti.
Co to znamená pro marketéry a tvůrce obsahu?

Výsledky studie BBC jasně ukazují, že AI není bezchybný nástroj a při jejím použití je nutné zachovat obezřetnost. Marketéři, novináři a tvůrci obsahu by si měli být vědomi rizik, která AI přináší a přijmout opatření, aby se vyhnuli šíření nepřesných informací.
První zásadní pravidlo je dbát na přesnost. Pokud AI generuje obsah s chybami, může to poškodit důvěryhodnost značky a způsobit ztrátu publika. Spolehlivost a kvalita informací jsou klíčem k budování dlouhodobé důvěry u zákazníků a čtenářů.
Dalším důležitým krokem je lidská kontrola. I když AI může pomoci s tvorbou obsahu, výstupy by měl vždy ověřit člověk. Ruční kontrola umožňuje odhalit chyby, zajistit správný kontext a ověřit zdroje. Bez této kontroly by se mohlo snadno stát, že AI nevědomky vytvoří dezinformaci.
Marketéři by také měli pamatovat na to, že AI nemusí správně chápat kontext. Například může zaměnit názor za fakt, chybně interpretovat zdroje nebo vynechat klíčové informace. Proto je důležité každý AI-generovaný obsah důkladně analyzovat a případně upravit tak, aby byl srozumitelný, objektivní a přesný.
Správná citace a uvádění zdrojů je dalším klíčovým aspektem. Pokud AI generuje obsah na základě jiných článků nebo studií, je důležité uvést odkazy na původní zdroje. To nejen zvyšuje důvěryhodnost obsahu, ale také ukazuje transparentnost při práci s AI.
A konečně, otevřená komunikace o použití AI pomáhá budovat důvěru. Marketéři a tvůrci obsahu by neměli skrývat, že používají umělou inteligenci. Naopak – pokud AI využívají, měli by své publikum informovat o tom, jakým způsobem ji zapojují do tvorby obsahu. Tím ukážou, že k AI přistupují odpovědně a s důrazem na kvalitu.
Závěr: AI je mocný nástroj, ale bez kontroly může škodit

Aktuální studie BBC jasně ukazuje, že AI chatboti zatím nejsou dostatečně spolehliví pro poskytování přesných a důvěryhodných zpráv. Ačkoli umělá inteligence dokáže pracovat s obrovským množstvím dat a poskytovat rychlé odpovědi, její schopnost analyzovat, ověřovat a správně interpretovat zpravodajské informace má vážné mezery. Výsledkem mohou být nepřesnosti, zkreslení faktů nebo dokonce šíření dezinformací, což může mít reálné dopady na společnost, byznys i jednotlivce.
AI sama o sobě není dobrá ani špatná – je to pouze nástroj, jehož kvalita závisí na tom, jak je používán. Stejně jako bychom neřídili auto bez řidičského oprávnění, neměli bychom slepě důvěřovat AI bez kritického myšlení a kontroly.
Umělá inteligence má obrovský potenciál usnadnit práci, zefektivnit rozhodování a rozšířit přístup k informacím. Pokud ji však budeme používat bez dostatečné kontroly a kritického myšlení, může se stát nástrojem dezinformací a chaosu.
AI není samospasitelná, bez lidského dohledu zůstane jen sofistikovaným algoritmem, který se učí z našich dat, ale nerozumí realitě v širších souvislostech. Budoucnost AI v médiích, marketingu i běžném životě závisí na tom, jak zodpovědně s ní budeme pracovat! AI není náhradou za lidskou inteligenci, ale může být cenným spojencem, pokud ji budeme používat chytře, kriticky a eticky.