Keď AI zlyhá: Prečo porozumenie umelej inteligencii je základným predpokladom k jej úspešnému nasadeniu v praxi

Slepá dôvera v AI bez pochopenia jej limitov môže viesť k drahým chybám — prípad Deloitte ukazuje, čo sa môže stať, keď chýba ľudský dohľad aj porozumenie.

Keď AI zlyhá: Prečo porozumenie umelej inteligencii je základným predpokladom k jej úspešnému nasadeniu v praxi
Photo by Dan V / Unsplash

Úvod: Keď sa inteligencia mení na ilúziu

Na prelome októbra 2025 sa spoločnosť Deloitte Australia ocitla v centre pozornosti po tom, čo priznala, že pri tvorbe vládnej správy v hodnote 440 000 dolárov využila generatívnu umelú inteligenciu — a tá vytvorila neexistujúce citácie aj falošné zdroje.

Po odhalení akademikom Christopherom Rudgem z University of Sydney sa ukázalo, že časť textu bola síce na pohľad odborná, no fakty v nej jednoducho neexistovali (The Guardian).

Firma nakoniec vláde časť peňazí vrátila, no reputačné škody zostali. A s nimi aj otázka, ktorú by si mal položiť každý manažér, úradník aj vývojár: Rozumieme naozaj tomu, ako AI funguje – alebo jej len slepo dôverujeme?

AI nie je čarovná skrinka, ale stroj so vzorcami

Keď generatívna AI píše text, nerobí to ako človek, ktorý rozmýšľa nad významom. Pracuje so štatistickými vzorcami – predpovedá, ktoré slovo pravdepodobne nasleduje po inom.

Preto sa stáva, že si model „vymyslí“ citácie alebo fakty, ktoré v skutočnosti neexistujú. Tento jav sa nazýva AI hallucination – model jednoducho dopĺňa realitu tak, ako sa mu javí pravdepodobná, nie tak, ako je pravdivá.

V prípade Deloitte AI vygenerovala mená odborníkov, ktorí v skutočnosti nikdy nepublikovali. Správa síce pôsobila presvedčivo, ale po kontrole sa ukázalo, že jej základy stoja na piesku (The Nightly). Problém teda nebol v samotnej AI, ale v tom, že ju ľudia použili bez pochopenia, ako funguje a kde má svoje hranice.

Ľudská kontrola nestačí, ak chýba kompetencia

Mnohí sa spoliehajú na tzv. human oversight – teda že človek dohliada na prácu umelej inteligencie. No ako ukazuje štúdia Ben Greena, dohľad je efektívny len vtedy, ak človek rozumie modelu, ktorý kontroluje.

V praxi sa však často deje opak: človek síce AI sleduje, ale nerozumie, čo má vlastne hľadať. Výskum Almog et al. dokonca ukazuje, že keď majú ľudia možnosť AI opraviť, paradoxne robia viac chýb, pretože sa na model príliš spoliehajú.

V prípade Deloitte zlyhala presne táto hranica – AI vytvorila text, ľudia ho prešli, ale nenašli chyby, lebo nevedeli, že také chyby môžu existovať. Vznikol tak typický efekt „black box“: keď systém niečo povie, berieme to ako fakt, pretože nerozumieme, čo sa deje vo vnútri.

Zodpovednosť a dôvera: komu vlastne veriť, keď AI zlyhá

Kauza Deloitte vyvolala aj otázku zodpovednosti. Kto nesie vinu, keď AI vytvorí chybný dokument? Podľa senátorky Deborah O’Neill ide o „ľudský problém, nie technologický“. Prílišná dôvera v automatizované procesy bez kritického overovania podľa nej predstavuje „systémové riziko“, najmä vo verejných projektoch (AFR).

Tu sa dotýkame kľúčového princípu digitálnej etiky: AI nesmie byť náhradou za zodpovednosť. Ak firma použije umelú inteligenciu, musí vedieť, ktoré časti boli generované, aké dáta boli použité a aký proces validácie prebehol. Bez tejto transparentnosti sa dôvera verejnosti stráca – a spolu s ňou aj ochota prijímať inovácie.

Ako nasadzovať AI rozumne – nie len efektne

AI môže byť mocný nástroj, ale len vtedy, keď ju používame vedome. Z praktického hľadiska by mal každý projekt s umelou inteligenciou prejsť štyrmi fázami:

  1. Porozumenie modelu – poznať, na akých dátach bol trénovaný, aké má silné a slabé stránky.
  2. Validácia výstupov – žiadny text, analýza ani rozhodnutie AI by nemalo ísť von bez overenia expertom.
  3. Transparentnosť procesu – označiť, ktoré časti boli generované AI, uchovávať logy a revízie.
  4. Vzdelávanie používateľov – technológia nie je cieľ, ale prostriedok; organizácie musia rozvíjať internú kompetenciu v práci s AI.

Pre slovenské firmy či štátne inštitúcie to znamená jednoduché pravidlo: AI nezachráni to, čomu nerozumie človek.

Záver: AI zlyháva len vtedy, keď zlyhávame my

Prípad Deloitte nie je technologický škandál, ale ľudská lekcia. Nie preto, že AI zlyhala, ale preto, že bola použitá bez pochopenia. Umelá inteligencia môže výrazne zvýšiť efektivitu, kvalitu a rýchlosť rozhodovania – ale iba vtedy, ak jej výstupy vieme čítať s rozumom, nie slepou vierou.

Ak chceme, aby AI pracovala pre nás, musíme najprv porozumieť jej logike, nie len ju nasadiť.

Dva praktické tipy pre slovenské prostredie

  • Nenasadzujte AI bez školenia tímu. Aj jednoduchý interný workshop o limitoch jazykových modelov môže predísť chybám, ktoré by vás stáli tisíce eur.
  • Overujte všetko, čo AI vytvorí – rovnako ako prácu nového kolegu. Každý výstup generatívnej AI je návrh, nie verdikt.

Diskusná otázka: Ak by podobná situácia ako v prípade Deloitte nastala na Slovensku – kto by niesol zodpovednosť? AI, firma, alebo človek, ktorý ju použil?

📘 Ak vás zaujíma, ako nastaviť bezpečné a zodpovedné používanie AI vo vašej firme, prečítajte si viac na AI-Kurzy.online.