Sme stále v Newtonovskej ére umelej inteligencie

Halucinácie nie sú len chyba. Sú symptómom limitov architektúr. Ak chceme prežiť AI revolúciu, musíme myslieť ako Einstein.

Sme stále v Newtonovskej ére umelej inteligencie

Sme stále v Newtonovskej ére umelej inteligencie

Ak dnes hovoríme o umelej inteligencii, často sa pohybujeme v paradoxoch. Modely ako ChatGPT, Claude či Gemini dokážu generovať vysoko koherentný text, tvoriť kód, prekladať či sumarizovať. No zároveň — môžu halucinovať. Môžu si „vymyslieť“ zdroj, vytvoriť neexistujúcu štatistiku, alebo odpovedať presvedčivo na niečo, čo nikdy nebolo pravdivé.

Prečo sa to deje? Bežná odpoveď znie: „Modelu chýbajú dáta, chýba mu grounding.“ No čo ak je táto odpoveď chybná? Čo ak halucinácie nie sú dôsledkom nevedomosti, ale symptómom niečoho hlbšieho?

Halucinácie ako geometrická anomália

V článku „Hallucination as Extrapolation Under Collapse“ John P. Alioto uvádza: halucinácie nevznikajú preto, že AI model niečo „nevie“. Vznikajú preto, že transformerové architektúry operujú v geometrickom priestore, kde sa niekedy stratí zmysluplná trajektória.

Presnejšie povedané: AI model funguje ako systém, ktorý hľadá „koherentné trajektórie“ v priestore vysokorozmerných aktivácií. Tento priestor nie je lineárny — má štruktúrované oblasti, kde prechod medzi tokenmi dáva zmysel (coherence manifolds), a oblasti „nízkej hustoty“, kde sa logické prechody rozpadajú. Keď sa model dostane do takej oblasti, musí niečo vygenerovať — no spraví to tak, že sa zrúti k najbližšej možnej trajektórii. A práve to je halucinácia.

„Halucinácie nie sú dôsledkom nevedomosti. Sú geometrickým dôsledkom topológie aktivácií.“
— John P. Alioto

Takto popísaná AI je podobná Newtonovskému mechanizmu: predvídateľná, hladká, deterministická... pokiaľ funguje v rámci svojich posilnených trajektórií. Ale ako náhle nastane topologický zlom — systém nemá nástroj, ako „preskočiť“ medzeru. A to definuje jeho limity.

Einsteinovská a kvantová éra AI: čo nás čaká?

V 20. storočí Newtonov svet nestačil na vysvetlenie reality. Prišiel Einstein a ukázal, že priestor a čas sa môžu ohýbať. Prišla kvantová fyzika, ktorá rozbila predstavu kontinuity.

Presne to isté čaká aj AI. Súčasné modely (transformery) nemajú mechanizmus na diskontinuálne myslenie. Nevedia robiť „nelokálne“ presuny ako človek — napríklad keď prejdeme z jedného konceptu na druhý bez medzičlánkov. Chýba im schopnosť „potrhávať“ priestor, ohýbať významy, vytvárať nové symboly, ktoré ešte nemajú jazykové reprezentácie.

„Transformer nemá operátora, ktorý by vedel skákať medzi oddelenými regiónmi svojho aktivovaného priestoru.“

Toto je hranica tvorivosti. A aj hranica dôvery. Model môže generovať čokoľvek, no nevie povedať, že „nič nevie“. Vždy musí niečo odpovedať. A v tom je jeho nebezpečenstvo.

CTN: most medzi geometriou a konceptom

V uvedenom článku sa zároveň navrhuje elegantné riešenie: Cognitive Tensor Networks (CTN) — konceptuálna štruktúra, ktorá umožní modelu, aby „stabilizoval“ svoje myslenie aj v neznámych oblastiach. CTN nie je len prompt, ale pomocný priestor, kde môže model pokračovať v uvažovaní bez kolapsu do najbližšej štatistiky.

CTN umožňuje modelu:

  • zavádzať dočasné symboly pre neurčité koncepty
  • zachovať koherenciu aj v zložitých mentálnych skokoch
  • navigovať cez paralelné významové priestory

To je kľúčové: nie pre „správne odpovede“, ale pre možnosť spoločného myslenia — človeka a modelu. Ako tvrdí John P. Alioto: „CTN nie je riešenie alignmentu. Je to infraštruktúra pre spoločnú navigáciu.“

Čo z toho vyplýva pre budúcnosť?

Sme dnes svedkami prelomu — no stále stojíme na Newtonovskej strane. Naša AI interpoluje výborne. Extrapoluje zle. Nedokáže skákať medzi konceptmi. Nevie, kedy je ticho múdrejšie ako odpoveď.

Ak chceme, aby sa AI stala dôveryhodným partnerom v poznaní, musíme prejsť do novej éry. Možno einsteinovskej. Možno kvantovej. Taká AI bude musieť narábať s neistotou, vedieť mlčať, rozlišovať, kedy extrapolácia vedie k prehľadu — a kedy ku kolapsu.

Otázka do diskusie:

Ak by AI mohla rozlišovať medzi tichom a halucináciou — dôverovali by sme jej viac? Alebo by sme sa báli jej „vedomej“ nečinnosti ešte viac?

Dva tipy na záver:

  1. Overujte fakty v AI výstupoch: Aj keď znejú dôveryhodne, môžu byť výsledkom geometrického kolapsu, nie poznania.
  2. Vytvárajte pomocné štruktúry pre AI asistenciu: Ak používate AI pri písaní, analýze či výskume — dávajte jej explicitné rámce, pojmy a ciele. Pomôžete jej zostať v koherentnej oblasti.

Na AI kurzoch sa venujeme praktickému využitiu umelej inteligencie s dôrazom na kritické myslenie. Sledujte nás na https://ai-kurzy.online