Dvaja vedci, ktorí definujú výskum v OpenAI
Len máloktorá výskumná organizácia má taký dosah na náš každodenný digitálny život ako OpenAI. Po turbulentných zmenách vo vedení firmy sú to práve Mark Chen (Chief Research Officer) a Jakub Pachocki (Chief Scientist), ktorí dnes určujú strategický kurz jej vývoja.
Ako sa mení smerovanie OpenAI pod ich vedením? A čo to znamená pre nadchádzajúci model GPT-5?
Výskum a produktové ciele
Jednou z hlavných tém rozhovoru s MIT Technology Review bola potreba vyvážiť dlhodobý výskum s krátkodobými produktovými cieľmi. Chen priznáva:
„Nie je to len o tom, čo by sme mohli robiť, ale aj o tom, čo musíme zvládnuť bezpečne nasadiť.“
V prostredí, kde produktový tlak rastie (OpenAI dodáva technológie Microsoftu aj mnohým korporátnym klientom), je výzvou nezabudnúť na výskumné korene. Pachocki zároveň upozorňuje, že tento tlak nemusí byť len obmedzením, ale aj inováciou poháňaným mechanizmom:
„Produktové výzvy nám často pomáhajú lepšie pochopiť limity našich modelov.“
Kód a matematika: Jazyk budúcich modelov
Jedným z najzaujímavejších aspektov rozhovoru bol dôraz na formálnu matematiku a kódovanie ako nový cieľový jazyk umelej inteligencie.
Chen vysvetľuje:
„Ak chceme, aby modely skutočne rozumeli, musia byť schopné abstrahovať – a najčistejším jazykom abstrakcie je matematika.“
Táto perspektíva presúva vývoj AI smerom k multimodálnym modelom, ktoré nebudú len generovať text, ale budú schopné analyzovať, plánovať a formálne dokazovať tvrdenia – čo je významný krok k AGI (Artificial General Intelligence).
Čo sa stalo s tzv. “superalignment” tímom?
Po odchode Ilyu Sutskevera bol rozpustený tzv. superalignment team, ktorý sa venoval dlhodobým rizikám spojeným s vývojom superinteligencie.
Nie však z dôvodu, že by boli tieto riziká považované za irelevantné – skôr preto, že OpenAI volí integrovaný prístup.
Chen to opisuje takto:
„Bezpečnosť nie je projekt. Je to súčasť každého výskumu, každého tréningu modelu.“
Tento posun má logiku – namiesto izolovaného tímu sa bezpečnostné princípy vkladajú priamo do srdca vývoja, čím sa má zabrániť ich neskorému „dopĺňaniu“.
GPT-5: Čo môžeme očakávať?
Aj keď OpenAI v rozhovore výslovne nespomína nový model, mnohé naznačujú:
- Zvýšený dôraz na reasoning a formalizované poznanie
- Lepšie schopnosti práce s kódom, matematikou a plánovaním
- Efektívnejšia multimodalita, ktorá bude integrovať text, obraz a možno aj ďalšie vstupy ako zvuk
Ak vývoj pôjde týmto smerom, GPT-5 by mohol byť prvým modelom, ktorý sa seriózne priblíži k funkčnej „agentnej“ AI, schopnej samostatne riešiť komplexné úlohy v dynamickom prostredí.
Budúcnosť výskumu: Kolektívne vedenie, decentralizovaná inteligencia?
Výmena jedného „vizionárskeho génia“ (ako bol Ilya Sutskever) za kolektívne vedenie môže znamenať nový štandard vo vývoji AI – diverzifikácia, väčšia transparentnosť a tímové rozhodovanie.
Z toho sa môžeme poučiť aj mimo sveta veľkých jazykových modelov – ak stavíme na kolektívne učenie, otvorený výskum a zdieľané vedenie, možno nielenže vytvoríme múdrejšie stroje, ale aj múdrejšie spoločnosti.
Záver: Sledovať vývoj znamená chápať našu budúcnosť
To, čo sa deje v OpenAI, nie je len technologický vývoj – je to kultúrna zmena v chápaní výskumu, bezpečnosti a kolektívnej inteligencie.
Ak vás téma AGI, GPT-5 a etiky AI zaujíma, sledujte nové články na https://ai-kurzy.online, kde sa pravidelne venujeme najnovším trendom a ich praktickému dopadu.
Použité zdroje:
MIT Technology Review: The two people shaping the future of OpenAI’s research