Hlavní navigace

Je umělá inteligence jen opakujícím papouškem?

14. 11. 2023

Sdílet

 Autor: Depositphotos.com
V debatách ohledně umělé inteligence hojně zaznívá argument, že současné velké jazykové modely neoriginálně skládají naučené kousky textů na základě pravděpodobností. Ale je tomu tak?

Názor z perexu poněkud opomíjí fakt, že současná AI je z větší části založená na principech, které se uplatňují také v našich mozcích – takže pokud o ní uvažujeme jako o stochastickém papouškovi, platilo by víceméně totéž i o našem vlastním uvažování.

Jak spravujete více cloudů ve vaší firmě?

V čem je tedy současná umělá inteligence (AI) odlišná od našich a zvířecích mozků? Hlavní rozdíl spočívá v tom, že AI „běží“ na tradiční výpočetní infrastruktuře sestávající z křemíkových čipů a počítačových programů, kdežto přírodní nervové soustavy jsou tvořeny mnoha druhy neuronů uspořádanými do komplexní sítě, jejíž činnost ovlivňují různé řídicí a regulační subsystémy (například více než stovka neurotransmiterů atd.). Nicméně samotná aplikační vrstva, tedy umělá neuronová síť (artificial neural network), už poměrně věrně napodobuje jak fungování jednotlivých biologických neuronů, tak do jisté míry i strukturu a funkcionalitu mozku.

Není proto překvapení, že historicky obor AI, tedy strojové učení a výzkum umělé inteligence, vycházel ze stejných poznatků jako neurovědy, mezi něž počítáme kognitivní vědu a neurobiologii. A snažil se také nalézat odpovědi na obdobné otázky: jak pracuje lidská paměť, jak vznikají schopnosti abstrakce nebo generalizace či samotné vědomí?

Teorie stochastického papouška

S pojmem stochastického papouška přišla v roce 2021 Emily Benderová se svými spolupracovnicemi v článku Nebezpeční stochastičtí papoušci: Jsou jazykové modely příliš velké? V něm se ve zkratce tvrdí, že jazykové modely nerozumějí jazyku, protože si nejsou schopné vytvořit model reálného světa jako lidé. Autorky se domnívají, že lidé disponují jedinečným chápáním jazyka, které je zprostředkováno naší jazykovou kompetencí a predispozicí k interpretaci lidské komunikace. 

Podle nich tedy velké jazykové modely (large language models) jsou systémy, které chaoticky, jen na základě pravděpodobnosti, kombinují úryvky tréninkových textů, ovšem bez jejich skutečného pochopení – pro takový model pak razí označení „stochastický papoušek“. Stochastičtí papoušci pouze předvádějí řečové výstupy, které lidé chybně zaměňují za smysluplný jazykový projev, a jsou díky této iluzi „porozumění“ také schopní ošidit různé testy včetně proslulého Turingova.

Vše však nasvědčuje tomu, že se Benderová mýlí. Současná generativní AI už produkuje výstupy, které jsou k nerozeznání od těch lidských, ať už jde o texty, obrazy nebo hudbu. A umělé neuronové sítě obstojí v souboji s lidmi i v nejrůznějších benchmarkových testech měřících rozumové schopnosti nebo v testech vyhodnocujících způsobilost lidí pro výkon povolání. Umožňují jí to emergentní schopnosti jako schopnost vytvořit si vlastní reprezentaci světa, logické a analogické uvažování, abstraktní myšlení a zobecňování, jež jsou výsledkem škálování samotných sítí i souborů tréninkových dat.

CS24

Jak poznáte, že už s tím máte seknout Přečtěte si také:

Jak poznáte, že už s tím máte seknout

Teorie stochastického papouška tedy sice správně upozorňuje na fakt, že ANN nedělají o moc více než „násobení matic“, ale současně opomíjí skutečnost, že mozek a jeho činnost lze také s přiměřenou mírou zjednodušení matematicky a statisticky modelovat – počínaje nejjednodušší přirozenou jednotkou neuronem a konče komplexními strukturami zodpovědnými za senzorické vjemy nebo paměť.

Podobnosti mozků a umělých sítí

Jaké jsou tedy podobnosti mezi přirozenými a umělými neuronovými sítěmi? Začněme na úrovni jednotlivých neuronů. Jak už samotná etymologie naznačuje, neuron umělých neuronových sítí byl přímo inspirován neuronem biologickým. Dnešní umělé neuronové sítě jsou také tvořeny neurony – matematickými modely zpracovávajícími vstupní signály, v nichž je síla synapsí vyjádřena parametry (váhami) – v matematickém vyjádření v nich dochází k transformaci vstupních vektorů na požadované vektory výstupní. V procesu jejich učení se pak postupuje tak, že se ze základního nastavení upravují vstupní váhy těchto neuronů.

Byl pro vás článek přínosný?