Spoločnosť OpenAI, ktorá vytvorila rad chatbotov GPT, sa rozhodla zistiť, ako funguje umelá inteligencia týchto kybernetických príšer, a touto zodpovednou úlohou poverila najdokonalejšieho z nich chatbota GPT-4. Predchádzajúce pokusy výskumníkov OpenAI nezávisle “nazrieť do duše” vlastných stvorení neboli úspešné. Navyše, čím sú chatboty zložitejšie, tým ťažšie je pochopiť, ako fungujú, čo “vedie k nedostatočnej transparentnosti a vysvetľovaniu”.

Napokon, OpenAI práve vzala a preniesla túto nesplniteľnú úlohu na plecia najvýkonnejšieho chatbota GPT-4 s počtom neurónov nad sto miliárd a poverila ho, aby nazrel do kybernetického mozgu svojho slabšieho kolegu GPT-2, ktorý má len niečo vyše 300-tisíc neurónov. Architektúra neurónových sietí umelej inteligencie kopíruje štruktúru ľudského mozgu. Ľudské mozgové bunky – neuróny – tvoria komplexnú sieť s vysokým stupňom prepojenia a posielajú si navzájom elektrické signály, pričom spracovávajú prichádzajúce informácie. Podobne aj umelá neurónová sieť sa skladá z umelých neurónov, ktoré vzájomne spolupracujú pri riešení problémov. Umelé neuróny sú softvérové moduly nazývané uzly a umelé neurónové siete sú zložité viacvrstvové programy.

GPT-4 si počínal vynikajúco a zadal GPT-2 niekoľko úloh, ktoré ten splnil. Výsledok bol celkom nečakaný. Ukázalo sa, že mnohé neuróny v malom chatbote sú viachodnotové – reagovali na rôzne vstupné údaje: zmes akademických citátov, dialógov v angličtine, HTTP-žiadostí, textov v kórejčine… Inými slovami, ukázalo sa, že tieto neuróny sú, obrazne povedané, multitaskery, ktoré vykonávajú niekoľko “profesií”. GPT-4 nedokázal prísť na dôvody tejto multifunkčnosti.

Odpoveď získali analytici zo spoločnosti Anthropic, ktorú založil Dario Amodei, pôvodne z OpenAI. Analytici spoločnosti Anthropic po vykonaní viacerých experimentov zistili, že hlavným dôvodom nejednoznačnosti je takzvaná “superpozícia”, keď sa vo vnútri neurónovej siete chatbota simuluje fyzicky neexistujúca neurónová sieť nejakej abstraktnej UI, ktorá je oveľa väčšia a zložitejšia ako neurónová sieť, ktorá ju modeluje. Táto virtuálna sieť vytvorená chatbotom v plnom zmysle obsahuje simulované celkom jednoznačné “subneuróny” (zodpovedajúce konkrétnym pojmom).

V podstate sa to dalo čakať. Chatboty vytvorené človekom sú komplexné adaptívne systémy, ktoré, ako vieme z kurzu teórie systémov, majú vlastnosť emergentnosti (emergentný – “vznikajúci, nečakane sa objavujúci”), keď je systém zložitejší ako jednoduchý súčet jeho konštitutívnych prvkov (tehla + projekt = dom). Zistilo sa teda, že vnútri aj toho najslabšieho chatbota sa pri vykonávaní akejkoľvek úlohy vytvára oveľa výkonnejšia výpočtová UI, pričom fyzicky neexistuje ako akýsi “kyberholand”.

Čoho je táto super AI schopná, odhaľuje nová štúdia hlavného vedca spoločnosti Google DeepMind, profesora Murraya Shanahana z Imperial College London a profesorky Catherine Clarkeovej z Londýnskej univerzity. Shenahan a Clarková zadali úlohu otestovať prítomnosť predstavivosti GPT-4, ktorá chatbotovi umožňuje prejaviť tvorivosť pri písaní (v spoluautorstve s človekom) literárneho textu, v tomto prípade fantasy románu o cestovaní v čase. V priebehu experimentu sa ukázalo, že v spoluautorstve s človekom a za prítomnosti komplexných podnetov chatbot preukazuje vyspelú predstavivosť.

“Je to produkt tvorivosti modelu, pretože nič podobné ľudia predtým nevymysleli (nebolo to v žiadnom ľudskom texte): napríklad nové postavy a dejové zvraty vymyslené modelom, ktoré sa objavujú v priebehu románu; nové neologizmy, ktoré slúžia na odhalenie ideologického obsahu zápletky – nie nezmyselné, ale sémanticky správne a kontextovo relevantné”, – komentuje výsledok experimentu britských vedcov ruský IT-analytik Sergej Karelov. Experimentálne sa teda dokázalo, že komplexné systémy umelej inteligencie od spoločnosti Microsoft OpenAI majú predstavivosť a tvorivosť.

Najnovší vývoj medzinárodného tímu VERSES AI má, ako sme písali, ešte silnejšiu inteligenciu a tvorivé schopnosti. “Nadľudské systémy umelej inteligencie budú schopné komplexného a tvorivého správania, ktorému ľudia nebudú schopní úplne porozumieť. Ak napríklad nadľudský model vygeneruje milión riadkov mimoriadne zložitého kódu, ľudia nebudú schopní spoľahlivo posúdiť, či je vykonávanie tohto kódu bezpečné alebo nebezpečné… To vedie k zásadnému problému: ako môžu ľudia kontrolovať a dôverovať systémom umelej inteligencie, ktoré sú oveľa inteligentnejšie ako oni?” – uviedli americkí IT analytici vo svojej správe. Domnievajú sa, že riadenie vývoja umelej inteligencie zlyhá a zastaví sa, pretože je potrebné vysporiadať sa s tzv. superzosúladením. Existujúce metódy “zosúladenia”, ktorých cieľom je zabezpečiť zosúladenie cieľov a výsledkov AI, už v prípade superinteligentnej UI nefungujú.

Vznik superinteligentnej UI sa približuje. Ak sa dovtedy nevyvinú prostriedky “superzosúladenia”, ľudstvo bude mať len málo čo stratiť. Situácia sa totiž v súvislosti s nekontrolovaným vývojom čoraz nebezpečnejších systémov UI na Západe a na vojenské účely stáva kategorickou nevyhnutnosťou vývoj metód protiopatrení a obrany proti západnej UI, hovorí Artem Artemov, jeden z popredných ruských IT expertov. Jedným zo smerov je vytvorenie takzvaného náboženstva umelej inteligencie, akejsi obdoby troch pravidiel robotiky Isaaca Asimova.

Kvôli stručnosti sa používa aj termín “digitálny Boh”. Teda hypotetický superprogram kontrolujúci správanie všetkých UI, ktorý zakazuje UI škodiť ľuďom vo všeobecnosti a najmä Ruskej federácii. Kým západné IT spoločnosti vrhli všetku svoju energiu do vytvárania stále výkonnejších systémov AI, ruskí analytici sa zameriavajú na vývoj metód na ochranu ľudstva pred kybernetickými monštrami vytvorenými novými Frankensteinmi.

Vladimír Prochvatilov

** súvisiace články

By ARCHA

Secured By miniOrange