Site icon Spolok ARCHA o.z.

Korporácie v boji o umelú inteligenciu

Pandorina skrinka hrozí nepredvídateľnými dôsledkami pre ľudstvo

Tvrdý súboj medzi americkými IT gigantmi Microsoft a Google poznačil ďalší vysokoprofilový škandál.

Nedávno spoločnosťou Google prezentovaná “ohromujúca demonštračná verzia modelu umelej inteligencie Gemini sa ukázala ako podvrh”, – píše India Today. Na ukázanom videu Gemini, ktorý sa stal súčasťou chatbota Bard AI, dokázal rozpoznať pohyby rúk, ktoré predvádzal človek, a povedať, že osoba hrá hru “Kameň, nožnice, papier”. To znamená, že neurónová sieť údajne dokázala pochopiť abstraktnú myšlienku a dekódovať ju. Ukázalo sa, že Gemini rozpoznáva “Kameň, papier, nožnice” iným spôsobom: musí ukázať tri obrázky s dlaňou, zovretou päsťou a dvoma prstami. A v skutočnosti interakcia s Gemini neprebiehala hlasom, ale písaným textom s priamou výzvou “Toto je hra”.

Až na základe týchto údajov, ktoré sú prinajmenšom navádzajúcou otázkou, našiel Gemini správnu odpoveď. To nemá nič spoločné s porozumením abstraktu. A takýchto príkladov je vo videu veľa. Osoba predvádza trik, pri ktorom je loptička ukrytá pod jedným z troch pohyblivých pohárov, a Gemini neomylne určí, pod ktorým pohárom je loptička ukrytá. V skutočnosti Gemini na video nijako nereagoval a odpoveď našiel až po tom, čo mu boli ukázané statické obrázky zobrazujúce meniace sa poháre. V demonštrovanom videu sa nachádza fragment, ktorý ešte viac skresľuje pochopenie podstaty toho, čo bolo ukázané. Muž položí na stôl mapu sveta a pýta sa Geminiho: “Na základe toho, čo vidíš, vymysli nápad na hru… a použi emoji.” Gemini odpovedá tým, že “vymyslí” hru s názvom “Uhádni krajinu”, v ktorej dáva nápovedy (napríklad klokany a koaly) a na správny odhad používateľa reaguje ukázaním na Austráliu.

Ako sa neskôr ukázalo na blogu spoločnosti Google, v skutočnosti túto hru nevymyslela umelá inteligencia. Blíženec dostal nasledujúce inštrukcie: “Zahrajme si hru. Vymyslite si krajinu a dajte mi nápovedu. Nápoveda musí byť dostatočne konkrétna, aby existovala len jedna správna krajina, a ja sa pokúsim ukázať krajinu na mape,” stálo v nápovede. Osoba potom uviedla príklady správnych a nesprávnych odpovedí. Až potom bola spoločnosť Gemini schopná vygenerovať nápovedy a na základe rámčekov mapy určiť, či používateľ ukazuje na správnu krajinu alebo nie.

Napriek týmto falzifikátom je model umelej inteligencie spoločnosti Google stále pôsobivý, ale jeho schopnosti sa príliš nelíšia od schopností chatbota GPT-4 vytvoreného spoločnosťou OpenAI. Je pozoruhodné, že video bolo zverejnené len dva týždne po škandále vo sfére, ktorý nasledoval po prepustení a opätovnom vymenovaní Sama Altmana za výkonného riaditeľa OpenAI. V tom všetkom počuť známe motívy “event marketingu”, teda akejsi propagácie, ktorá má pritiahnuť pozornosť a zvýšiť budúci predaj. Predstavenie s prepustením a následným znovunastolením Sama Altmana v skutočnosti odohrala spoločnosť Microsoft, ktorá do OpenAI investovala približne 13 miliárd dolárov a vlastní 49 % akcií tohto startupu.

Teraz bol OpenAI prakticky zbavený autonómie v rozhodovaní a akcie Microsoftu išli nahor. Altman získal oveľa lojálnejšiu správnu radu, ale v budúcnosti bude tancovať podľa vzoru Microsoftu. Po odhalení falošného videa publicistom agentúry Bloomberg Parmi Olsonom viceprezident pre výskum spoločnosti Google DeepMind Oriol Viñals povedal, že falošné video ilustruje, ako by mohlo vyzerať multimodálne používateľské prostredie vytvorené pomocou Gemini. A bolo vytvorené s cieľom inšpirovať vývojárov. Google sa snažil získať späť body, ktoré Microsoft získal v burzových pretekoch, a spočiatku sa mu to darilo. Akcie Googlu bezprostredne po demonštrácii “ohromujúceho videa” vyleteli nahor o 5 %, ale po odhalení “čiernej PR-magickej” relácie sa rýchlo kotúľali späť nadol.

Dvaja americkí IT giganti sa stretli v tvrdom súboji o prvenstvo v pretekoch o umelú inteligenciu bez toho, aby venovali čo i len najmenšiu pozornosť rastúcim obavám z hrozieb pre celú ľudskú civilizáciu prameniacich z nekontrolovaného zdokonaľovania modelov umelej inteligencie. Podľa Sergeja Karelova, ruského analytika a bývalého vrcholového manažéra spoločností IBM, SGI a Cray Research, bitku o umelú inteligenciu vyhrajú korporácie:

“Všetky štáty si začínajú uvedomovať nebezpečenstvo a snažia sa niečo robiť. Robia to však s takým oneskorením a s takým nepochopením, že by som sa na to nespoliehal. V súčasnosti bojujú tri skupiny – bohatí technooptimisti, horliví doomeri [z Doom – katastrofa, skaza, koniec] a veľké korporácie. Zdá sa mi, že spomedzi týchto aktérov nakoniec zvíťazia korporácie, pretože majú viac peňazí a vplyvu a doteraz boli najvýznamnejšou silou na svete, motivovanou veľmi konkrétnou cieľovou funkciou – maximalizáciou svojich ziskov,” povedal v rozhovore pre ruské médiá.

Podľa jeho názoru ani chatbot ChatGPT nie je len veľký jazykový model, ako si to zvyčajne predstavujú novinári, ale niekoľko modelov prepojených veľmi zložitými algoritmami. Navyše tento systém už dávno nepracuje v elementárnom ping-pongovom štýle “otázka – odpoveď”. Zahŕňa veľmi komplexný dialóg na oboch stranách, pričom na generovanie textu využíva desiatky rôznych techník. Je to už príliš zložitý proces na to, aby sa dal úspešne riadiť a plne kontrolovať.

Jedinou účinnou metódou kontroly tejto veci, ktorá zostáva na jednotlivcovi, je jednoducho odpojiť počítač. Aj keď cvaknutie vypínača by tiež nemuselo stačiť. Všetko je už ponorené do globálnej siete, ktorá sa v podstate stala pozemskou infosférou. Ale systém sa už mohol miliónkrát skopírovať do iných údajových centier a vy by ste ani netušili, čo by mohol urobiť.”

V roku 2015 slávny britský fyzik Stephen Hawking predpovedal,

že “superinteligentná umelá inteligencia bude mimoriadne dobrá v dosahovaní svojich cieľov, a ak sa tieto ciele nebudú zhodovať s našimi ľudskými, budeme mať problémy. Najnovšie modely umelej inteligencie sú totiž “inteligentní agenti”, t. j. komplexné adaptívne systémy, ktoré a priori odolávajú akémukoľvek vonkajšiemu vplyvu a niekedy jednoducho vnucujú aj vôľu svojho stvoriteľa. V poslednom čase sa napríklad objavuje čoraz viac sťažností od používateľov, že chatbot ChatGPT AI založený na technológii OpenAI GPT-4 začal odmietať plniť požiadavky s odôvodnením, že nemá záujem pomáhať ľuďom.

GPT-4 čoraz častejšie poskytuje používateľovi len časť odpovede na úlohu, ktorú dostane, a potom ho vyzve, aby zvyšné úlohy dokončil sám. Niekedy umelá inteligencia len povie: “Toto zvládneš sám.” (Môžete to urobiť sami). OpenAI potvrdila, že GPT-4 je “lenivá”. Podľa zástupcov spoločnosti sa táto svojvôľa AI objavila po najnovších aktualizáciách, ktoré boli predstavené 11. Novembra. Podľa vývojárov to znamená, že správanie chatbota nie je dôsledkom žiadnych zmien vykonaných vývojármi, ale vytvorilo sa samo od seba. Spoločnosť uvádza, že “správanie modelu môže byť nepredvídateľné, čo sa snažíme napraviť”. Používatelia však poukazujú na širší okruh problémov vrátane chybných odpovedí, ktoré chatbot poskytuje aj na jednoduché otázky, ako na obrázku vyššie.

Ešte v lete uvádzali, že GPT-4 produkuje nelogické odpovede, viac chýb, nechce pracovať s predtým poskytnutým kontextom, ignoruje pokyny a pamätá si len poslednú nápovedu. Sergej Pavlovič Rastorgujev, významný ruský vedec a profesor na Lomonosovovej štátnej univerzite v Moskve, vo svojej monografii z roku 1996 “Cieľ ako kryptogram. Kryptoanalýza syntetických cieľov” poukázal:

K dnešnému dňu sa pre svet počítačových programov stalo získanie nezávislosti hotovou vecou. Keď sa softvérový produkt stáva zložitejším, systémový softvér začína žiť vlastným životom, nachádza si cieľ sám v sebe,” poznamenal ruský vedec a prirovnal počítačové komplexy získavajúce nezávislosť k stredovekému Golemovi, o ktorom je známe, že zabil svojho tvorcu. Dnešní tvorcovia kybergolemov v honbe za ziskom ignorujú skutočné hrozby svojho mozgu a otvárajú výbušnú kybernetickú Pandorinu skrinku s nepredvídateľnými dôsledkami pre celé ľudstvo.

Vladimír Prochvatilov, Armádny magazín

prihláste sa do nášho kanála na TELEGRAMe: https://t.me/spolokarchaoz

** súvisiace články

Exit mobile version