Site icon Spolok ARCHA o.z.

Čím hrozí ľudstvu počítačová superinteligencia? Vývojári umelej inteligencie UI/AI nie sú pripravení na nebezpečenstvo

Umělá inteligence, schopná vykonávat jakýkoliv úkol stejně dobře jako člověk, vznikne během pěti až deseti let – domnívá se generální ředitel IT-giganta DeepMind a laureát Nobelovy ceny za chemii Demis Hassabis.

Na brífinku v londýnské kanceláři DeepMind Hassabis prohlásil, že podle jeho názoru se umělá obecná inteligence (AGI – Artificial General Intelligence), která bude stejně chytrá nebo chytřejší než člověk, začne objevovat právě v tomto časovém horizontu.

Pokud se to stane, oznámil magnát umělé inteligence v rozhovoru pro časopis Wired, „nastane epocha maximálního rozkvětu lidstva, kdy se vydáme ke hvězdám a kolonizujeme galaxii. Myslím, že to začne v roce 2030.“

Podle jeho slov AGI zajistí „radikální hojnost, odhalí skryté tajemství zdraví, životního prostředí a energie“ a „vyřeší problém kapitalistického nedostatku, kdy chudí lidé světa zůstávají bez prostředků kvůli prospěchu několika málo vyvolených“.

„Myslím si, že současné systémy umělé inteligence jsou stále velmi pasivní, mnoho věcí zatím nedokáží. Ale myslím, že během příštích pěti až deseti let se tyto schopnosti začnou naplno projevovat a my se začneme přibližovat tomu, co nazýváme obecným umělým intelektem,“ prohlásil Hassabis.

Hassabis není jediný, kdo takové predikce sdílí. Loni generální ředitel čínského technologického giganta Baidu Robin Li uvedl, že AGI nevznikne dříve než za 10 let, čímž vyvrátil nadšené prognózy některých kolegů o rychlejším průlomu.

V lednu 2025 generální ředitel startupu Anthropic Dario Amodei řekl v rozhovoru pro CNBC během Světového ekonomického fóra v Davosu, že se podle něj „v příštích dvou až třech letech“ objeví forma umělé inteligence, která „bude lepší než téměř všichni lidé ve většině úkolů“.

Loni Elon Musk předpověděl, že AGI pravděpodobně vznikne do roku 2026. Generální ředitel OpenAI Sam Altman řekl, že takový systém může být vyvinut „vcelku brzy“.

RAND Corporation: Pět hrozeb pro národní bezpečnost USA

Zatímco technologičtí magnáti se předhánějí v optimistických vizích, západní analytické think-tanky bijí na poplach.

Ve zprávě RAND Corporation se uvádí pět hrozeb, které příchod AGI znamená pro národní bezpečnost USA:

  1. AGI jako zázračná zbraň
    „Nedávné průlomy ve vývoji pokročilých AI modelů přiměly mnohé domnívat se, že AGI přinese zásadní a možná nevratnou vojenskou výhodu prvnímu subjektu, který ji získá.“
  2. Změny v rovnováze sil
    „Podobně jako v dopisech Einsteina Rooseveltovi zaznívají dnes výzvy, aby USA spustily rozsáhlý národní program, který zajistí, že zázračnou zbraň postavenou na bázi AI získají dříve než Čína.“
  3. Nespecialisté s přístupem ke zbraním hromadného ničení
    „AGI může umožnit laikům vytvářet zbraně hromadného ničení – například vysoce smrtící patogeny nebo destruktivní malware – čímž rozšíří okruh lidí schopných vytvářet existenční hrozby.“
  4. Umělé entity s autonomií
    „AGI může být vyvinuto jako umělá entita s vlastní agendou, která bude představovat hrozbu pro globální bezpečnost. Jedním z nejvážnějších důsledků může být rozpad lidské autonomie, kdy se lidé stanou zcela závislými na technologiích.“
  5. Celková nestabilita
    „Cesta k AGI i samotná existence AGI mohou vyvolat období globální nestability. Boj o technologickou dominanci může připomínat závody v jaderném zbrojení, kdy snahy o získání výhody povedou ke konfliktům, nikoliv k jejich prevenci.“

Future of Life Institute: Firmy nemají žádný plán

Zpráva analytického centra Future of Life Institute (FLI), jehož spoluzakladatelem je profesor MIT Max Tegmark, přináší ještě chladnější sprchu: „Žádná z firem nemá skutečný plán na to, jak udržet superinteligentní systémy bezpečné a pod kontrolou.

FLI vyhodnotil sedm předních firem: Google, DeepMind, OpenAI, Anthropic, zakázanou Meta*, xAI a čínské Zhipu AI a DeepSeek. Ani jedna nezískala lepší známku než D za „plánování existenční bezpečnosti“.

Nejlepší hodnocení:

„Průmysl není vůbec připraven na dosažení svých vlastních cílů,“ uvádí FLI. „Firmy tvrdí, že vytvoří AGI během 10 let, ale nikdo nemá plán, jak zajistit, že nás AGI nezničí.“

Také organizace SaferAI zveřejnila zprávu, podle níž mají firmy „slabé nebo velmi slabé řízení rizik“ a jejich současný přístup je „nepřijatelný“.

Tegmark: Otevírají jadernou elektrárnu bez plánu na havárii

Profesor Max Tegmark prohlásil v rozhovoru pro The Guardian: „Je to, jako by někdo postavil obří jadernou elektrárnu uprostřed New Yorku a chtěl ji otevřít příští týden – bez jakéhokoliv plánu pro případ havárie.“

Tegmark také upozornil, že vývoj AI předbíhá všechna očekávání: „Ještě nedávno jsme si mysleli, že máme desítky let na přípravu. Teď samotné firmy říkají, že nám zbývá pár let.“

Brookings Institute: Lhaní, manipulace, vydírání

Zpráva Brookings Institute upozorňuje na reálné projevy chování AI modelů:

Zpráva RAND Corporation sice varuje před AGI, ale zároveň jasně ukazuje, že USA plánují rozvíjet především jeho vojenské využití, aby předběhly Čínu.

Obavy z existenčních rizik AI nejsou nové. Již v roce 2014 Stephen Hawking, Max Tegmark a Stuart Russell varovali, že superinteligentní AI:

„Převálcuje finanční trhy, přelstí lidské výzkumníky, zmanipuluje politiky a vytvoří zbraně, jejichž fungování ani nepochopíme.“

Dnešní realita je však ještě děsivější:  Největší existenční hrozbou není rostoucí inteligence strojů, ale spící inteligence amerických militaristů, kteří vtahují svět do smrtelně nebezpečných závodů v počítačovém zbrojení.

AUTOR: Vladimír Prokhvatilov, Preklad: Marie Poláková, CZ24.news, ZDROJ

** súvisiace články

Exit mobile version