„Všetci na Zemi zomrú,“ varuje špičkový výskumník AI
Ľudstvo nie je pripravené prežiť stretnutie s oveľa inteligentnejšou umelou inteligenciou, hovorí Eliezer Yudkowsky
Zastavenie vývoja pokročilých systémov umelej inteligencie na celom svete a prísne potrestanie tých, ktorí porušujú moratórium, je jediný spôsob, ako zachrániť ľudstvo pred vyhynutím, varoval významný výskumník AI.
Eliezer Yudkowsky, spoluzakladateľ Inštitútu pre výskum strojovej inteligencie (MIRI), napísal v stredu pre magazín TIME stanovisko, v ktorom vysvetľuje, prečo nepodpísal petíciu vyzývajúcu „všetky laboratóriá AI, aby sa okamžite zastavili aspoň na šesť mesiacov tréningu systémov AI výkonnejších ako GPT-4,“ multimodálny veľký jazykový model, ktorý OpenAI vydala začiatkom tohto mesiaca.
Yudkowsky tvrdil, že list podpísaný takými ľuďmi ako Elon Musk a Steve Wozniak z Apple „žiadal príliš málo na vyriešenie“ problému, ktorý predstavuje rýchly a nekontrolovaný vývoj AI.
„Najpravdepodobnejší výsledok vybudovania nadľudsky inteligentnej AI, za čokoľvek, čo sa len vzdialene podobá súčasným okolnostiam je, že doslova každý na Zemi zomrie,“ napísal Yudkowsky.
Prežiť stretnutie s počítačovým systémom, ktorý sa „nestará o nás ani o vnímajúci život vo všeobecnosti“, by si vyžadovalo „presnosť a prípravu a nové vedecké poznatky“, ktoré ľudstvu v súčasnosti chýbajú a je nepravdepodobné, že ich v dohľadnej budúcnosti získa.
„Dostatočne inteligentná AI nezostane dlho viazaná na počítače,“ varoval Yudkowsky. Vysvetlil, že skutočnosť, že už je možné posielať reťazce DNA e-mailom do laboratórií na produkciu proteínov, pravdepodobne umožní AI „vybudovať umelé formy života alebo sa rovno zapojiť do postbiologickej molekulárnej výroby“ a dostať sa do sveta.
Podľa výskumníka musí byť okamžite zavedené neobmedzené a celosvetové moratórium na nové veľké tréningy AI. „Nemôžu existovať žiadne výnimky, a to ani pre vlády alebo armády,“ zdôraznil.
Yudkowsky trval na tom, že by sa mali podpísať medzinárodné dohody, aby sa stanovil strop, koľko výpočtového výkonu môže ktokoľvek použiť pri výcviku takýchto systémov.
„Ak rozviedka povie, že krajina mimo dohody buduje klaster GPU (grafická procesorová jednotka), bojte sa menej konfliktu medzi národmi ako porušovania moratória; byť ochotný zničiť nečestné dátové centrum náletom,“ napísal.
Hrozba zo strany umelej inteligencie je taká veľká, že by sa malo „v medzinárodnej diplomacii jasne uviesť, že predchádzanie scenárom vyhynutia AI sa považuje za prioritu pred zabránením úplnej jadrovej výmeny,“ dodal.