Apokaliptičen scenarij: bo človeštvo izbrisala umetna inteligenca?
»Najverjetnejša posledica ustvarjanja nadčloveško inteligentne umetne inteligence je, da bo vsak član človeške vrste in vse biološko življenje na Zemlji - dobesedno vse - umrlo,« je prejšnji teden v reviji Time napovedal Eliezer Yudkowsky, vodja raziskovalnega inštituta za strojno inteligenco, neprofitne organizacije v Berkeleyju v Kaliforniji.
Yudkowsky je že pred časom opozarjal, kako lahko nekdo nevede ustvari umetno inteligenco, ki bi se obrnila proti človeštvu. In pred nekaj leti je predlagal tudi modificiran Moorov zakon, po katerem minimalni IQ, potreben za uničenje sveta, vsakih 18 mesecev pade za eno točko. Zdaj pa je Yudkowsky šel še korak dlje.
Potrebujemo popoln in globalni moratorij
»Verjamem, da se približujemo nevarni točki, ko ustvarimo umetno inteligenco, ki je inteligentnejša od nas samih, ki ne počne, kar hočemo, in se sploh ne zmeni za nas. Verjeten rezultat soočenja človeštva z nasprotno nadčloveško inteligenco zato vodi do popolnega zloma ... Takšna umetna inteligenca bi zlahka pobegnila iz interneta in 'tam zunaj' zgradila umetne oblike življenja, ki bi proti nam bojevale biološko vojno. Zato potrebujemo popoln in globalni moratorij na razvoj umetne inteligence,« opozarja Eliezer Yudkowsky.
Pred kratkim sta med drugim Elon Musk (lastnik Tesle in Twitterja) in Steve Wozniak (soustanovitelj Appla) v pismu pozvala k šestmesečnemu premoru v razvoju umetne inteligence. Poudaila sta, da bo razvoj umetne inteligence z nadčloveškimi sposobnostmi brez kakršnega koli mednarodnega regulativnega okvira vodil v katastrofo. A Yudkowsky v nasprotju s podpisniki omenjenega pisma ne verjame, da je ta trenutni problem mogoče rešiti v samo pol leta.
Ne bo nas »izbrisala« umetna inteligenca, edina realna nevarnost tukaj je, da bomo razpadli kot vrsta z uporabo orodij umetne inteligence za neplemenite ali nečedne namene.
V čem je težava?
Težava je v tem, da večino raziskav o umetni inteligenci izvaja zasebni sektor. Glede na zadnje poročilo Stanfordskega inštituta za umetno inteligenco, osredotočeno na človeka, so svetovne zasebne naložbe v umetno inteligenco leta 2022 znašale 92 milijard dolarjev, od tega več kot polovica v ZDA. Zasebna podjetja so izdelala skupaj 32 pomembnih modelov strojnega učenja, v primerjavi s samo tremi, ki so jih izdelale akademske ustanove.
Toda mnogi kritiki, vključno z Mattom Parlmerjem, ustanoviteljem podjetja za strojna orodja GenFab, Yudkowskyja obtožujejo, da je ustvaril »trdolinijski kult proti umetni inteligenci«. »Prekinitev raziskav umetne inteligence bi bolne ljudi prikrajšala za potencialna odkritja v medicinski znanosti,« opozarja Parlmer, ki ga citira Bloomberg.
Tudi Nicholas Thompson, izvršni direktor Atlantica, se strinja, da Yudkowsky v mnogih pogledih pretirava.
»Nedavno sem za sinov deveti rojstni dan z Dall-E in GPT-4 naredil otroško knjigo o svetovnem prvenstvu med njegovimi plišastimi živalmi. Medvedki so zmagali in bilo mu je všeč ... Vzemimo si vsi čas za eksperimentiranje. Naredili bomo velike stvari in se ob tem učili,« je prepričan Thompson.
Tyler Cowen iz Bloomberg Opinion pa si je postavil nekaj hipotetičnih vprašanj. »Kaj če bi se leta 2006 družno odločili, da za šest mesecev ustavimo razvoj družbenih medijev, medtem ko razmišljamo o morebitni škodi zaradi njihove široke uporabe? Ti škodljivi učinki so bili takrat komaj očitni in se še vedno izpodbijajo. Kako dolgo bi bili medtem, po šestmesečni zamudi, v postopku ocenjevanja? In tudi če ameriška podjetja uvedejo šestmesečni premor, kdo lahko reče, da bodo to storila tudi kitajska podjetja,« se sprašuje.
Zagovorniki razvoja
Med zagovorniki razvoja umetne inteligence je tudi Reid Hoffman, ustanovitelj LinkedIna. Ne oporeka dejstvu, da obstaja vsaj nekaj tveganja pri razvoju umetne inteligence, ki je večja od človeške, a hkrati pravi: »Zaupajte nam, da bomo to storili zelo etično, kajti če nas boste omejili, bodo negativci tisti, ki bodo delali na razvoju umetne inteligence, kar bi lahko resnično pripeljalo do prave katastrofe.«
Dejstvo je, da večina umetne inteligence počne stvari, ki človeštvu prinašajo koristi in ne groženj. Na primer, AlphaFold podjetja DeepMind je določil strukture približno 200 milijonov beljakovin, kar je velik znanstveni korak naprej.
Kako nas torej lahko umetna inteligenca uniči? Ne ustvarja ubijalskih androidov, kot je Arnold Schwarzenegger v »Terminatorju«, ampak samo uporablja svojo moč, da nas posnema, da nas posamezno ponori in kolektivno požene v državljansko vojno. Kot pravi Manny Rincon-Cruz iz inštituta Hoover: modeli umetne inteligence, ki lahko ustvarijo besedila v naravnem jeziku iz velikih količin podatkov, ne manipulirajo z atomi ali biti, manipulirajo - z nami. Ne bo nas »izbrisala« umetna inteligenca, edina realna nevarnost tukaj je, da bomo razpadli kot vrsta z uporabo orodij umetne inteligence za neplemenite ali nečedne namene, poroča Jutranji list.
Preberite še: