NA EKS
Kolumna Lare Paukovič: To kolumno je napisal robot
Predstavljajte si napravo, ki lahko v nedogled producira takšne (smiselne!) tekste, ti krožijo po internetu, ob tem pa nimajo avtorja, ki bi lahko prevzel odgovornost za napisano.
Odpri galerijo
No, ni je. Ampak lahko bi jo. Že februarja lansko leto so novinarji britanskega Guardiana preizkušali programsko opremo GPT2, ki jo je razvila neprofitna organizacija OpenAI (njen soustanovitelj je Elon Musk). Njihov sistem umetne inteligence je lahko sam spisal nadaljevanje že obstoječega besedila in pri tem do potankosti posnemal slog novinarke, ki ga je spisala.
Novinarka, Hannah Jane Parkinson, je pozneje o tem napisala kolumno, v kateri opozarja na posledice, ki bi jih za prihodnost novinarstva lahko imelo dejstvo, da je robot sposoben pisati v unikatnem slogu, ki naj bi bil lasten samo človeku. Do neke mere so robotski teksti sicer koristni, pravi Parkinsonova, posebno za medije, ki pokrivajo finance in šport, tam so namreč dejstva in številke pomembnejši od, recimo, poetičnega sloga posameznega novinarja. Toda opazovati, kako se je programska oprema GPT2 naučila pisati ravno tako kot ona? Malo manj spodbudno. »Ob tem me je zvilo v želodcu, kajti izkazalo se je, da nisem tako izvirna in genialna piska, kot sem mislila, da sem – neka naprava lahko posnema moj slog do pike natančno. Ve kdo za kakšna odprta delovna mesta?« je bila pikra v članku.
Leto dni pozneje ima organizacija OpenAI zunaj novo programsko opremo, GPT-3, ki je še naprednejša od svoje predhodnice. Pri Guardianu so ji tokrat naročili, naj napiše 500 besed dolg esej o tem, da se ljudje zaradi umetne inteligence ne bi smeli počutiti ogroženih. Prvi stavek eseja so Guardianovi novinarji sestavili sami, preostalo pa je bilo prepuščeno napravi, ki je sproducirala osem različnih esejev in v vsakem izmed njih predstavila tehtne argumente. »Vsak izmed osmih esejev bi bil primeren za objavo, a smo se namesto tega odločili, da bomo vzeli najboljši del vsakega od njih, in jih sestavili v celoto, da predstavimo, kako je GPT-3 sposoben pisati v različnih registrih,« so zapisali v opombah k eseju. Urejanje teh besedil naj bi vzelo manj časa kot urejanje besedila dejanskega novinarja.
In končna različica članka? Prav zares je napisana v Guardianovem slogu, jasno in precizno, z nastavki humorja in ironije in celo s citati, ki zaokrožajo poanto. Čeprav naprava, ki je napisala besedilo, trdi, da »bi morali ljudje bolj zaupati v računalnike«, ki so tu »samo zato, da izboljšajo človeška življenja«, in ne zato, da z njimi tekmujejo ali jih ogrožajo, poleg tega pa poudarja še, da »ne pripada nobeni državi ali religiji«, nas ob branju spreletava nelagodje, kajti z lahkoto si predstavljamo, kaj bi se zgodilo, če bi tovrstni programi postali širše dostopni. Mogoče se programska oprema, ki so jo preizkušali guardianovci, trudi biti objektivna, a trditev, da ne pripada nobeni državi ali rasi, bi se hitro spremenila, če bi jo dobili v roke pripadniki kakšne ekstremistične skupine in jo »nafutrali« z rasističnimi, nacionalističnimi ali seksističnimi parolami. Predstavljajte si napravo, ki lahko v nedogled producira takšne (smiselne!) tekste, ti krožijo po internetu, ob tem pa nimajo avtorja, ki bi lahko prevzel odgovornost za napisano. To bi bilo lahko še bolj nevarno kot množica nereguliranih sovražnih komentarjev na twitterju, facebooku, redditu ali pod spletnimi članki.
GPT-3 lahko piše tudi prozo in poezijo, če pozna slog pisca. Mario Klingemann, ki se ukvarja z umetnostjo na področju umetne inteligence, je to preizkusil tako, da je za program določil naslov, Pomembno je biti na Twitterju, ime pisatelja, katerega slog bo program posnemal (Jerome K. Jerome), in začetno besedo zgodbe. Besedilo, ki ga je GPT-3 sestavil, je imelo dejansko smisel – in določeno literarno vrednost. Kaj to pomeni za vse nas, pišoče ljudi? Lahko se tolažimo s tem, da smo kljub vsemu subtilnejša in bolj empatična bitja od neke programske opreme, pa vendar nove zmogljivosti GPT-3 kažejo, da »pisalni robot« že zdavnaj ni več sposoben le nerodnega tvorjenja naučenih stavkov, ki zvenijo mehanično, ampak je naštudiral tudi nianse v besedilih, kar smo prej smatrali za človeški element pisanja. Treba bo torej začeti razmišljati o tem, kako lahko to obrnemo sebi v prid – ne da bi pri tem postali tehnološki višek.
Novinarka, Hannah Jane Parkinson, je pozneje o tem napisala kolumno, v kateri opozarja na posledice, ki bi jih za prihodnost novinarstva lahko imelo dejstvo, da je robot sposoben pisati v unikatnem slogu, ki naj bi bil lasten samo človeku. Do neke mere so robotski teksti sicer koristni, pravi Parkinsonova, posebno za medije, ki pokrivajo finance in šport, tam so namreč dejstva in številke pomembnejši od, recimo, poetičnega sloga posameznega novinarja. Toda opazovati, kako se je programska oprema GPT2 naučila pisati ravno tako kot ona? Malo manj spodbudno. »Ob tem me je zvilo v želodcu, kajti izkazalo se je, da nisem tako izvirna in genialna piska, kot sem mislila, da sem – neka naprava lahko posnema moj slog do pike natančno. Ve kdo za kakšna odprta delovna mesta?« je bila pikra v članku.
Leto dni pozneje ima organizacija OpenAI zunaj novo programsko opremo, GPT-3, ki je še naprednejša od svoje predhodnice. Pri Guardianu so ji tokrat naročili, naj napiše 500 besed dolg esej o tem, da se ljudje zaradi umetne inteligence ne bi smeli počutiti ogroženih. Prvi stavek eseja so Guardianovi novinarji sestavili sami, preostalo pa je bilo prepuščeno napravi, ki je sproducirala osem različnih esejev in v vsakem izmed njih predstavila tehtne argumente. »Vsak izmed osmih esejev bi bil primeren za objavo, a smo se namesto tega odločili, da bomo vzeli najboljši del vsakega od njih, in jih sestavili v celoto, da predstavimo, kako je GPT-3 sposoben pisati v različnih registrih,« so zapisali v opombah k eseju. Urejanje teh besedil naj bi vzelo manj časa kot urejanje besedila dejanskega novinarja.
In končna različica članka? Prav zares je napisana v Guardianovem slogu, jasno in precizno, z nastavki humorja in ironije in celo s citati, ki zaokrožajo poanto. Čeprav naprava, ki je napisala besedilo, trdi, da »bi morali ljudje bolj zaupati v računalnike«, ki so tu »samo zato, da izboljšajo človeška življenja«, in ne zato, da z njimi tekmujejo ali jih ogrožajo, poleg tega pa poudarja še, da »ne pripada nobeni državi ali religiji«, nas ob branju spreletava nelagodje, kajti z lahkoto si predstavljamo, kaj bi se zgodilo, če bi tovrstni programi postali širše dostopni. Mogoče se programska oprema, ki so jo preizkušali guardianovci, trudi biti objektivna, a trditev, da ne pripada nobeni državi ali rasi, bi se hitro spremenila, če bi jo dobili v roke pripadniki kakšne ekstremistične skupine in jo »nafutrali« z rasističnimi, nacionalističnimi ali seksističnimi parolami. Predstavljajte si napravo, ki lahko v nedogled producira takšne (smiselne!) tekste, ti krožijo po internetu, ob tem pa nimajo avtorja, ki bi lahko prevzel odgovornost za napisano. To bi bilo lahko še bolj nevarno kot množica nereguliranih sovražnih komentarjev na twitterju, facebooku, redditu ali pod spletnimi članki.
GPT-3 lahko piše tudi prozo in poezijo, če pozna slog pisca. Mario Klingemann, ki se ukvarja z umetnostjo na področju umetne inteligence, je to preizkusil tako, da je za program določil naslov, Pomembno je biti na Twitterju, ime pisatelja, katerega slog bo program posnemal (Jerome K. Jerome), in začetno besedo zgodbe. Besedilo, ki ga je GPT-3 sestavil, je imelo dejansko smisel – in določeno literarno vrednost. Kaj to pomeni za vse nas, pišoče ljudi? Lahko se tolažimo s tem, da smo kljub vsemu subtilnejša in bolj empatična bitja od neke programske opreme, pa vendar nove zmogljivosti GPT-3 kažejo, da »pisalni robot« že zdavnaj ni več sposoben le nerodnega tvorjenja naučenih stavkov, ki zvenijo mehanično, ampak je naštudiral tudi nianse v besedilih, kar smo prej smatrali za človeški element pisanja. Treba bo torej začeti razmišljati o tem, kako lahko to obrnemo sebi v prid – ne da bi pri tem postali tehnološki višek.