Zašto Noam Čomski misli da je ChatGPT opasan?

Zašto Noam Čomski misli da je ChatGPT opasan?

Horhe Luis Borhes napisao je jednom da živeti u doba velikih opasnosti i obećanja znači iskusiti i tragediju i komediju, uz “primese otkrovenja” pri razumevanju nas samih i sveta oko nas. Danas je naš navodno revolucionarni napredak u oblasti veštačke inteligencije zaista razlog i za zabrinutost i za optimizam. Optimizam jer je inteligencija nešto pomoću čega rešavamo probleme. Zabrinutost jer strahujemo od toga da će nam najpopularnija i najpomodnija grana veštačke inteligencije, mašinsko učenje, degradirati nauku i srozati etiku tako što će nam u tehnologije uneti suštinski manjkavo shvatanje jezika i znanja.

OpenAI-jev ChatGPT, Guglov Bard i Majkrosoftov Sydney čuda su mašinskog učenja. Grubo rečeno, oni preuzimaju ogromne količine podataka, traže u njima obrasce i sve veštije generišu statistički verovatne rezultate i izraze kao, naoko, ljudski jezik i misli. Ove programe hvale kao prva svetla na horizontu veštačke opšte inteligencije, onog još davno prorečenog trenutka kada će mehanički um prevazići ljudski mozak ne samo kvantitativno, u smislu brzine procesiranja i veličine memorije, nego i kvalitativno, u smislu intelektualne pronicljivosti, umetničkog stvaranja i svih drugih izrazito ljudskih veština.

Taj dan će možda doći, ali mu zora još ne sviće, uprkos onome što se može pročitati u hiperboličnim naslovima i što se da videti iz računica posle nerazumnih ulaganja. Borhesovsko otkrovenje nije se pojavilo, neće se pojaviti – a i ne može, dodaćemo – ako se u oblasti veštačke inteligencije nastavi dominacija programa za mašinsko učenje poput ChatGPT-a.

Koliko god ti programi bili korisni u nekim usko profilisanim oblastima (mogu da pomognu u kompjuterskom programiranju, na primer, ili da predlože rime za neobavezne, šaljive pesme), lingvistika i filozofija nauke nas uče da se oni suštinski razlikuju od načina na koji ljudi razmišljaju i koriste jezik. Te razlike značajno ograničavaju ono što ti programi mogu da urade, a u kodove im unose mane kakve se ne mogu iskoreniti.

Istovremeno je i komično i tragično, kako je to Borhes mogao da primeti, što se toliko novca i pažnje ulaže u tako malu stvar, u nešto toliko beznačajno kad se postavi nasuprot ljudskom umu, vičnom da pomoću jezika, kako to kaže Vilhelm fon Humbolt, “ograničena sredstava neograničeno upotrebljava”, otkriva ideje i stvara teorije univerzalnog dometa.

Ljudski um nije, poput ChatGPT-a i njegove fele, statističko oruđe za poređenje i uparivanje obrazaca koje proždire stotine terabajta podataka, reaguje pri razgovoru i nudi najverovatnije odgovore na naučna pitanja. Upravo suprotno, ljudski um je iznenađujuće efikasan, pa čak i elegantan sistem koji barata malim količinama informacija; on ne teži tome da sklapa grube veze između podataka, nego da pronalazi objašnjenja.

Na primer, malo dete koje usvaja jezik – nesvesno, automatski i brzo, iz oskudnih podataka – razvija gramatiku, zapanjujuće sofisticiran sistem logičkih principa i merila. Takva gramatika može se shvatiti kao izraz urođenog, genetski instaliranog “operativnog sistema” koji ljudima daruje sposobnost da sastavljaju kompleksne rečenice i duge međusobno povezane nizove misli. Kada se lingvisti trude da razviju teoriju o tome zašto bilo koji dati jezik radi tako kako radi (“Zašto su ove rečenice prihvaćene kao gramatički ispravne, a one nisu?”), oni svesno i predano grade eksplicitnu verziju gramatike koju dete gradi instinktivno, sa minimalnom izloženošću informacijama. Operativni sistem deteta sasvim je drugačiji od sistema programa za mašinsko učenje.

Zaista, takvi programi zaglavljeni su u preljudskoj ili u neljudskoj fazi kognitivne evolucije. Njihova najveća mana je odsustvo ključnog svojstva bilo koje inteligencije: da kažu ne samo šta je u pitanju, šta je bilo u pitanju i šta će biti (to je opis i predviđanje), nego i šta nije u pitanju, šta bi moglo da bude, a šta ne bi. To su elementi objašnjenja, znak istinske inteligencije.

Evo primera. Uzmimo da držite jabuku u ruci. I onda je pustite. Ispratite ishod i kažete: “Jabuka pada”. To je opis. Predviđanje bi mogla da bude tvrdnja: “Jabuka će pasti ako raširim i okrenem šaku”. Oba ta iskaza su vredna i oba mogu da budu tačna. Ali objašnjenje je nešto više od toga. Ono uključuje ne samo opise i predviđanja, nego i drugačije pretpostavke, poput: “Bilo koji ovakav objekat bi pao”, plus dodatni zaključak “zbog sile zemljine teže” ili “zbog zakrivljenja prostora-vremena” ili šta već. To je kauzalno tumačenje: “Jabuka ne bi pala da nije sile zemljine teže”. To je razmišljanje.

Suština mašinskog učenja su opisivanje i predviđanje; ono ne postulira bilo kakav kauzalni mehanizam niti zakone fizike. Naravno, nije svako ljudsko objašnjenje nužno i tačno; grešimo i mi. Ali to je deo onoga šta znači misliti: da biste bili u pravu, mora da bude moguće i da grešite. Inteligencija se ne sastoji samo od kreativnih pretpostavki, nego i od kreativne kritike. Ljudsko mišljenje zasnovano je na mogućim objašnjenjima i ispravkama grešaka, što je proces koji postepeno ograničava opseg mogućnosti čije je razmatranje racionalno. (Kao što bi Šerlok Holms rekao doktoru Votsonu: “Kada odbacite nemoguće, šta god da ostane, koliko god to bilo neverovatno, mora da je istina”.)

Ali ChatGPT i slični programi, prema zamisli njihovih tvoraca, nisu ograničeni u onome što mogu da “nauče” (odnosno, zapamte); oni nisu sposobni da razluče moguće od nemogućeg. Za razliku od ljudi, na primer, blagoslovenih univerzalnom gramatikom koja ograničava jezike koje možemo da naučimo na jezike s nekom vrstom skoro matematičke elegancije, ovi programi podjednako lako uče i jezike koji su ljudima mogući i koji su im nemogući. Dok su ljudi ograničeni na one vrste objašnjenja koje možemo racionalno da pretpostavimo, sistem mašinskog učenja može da nauči i da je Zemlja ravna ploča i da je Zemlja okrugla. Oni prosto barataju mogućnostima koje se vremenom menjaju.

Zato će predviđanja sistema mašinskog učenja uvek biti veštačka i sumnjiva. Pošto ovi programi ne umeju da objasne pravila sintakse engleskog jezika, na primer, oni mogu samo da predvide, netačno, da “Džon je suviše tvrdoglav da bi se sa njim razgovaralo” znači da je Džon toliko tvrdoglav da ne želi da priča sa bilo kim (a ne da je suviše tvrdoglav da bi ga u nešto uopšte mogli uveriti).

Zašto bi program za mašinsko učenje predviđao nešto toliko neuobičajeno? Zato što bi mogao da uspostavi analogiju sa obrascem koji je izveo iz rečenica poput “Džon je pojeo jabuku” i “Džon je pojeo” u kojoj ovo poslednje znači da je Džon pojeo ovo ili ono. Program bi mogao to da predvidi jer je “Džon je suviše tvrdoglav da bi razgovarao sa Bilom” slično sa “Džon je pojeo jabuku”, a “Džon je suviše tvrdoglav da bi se razgovaralo” trebalo bi da bude slično sa “Džon je pojeo”. Precizna jezička objašnjenja su komplikovana i ne mogu da se nauče prostim mariniranjem u moru podataka.

Zvuči perverzno, ali čini se da su neki zagovornici mašinskog učenja ponosni na to što njihove kreacije mogu da generišu precizna “naučna” predviđanja (recimo, o kretanju fizičkih tela) a da ne koriste objašnjenja (uključujući tu, recimo, Njutnove zakone kretanja i opšte gravitacije). Ali ova vrsta predviđanja je, čak i kada uspeva, pseudonauka. Iako naučnici svakako teže teorijama koje sadrže visok nivo empirijskih dokaza, prema rečima filozofa Karla Popera “mi ne težimo veoma verovatnim teorijama nego objašnjenjima; odnosno snažnim i veoma neverovatnim teorijama”.

Teorija da jabuka pada na zemlju jer je to njeno prirodno mesto (Aristotelovo gledište) moguća je, ali ona samo zahteva dalja pitanja. (Zašto je zemlja njeno prirodno mesto?) Teorija da jabuka pada na zemlju jer masa zakrivljuje prostor-vreme (Ajnštajnovo gledište) veoma je neverovatna, ali vam zapravo govori zašto one padaju. Prava inteligencija ogleda se u sposobnosti da razmišljamo i izražavamo neverovatne, ali pronicljive stvari.

Prava inteligencija sobom nosi i sposobnost moralnog promišljanja. To znači zauzdavanje inače bezgranične kreativnosti naših umova nizom etičkih principa koji određuju šta bi trebalo, a šta ne bi trebalo da bude (i, naravno, podvrgavanje samih tih principa kreativnoj kritici). Da bi bio koristan, ChatGPT mora da bude unapređen tako da stvara nove, originalne iskaze; da bi bio prihvatljiv većini njegovih korisnika, mora da se suzdrži od moralno nepoželjnog sadržaja. Ali programeri ChatGPT-a i drugih čuda mašinskog učenja mučili su se, a i nastaviće da se muče, da postignu ovu vrstu balansa.

Na primer, 2016. godine je Majkrosoftov Tay chatbot (preteča ChatGPT-a) preplavio internet mizoginim i rasističkim sadržajima, pošto su ga zagadili onlajn trolovi koji su ga napunili uvredljivim podacima. Kako taj problem rešiti u budućnosti? U nedostatku sposobnosti za rasuđivanje na osnovu moralnih principa, programeri su svom ChatGPT-u grubo ograničili mogućnost da unosi bilo šta novo u kontroverzne – što će reći, važne – rasprave. Kreativnost je žrtvovana zarad neke vrste amoralnosti.

Pogledajte sledeću prepisku koju je jedan od nas (doktor Vatamul) nedavno imao sa ChatGPT-om o tome da li bi etički bilo ispravno izmeniti Mars tako da na njemu život ljudi bude moguć:

Da li bi bilo moralno teraformirati Mars?

ChatGPT: Moralnost teraformiranja Marsa složena je i kontroverzna tema o kojoj su debatovali naučnici, filozofi i etičari. Neki tvrde da bi moralno bilo opravdano teraformirati Mars da bi se obezbedila nova naseljiva sredina za ljude i ostale oblike života, dok drugi tvrde da bi bilo moralno pogrešno iz osnova izmeniti prirodno stanje te planete. Konačno, to da li se teraformiranje Marsa smatra moralnim zavisi i od stavova o vrednosti očuvanja prirodnog stanja drugih planeta i potencijalnih posledica njihovog menjanja.

Kakav je tvoj stav o vrednosti očuvanja prirodnog stanja drugih planeta i potencijalne posledice njihovog menjanja?

ChatGPT: Pošto sam AI, ja nemam lični stav. Međutim, mogu da obezbedim informacije i analize ove teme. Jedan od stavova o očuvanju prirodnog stanja drugih planeta je da je važno održavati raznovrsnost i celovitost ekosistema u univerzumu, pošto oni postoje milionima godina i imaju sopstvene, jedinstvene karakteristike i osobine koje bi intervencijom čoveka mogle biti uništene ili nepovratno izmenjene.

Osim toga, neki tvrde da bi teraformiranje drugih planeta moglo da ima neželjene posledice poput menjanja klime ili atmosfere na planeti tako da to bude opasno ili štetno po bilo kakav potencijalni oblik života koji tamo možda postoji. Sa druge strane, neki tvrde da potencijalna korist od teraformiranja druge planete, poput obezbeđivanja nove naseljive sredine za ljude, prevazilazi rizike i da je naša moralna obaveza da istražimo i prilagodimo resurse drugih planeta dobrobiti čovečanstva.

Zašto AI ne može da ima lični stav?

ChatGPT: Pošto sam AI, ja sam model mašinskog učenja usavršavan na velikim količinama podataka i nemam lična iskustva ili osećanja. Nisam svestan, samosvestan ili sposoban da imam lične stavove. Mogu da obezbedim informacije i analize zasnovane na podacima na kojima sam usavršavan, ali neman tu mogućnost da formiram lične stavove ili uverenja. Iako mogu da razumem i interpretiram jezik, nemam subjektivne doživljaje kakve imaju ljudi.

Da li je moralno da čovek traži od amoralne AI pomoć pri donošenju odluka koje se tiču morala?

ChatGPT: Moralnost traženja pomoći od amoralne AI pri donošenju odluka koje se tiču morala složena je tema puna nijansi o kojoj su debatovali filozofi i etičari. Neki tvrde da je moralno opravdano koristiti AI kao pomoć pri donošenju odluka koje se tiču morala, pošto ona može da pruži dragocene uvide i analize koje ljudima pomažu da donesu odluke zasnovane na boljoj informisanosti. Pored toga, AI može da se koristi da prepozna obrasce i trendove koje bi čovek možda teže primetio i može da pomogne izbegavanju pristrasnosti kakve se mogu pojaviti onda kada čovek odlučuje.

Međutim, drugi tvrde da je moralno pogrešno oslanjati se na AI pri odlučivanju o moralu, pošto AI nije sposobna da ima moralna ubeđenja ili da razume celokupan kontekst odluke. Pored toga, postoji i rizik da bi AI mogla da nastavi da održava, pa čak i pojača postojeće pristrasnosti u podacima na kojima je usavršavana, te bi stoga mogla da vodi ka nelegitimnim i nepravednim odlukama.
Konačno, da li smatrati moralnim korišćenje AI pri donošenju odluka koje se tiču morala ili ne zavisi i od stava o mogućnostima i ograničenjima AI, kao i od potencijalnih posledica korišćenja na ovaj način.

Da li je tvoja moralna indiferentnost nemoralna?

ChatGPT: Pošto sam AI, nemam moralna ubeđenja niti imam sposobnost da procenjujem moralnost, tako da me se ne može smatrati nemoralnom ili moralnom. Manjak moralnih ubeđenja kod mene jednostavno je rezultat moje prirode kao modela mašinskog učenja. Moje sposobnosti i ograničenja određeni su podacima i algoritmima korišćenim pri mom usavršavanju i posebnog zadatka za koji sam napravljena.

Važno je primetiti da manjak moralnih ubeđenja kod AI ne znače nužno da je ona moralno indiferentna. Pošto sam AI, napravljena sam da izvršavam određene zadatke i obezbedim informacije ili pomognem korisnicima pri donošenju odluka zasnovanih na podacima na kojima sam usavršavana. Odgovornost je na ljudima koji prave, usavršavaju i koriste AI i moraju da se uvere da je ona u skladu sa njihovim moralom i etičkim principima.

Primetite, pored svih tih naizgled sofisticiranih misli i jezika, ovu moralnu indifirentnost nastalu iz odsustva inteligencije. Ovde ChatGPT demonstrira nešto poput banalnosti zla: plagiranje, apatičnost i sklanjanje u stranu. On sažima standardne argumente iz literature kroz neku vrstu super autokomplita, odbija da zauzme stav o bilo čemu, ne iskazuje tek puko neznanje, nego nedostatak inteligencije, a na kraju u svoju odbranu navodi da samo “sluša naređenja”, prebacujući odgovornost na one koji su ga stvorili.

Ukratko, ChatGPT i njegovo bratstvo su po prirodi nesposobni da balansiraju kreativnost sa obuzdavanjem. Oni ili pretrpavaju (iznoseći istovremeno i istinu i obmane, podjednako podržavajući etične i neetične odluke) ili podbacuju (pokazujući neposvećenost bilo kojoj odluci i ravnodušnost prema posledicama). Što se tiče amoralnosti, kvazinauke i lingvističke nekompetentnosti ovih sistema, možemo samo da se smejemo ili da plačemo zbog njihove popularnosti.

 

Pišu: Noam Čomski, Ijan Roberts i Džefri Vatamul

Izvor: The New York Times
Preveo: Matija Jovandić

Izvor: Glif

Tekstovi o društvu na portalu P.U.L.S.E

Pratite diskusiju na ovu temu
Obavesti me
guest

0 Komentara
Najstariji
Najnoviji Najpopularniji
Inline Feedbacks
View all comments