Slavni ljevičarski intelektualac Noam Chomsky, otac moderne lingvistike, kako ga nazivaju, nedavno je za New York Times napisao članak o ChatGPT-u u kojem je pobrojio sve u čemu se ljudski um razlikuje od umjetne inteligencije, a programe kao ChatGPT nazvao “lažnim obećanjem”.
“Dan kada će mehanički umovi nadmašiti ljudske mozgove može doći, ali on još nije tu, iako to možemo pročitati u pretjeranim medijskim natpisima i naslutiti iz nerazboritih ulaganja u tu industriju”, napisao je Chomsky u članku koji potpisuje s kolegom profesorom Ianom Robertsom te istraživačem umjetne inteligencije Jeffreyjem Watumullom.
OpenAI-jev ChatGPT, Googleov Bard i Microsoftov Sydney čuda su strojnog učenja, kaže Chomsky. Oni uzimaju ogromne količine podataka, traže uzorke u njima i postaju sve vještiji u generiranju rezultata nalik ljudskom jeziku i misli.
“Ali, koliko god ovi programi bili korisni u nekim uskim domenama, u računalnom programiranju, na primjer, ili predlaganju rima za lagane stihove, mi znamo iz lingvistike i epistemologije da oni razum i jezik ne koriste na isti način kao ljudi”, navodi.
Chomsky je pobrojio nekoliko konkretnih stvari na kojima se vidi kako se funkcioniranje programa umjetne inteligencije razlikuju od načina na koji čovjek misli i shvaća.
1. Ljudskom umu ne treba toliko puno podataka
Ljudski je um iznenađujuće učinkovit i elegantan sustav koji radi s malim količinama informacija. ChatGPT, s druge strane, glomazan je statistički mehanizam za pronalaženje uzoraka. On mora progutati stotina terabajta podataka da bi došao do najvjerojatnijeg odgovora.
Chomsky daje primjer – gramatike. “Malo dijete jezik usvaja nesvjesno, automatski i brzo iz male količine podataka i uz minimalnu izloženost informacijama”, navodi. Pritom je gramatika, kao sustav logičkih principa, zapravo “operativni sustav” čovjeka, urođeni ljudski program koji mu omogućava izražavanje misli. Za razliku od glomaznog programa ChatGPT-a koji se trenira na ogromnim količinama podataka, svako dijete svoj program gradi instinktivno i bez puno informacija. Odlika je ljudskog uma “beskonačno korištenje s konačnim sredstvima”.
2. Umjetna inteligencija nije sposobna za uspostavljanje uzročnih veza
Umjetna inteligencija ne može ponuditi objašnjenje. Na primjer, ako iz ruke pustimo jabuku i promatramo rezultat kažemo “jabuka pada.” To je opis. Iz toga možemo napraviti predviđanje: “Jabuka će pasti ako otvorim ruku”. Opis i predviđanje, kaže Chomsky nije ništa posebno, to može i umjetna inteligencija. Ali, samo je čovjek sposoban za sljedeći zaključak “ako jabuka pada, to znači da bi svaki takav objekt pao ako ga pustim iz ruke”. I na kraju za uzročno objašnjenje što je znak prave inteligencije: “jabuka pada zbog sile gravitacije”. Dakle, kaže Chomsky, konačno objašnjenje “jabuka ne bi pala da nema sile gravitacije” – je razmišljanje. Umjetna inteligencija to ne može.
3. ChatGPT ne zna razlikovati moguće od nemogućega
Sustavi strojnog učenja mogu naučiti da je Zemlja ravna i da je Zemlja okrugla. Ljudi su ipak ograničeni u vrstama objašnjenja koja mogu racionalno pretpostaviti, navodi Chomsky. Konkretno, navodi on primjer znanstvene metode. Sustavi umjetne inteligencije mogu dati neka točna “znanstvena” predviđanja, recimo, o kretanju fizičkih tijela, ali to čine bez korištenja objašnjenja poput Newtonovih zakona gibanja i univerzalne gravitacije. Međutim, navodi Chomsky, takva su predviđanja, čak i kad su uspješna, zapravo pseudoznanstvena. Naime, kako je to primijetio filozof Karl Popper, znanstvena teorija treba dati predviđanja koja se mogu testirati, a teoriju treba odbaciti ako se pokaže da ta predviđanja nisu točna. ChatGPT sva svoja predviđanja radi “mariniranjem” u velikoj količini podatka.
4. Nije sposoban za moralno rasuđivanje
Prava inteligencija sposobna je za moralno rasuđivanje. Točnije, čovjek može svoju neograničenu kreativnost ograničiti skupom etičkih načela koja određuju što bi trebalo, a što ne bi trebalo. ChatGPT se također mora kloniti moralno nepoželjnog sadržaja. Primjerice, Microsoftov Tay chatbot (preteča ChatGPT-a) preplavio je internet mizoginim i rasističkim sadržajem nakon što je razgovarao s korisnicima Twittera. Da ChatGPT slučajno ne bi izletio s nečim kontroverznim, a kako nije sposoban rasuđivati na temelju moralnih načela, programeri su ga grubo i striktno ograničili od bilo kakvog nepoćudnog sadržaja. Time se, smatra Chomsky, žrtvovala njegova kreativnost za neku vrstu amoralnosti.
5. S ChatGPT-om ne mogu se voditi teški razgovori
ChatGPT je u svom trenutnom stanju nesposoban kritički razmišljati i često se cenzurira što znači da ne može voditi teške razgovore koji su doveli do velikih otkrića u znanosti, kulturi i filozofiji, kaže Chomsky.
Što je možda i bolje. Jer bi netočnosti koje povremeno nudi pod odgovore mogle doprinijeti širenju teorija zavjere, a postoji rizik da osobu koja ga koristi primora na neke opasne odluke. Stoga, sumira Chomsky, to je tehnologija koja će vjerojatno ostati igračka i povremeni alat, a ne značajan dio naših života.
“ChatGPT pokazuje nešto poput banalnosti zla: plagijatorstvo, apatiju i izbjegavanje. Sažima standardne argumente u literaturi nekom vrstom super-autocompletea, odbija zauzeti stav o bilo čemu, poziva se na neznanje i na nedostatak inteligencije, a na kraju navodi i da ‘samo slijedi naredbe‘ prebacujući odgovornost na svoje kreatore”, zaključuje.