Stephen Hawking prije smrti poslao jezivo upozorenje

stephen-hawking

Stephen Hawking često se u svojim intervjuima i drugim javnim istupima osvrtao na moguće scenarije kraja svijeta te upozoravao čovječanstvo na moguće opasnosti, no prije smrti u martu posebno je istaknuo jedan scenarij.

Hawking je do kraja života bio veliki protivnik umjetne inteligencije, a upravo je o tome progovorio u jednom od svojih posljednjih eseja, čiji je dio objavljen u The Sunday Timesu.

“Siguran sam da će tokom ovog stoljeća ljudi otkriti kako modificirati i inteligenciju i instinkte poput agresije. Vjerojatno će se pojaviti zakoni protiv genetskog inženjeringa na ljudima. No neki ljudi sigurno neće moći odoljeti iskušenju da poboljšaju ljudske karakteristike poput pamćenja, otpornosti na bolesti i vijeka života”, napisao je Hawking.

“Jednom kad se pojave superljudi, doći će do značajnih političkih problema s neunaprijeđenim ljudima koji se neće moći takmičiti s njima. Vjerojatno će oni izumrijeti ili postati potpuno nevažni. Umjesto njih, doći će rasa samodizajniranih bića koja se sama unaprjeđuju, stalno sve bržim i bržim tempom”, napisao je.

Prema The Sunday Timesu, s njegovim su se predviđanjima složili i neki drugi naučnici.

“Čovječanstvo je došlo do kritičnog trenutka. Nadišli smo to da utječemo na planetu na krajobraznoj razini i prešli na to da se uplićemo u metabolizam planeta na globalnoj razini. Sve indikacije ukazuju na to da smo zbog ograničenja našeg mozga, individualno i kolektivno, nesposobni da se suočimo s tim izazovima. Po tome, naša budućnost izgleda vrlo turobno”, smatra profesor Chris Rapley.

Inače, Hawking je tvrdio da je umjetna inteligencija najgori izum u povijesti čovječanstva. “Bojim se da bi umjetna inteligencija u potpunosti mogla uništiti čovjeka”, rekao je jednom u intervjuu za Wired.

“Ako ljudi mogu dizajnirati računarske viruse, neko bi mogao stvoriti umjetnu inteligenciju koja poboljšava samu sebe i koja se samostalno replicira. To će biti novi oblik života koji nadmašuje ljude”, rekao je tada.