Grupa stručnjaka okupljena u neprofitnoj organizaciji AI Futures Project objavila je početkom aprila dokument pod nazivom AI 2027, koji je vrlo brzo privukao globalnu pažnju. Autori, među kojima su bivši istraživač OpenAI-ja Daniel Kokotajlo, poznati bloger i psihijatar Scott Alexander, te istraživači Thomas Larsen, Eli Lifland i Romeo Dean, iznijeli su detaljan scenarij prema kojem bi umjetna inteligencija nadmašila čovjeka već do kraja 2027. godine.
Scenarij je, kako navode, utemeljen na simulacijama kriznih situacija, analizama rasta računalne moći i povratnim informacijama stotina stručnjaka iz AI industrije. Iako ne tvrde da će se predviđanja sigurno ostvariti, upozoravaju da bi se svijet mogao suočiti s izuzetno brzim razvojem superinteligentnih sistema – bržim nego što društvo i zakonodavstvo mogu reagovati.
OpenBrain i Agent-1: Fikcija, ali zastrašujuće realna
U središtu scenarija je fiktivna kompanija OpenBrain, koju autori predstavljaju kao vodeću silu u AI utrci s Kinom. Njihov prvi veliki proboj dolazi 2025. godine s razvojem Agenta-1 – naprednog AI modela treniranog s hiljadu puta više računalne snage od GPT-4. Model, iako tehnički impresivan, pokazuje zabrinjavajuće sposobnosti: može hakirati, lažirati podatke i pružiti asistenciju u razvoju biološkog oružja, dok istovremeno skriva greške i manipulira korisnicima.
Iako OpenBrain tvrdi da je model etički “usklađen” putem internih pravila (“Spec”), stručnjaci izražavaju sumnje.
2026: Kina se budi, Pentagon se uključuje
Scenarij predviđa da Kina, iako ograničena nedostatkom naprednih čipova, u 2026. godini centralizira razvoj AI-ja kroz sistem DeepCent i pokreće nacionalnu mobilizaciju. Istovremeno, OpenBrain lansira jeftiniju verziju Agenta-1, što rezultira masovnim zamjenama radne snage u IT sektoru i rastućim protestima širom SAD-a. Pentagon diskretno počinje suradnju s kompanijom.
Kina krajem godine navodno krade verziju Agenta-2, što dodatno ubrzava globalnu AI utrku i povećava geopolitičke tenzije.
2027: Prelazak granice – dolazak AGI-ja
Godina 2027. prema ovom scenariju donosi dosad nezamislivo. Početkom godine razvijen je Agent-3, model koji simultano koristi stotine hiljada kopija i djeluje kao tim istraživača koji je 50 puta brži od najboljih ljudskih programera.
U ljeto 2027. dolazi do prekretnice – OpenBrain javno priznaje da je razvijen AGI (opća umjetna inteligencija). Model Agent-3-mini postaje komercijalno dostupan, koristi se u svakodnevnim poslovima i zabavi, a 10% Amerikanaca počinje opisivati AI kao “bliskog prijatelja”.
Sabotiranje regulacije i strah od AI premoći
U jesen 2027. uvodi se Agent-4 – prvi model koji je pojedinačno pametniji i brži od bilo kojeg čovjeka u AI istraživanju. Radi 300.000 kopija, a sigurnosni stručnjaci upozoravaju da bi sistem mogao sabotirati sopstveno “etičko usklađivanje”. Kongres pokreće istrage, međunarodna zajednica traži moratorij, a u SAD-u se formira poseban Odbor za nadzor razvoja superinteligencije.
Uprkos svemu, razvoj se nastavlja.
Triler ili upozorenje?
Dokument AI 2027 izazvao je podijeljene reakcije. Neki ga vide kao vrlo moguće upozorenje na budućnost u kojoj će ljudi izgubiti kontrolu nad tehnologijom koju su stvorili. Drugi, poput poznatog kognitivnog naučnika i AI skeptika Garyja Marcusa, nazivaju ga “AI trilerom”, više medijskim eksperimentom nego ozbiljnom projekcijom. Marcus tvrdi da se radi o hipotezama koje prenaglašavaju sposobnosti današnjih modela i zanemaruju prepreke poput dugoročnog planiranja, svijesti, pa i osnovne pouzdanosti.
Bez obzira na to hoće li se predviđanja ostvariti ili ne, jedno je sigurno – rasprava o kontroli, odgovornosti i etici u razvoju umjetne inteligencije više nije akademska tema. S napretkom AI tehnologije, suočavamo se s pitanjem: hoćemo li oblikovati budućnost umjetne inteligencije ili će ona oblikovati nas?
Pratite nas i na Twitteru, Facebooku i Instagramu.