
Kineski istraživači oživjeli su tehnologiju analognih čipova, koja bi mogla donijeti veliki preokret u razvoju vještačke inteligencije – brže treniranje, uz mnogo manju potrošnju energije.
Tim sa Univerziteta u Pekingu, pod vođstvom Džonga Suna, predstavio je dva analogna čipa koja zajedno rješavaju složene matrične jednačine – ključne u procesima treniranja AI modela, telekomunikacija i naučnih simulacija. Njihovo otkriće objavljeno je u uglednom časopisu Nature Electronics.
Prvi čip izračunava rezultate brže, ali sa većom greškom, dok drugi postepeno poboljšava preciznost. Nakon tri ciklusa rada, greška pada sa 1% na nevjerovatnih 0,0000001%, što je jednako tačnosti digitalnih sistema.
Trenutno prototip može obraditi matrice veličine 16×16, ali istraživači tvrde da bi skaliranje na mnogo veće dimenzije omogućilo performanse koje bi mogle nadmašiti čak i najnaprednije GPU procesore poput Nvidia H100 – i to uz do 100 puta manju potrošnju energije.
Sun ipak napominje da su ovo teorijska poređenja i da će stvarne primjene biti kompleksnije. Najveći potencijal vidi u kombinovanju analognih i digitalnih komponenti, čime bi se postigla optimalna ravnoteža između brzine i preciznosti.
Eksperti ističu da bi ovaj pristup mogao značajno smanjiti energetske troškove sve masovnijeg korišćenja vještačke inteligencije. Džejms Milen sa Kraljevskog koledža u Londonu kaže da analogni računari, zbog svoje specijalizovane strukture, mogu obavljati određene zadatke brže i efikasnije od digitalnih. Ako se ova tehnologija dodatno razvije, mogla bi promijeniti način na koji svijet gradi i koristi AI sisteme.
Izvor: Nezavisne
Foto: Getty images