Niezwykle energooszczędna sztuczna inteligencja jest bliższa rzeczywistości po tym, jak badania przeprowadzone przez naukowców z UCL wskazały sposób na poprawę dokładności systemu komputerowego inspirowanego mózgiem.

Wafel wypełniony pamięciami. Źródło:: UCL

System, który wykorzystuje memrystory do tworzenia sztucznych sieci neuronowych , jest co najmniej 1000 razy bardziej energooszczędny niż konwencjonalny sprzęt AI oparty na tranzystorach, ale do tej pory był bardziej podatny na błędy.

Istniejąca sztuczna inteligencja jest niezwykle energochłonna – szkolenie jednego modelu sztucznej inteligencji może wygenerować 284 tony dwutlenku węgla, co odpowiada całkowitej emisji pięciu samochodów. Zastąpienie tranzystorów, z których składają się wszystkie urządzenia cyfrowe – memrystorami – mogłoby zredukować ślad węglowy do ułamka tony dwutlenku węgla.

Ponieważ memrystory są o wiele bardziej energooszczędne niż istniejące systemy komputerowe, można potencjalnie „spakować” ogromne ilości mocy obliczeniowej do urządzeń przenośnych, eliminując potrzebę połączenia z Internetem.

Jest to szczególnie ważne, ponieważ oczekuje się, że nadmierne poleganie na Internecie stanie się w przyszłości problematyczne ze względu na stale rosnące zapotrzebowanie na dane oraz trudności w zwiększaniu przepustowości transmisji danych powyżej pewnego progu.

W nowym badaniu, opublikowanym w Nature Communications , inżynierowie z UCL odkryli, że dokładność można znacznie poprawić, umożliwiając współpracę memrystorów w kilku podgrupach sieci neuronowych i uśredniając ich obliczenia, co oznacza, że ​​wady w każdej z sieci można usunąć.

Dr Adnan Mehonic trzyma wafel wypełniony pamięciami. Źródło: UCL

Memrystory, określane jako „rezystory z pamięcią”, z racji tego, że pamiętają ilość ładunku elektrycznego, który przepływał przez nie nawet po wyłączeniu zasilania, były uważane za rewolucyjne, kiedy zostały po raz pierwszy zbudowane ponad dziesięć lat temu, jako „brakujące ogniwo” w elektronice do uzupełnienia: rezystor, kondensator i cewka. Od tego czasu były produkowane komercyjnie w urządzeniach pamięci, ale zespół badawczy twierdzi, że można je wykorzystać do opracowania systemów sztucznej inteligencji w ciągu najbliższych trzech lat.

Memrystory oferują znacznie lepszą wydajność, ponieważ działają nie tylko w kodzie binarnym składającym się z jedynek i zer, ale jednocześnie na wielu poziomach od zera do jedynki, co oznacza, że ​​w każdym bicie można umieścić więcej informacji.

Ponadto memrystory są często opisywane jako neuromorficzna (inspirowana mózgiem) forma obliczeń, ponieważ podobnie jak w mózgu przetwarzanie i pamięć są realizowane w tych samych adaptacyjnych blokach strukturalnych, w przeciwieństwie do obecnych systemów komputerowych, które marnują dużo energii.

W badaniu dr Adnan Mehonic, Ph.D. student Dovydas Joksas (zarówno UCL Electronic & Electrical Engineering) oraz koledzy z Wielkiej Brytanii i USA przetestowali nowe podejście w kilku różnych typach memrystorów i stwierdzili, że poprawiło ono dokładność wszystkich z nich, niezależnie od materiału lub konkretnej technologii memrystorowej. Sprawdził się również w przypadku wielu różnych problemów, które mogą wpływać na dokładność pamięci.

Badacze odkryli, że ich podejście zwiększyło dokładność sieci neuronowych dla typowych zadań AI do poziomu porównywalnego z narzędziami programowymi działającymi na konwencjonalnym sprzęcie cyfrowym.

Dr Mehonic, dyrektor badania, powiedział: „Mieliśmy nadzieję, że mogą istnieć bardziej ogólne podejścia, które poprawią nie poziom urządzenia, ale zachowanie na poziomie systemu, i uważamy, że je znaleźliśmy. Nasze podejście pokazuje, że jeśli chodzi o pamięć, kilka głowic jest lepszych niż jedna. Ułożenie większej sieci neuronowej w kilka mniejszych  doprowadziło do uzyskania większej ogólnej dokładności. „

Dovydas Joksas wyjaśnił dalej: „Zapożyczyliśmy popularną technikę z informatyki i zastosowaliśmy ją w kontekście memrystorów. I zadziałało! Korzystając ze wstępnych symulacji, odkryliśmy, że nawet proste uśrednianie może znacznie zwiększyć dokładność pamięciowych sieci neuronowych”.

 

 

Źródło: techxplore.com

 

5 1 vote
Article Rating