Mój ostatni blog wprowadził niektóre kluczowe wyzwania technologiczne w odczuwaniu i postrzeganiu autonomicznej jazdy. Teraz chciałbym rozważyć kilka potencjalnych przeszkód w realizacji skutecznego uczenia maszynowego w wysoce wspomaganych i autonomicznych pojazdach. Konkretnie, imponujący wzrost popularności sztucznych sieci neuronowych łączy się ze zwiększonym opóźnieniem i zużyciem energii. I pomimo tego, co mówią naukowcy i wielcy producenci układów, problem ten najprawdopodobniej nie zostanie rozwiązany po prostu przez zastosowanie większej ilości zasobów obliczeniowych i większych zestawów danych.

Idea sztucznego, inteligentnego automatu zainspirowała naukowców od stuleci. Jednak dopiero wraz z konwergencją matematyki, teorii informacji i elektroniki idea sztucznego mózgu mogła wyjść od średniowiecznej alchemii do rzeczywistości inżynierskiej. Od tego czasu zainteresowanie tematem zaczęło się zmniejszać, podobnie jak postawy kulturowe. W 1981 r. HAL mówiący w AI był złowrogim boogeanim w 2001 roku: A Space Odyssey. Dziś Alexa Alexa, napędzana przez sztuczną inteligencję, której prawdopodobnie nie mogli sobie wyobrazić Stanley Kubrick i Marvin Minsky, jest śliczną gwiazdą reklam Super Bowl (wraz z Jeffem Bezosem).

Sprawdź również: blog potęga natury

Obecnie jest więcej danych, więcej mocy obliczeniowej niż kiedykolwiek wcześniej. Ten surowiec, w połączeniu z podstawowymi ulepszeniami metodologii algorytmicznej, pomaga w prowadzeniu wielomiliardowego wyścigu o autonomiczną jazdę.

Jednak, jak to zawsze ma miejsce w przypadku rozwoju technologii, postępy w tej dziedzinie stwarzają nowe wyzwania, a akademicki entuzjazm niezmiennie przewyższa inżynierską rzeczywistość. W przypadku jazdy autonomicznej, jeden z najtrudniejszych problemów, szczególnie z obecnym trendem w kierunku głęboko splotowych sieci neuronowych, ma związek ze zwiększonym opóźnieniem i zużyciem energii. Warstwy splotowe w CNN są skutecznym sposobem rozkładania danych obrazowych na cechy czytelne maszynowo, co sprawia, że ​​proces uczenia się jest bardziej skuteczny, ale przy znacznych kosztach obliczeniowych. Dotyczy to w szczególności autonomicznej jazdy, gdzie duże rozwiązania przetwarzania oparte na procesorach GPU mogą okazać się problematyczne pod względem komercyjnym.

Inspirację czerpaliśmy z procesu ekstrakcji cech dla splotowych sieci neuronowych. W naszych aplikacjach motoryzacyjnych używamy wielu czujników o odmiennych właściwościach fizycznych i spektralnych, aby zapewnić wielomodalne wektory wejściowe. Korzystając z takiego systemu wieloczujnikowego, jesteśmy w stanie wnioskować o stanach fizycznych, które poza tym są nieobserwowalne.

Techniczne działanie sieci neuronowych jest proste w projektowaniu, ale złożone w realizacji i zbyt szczegółowe, aby je tu opisać. (Bezpłatny ebook online autorstwa badacza Y Combinatora, Michaela Nielsena, stanowi doskonałe wprowadzenie). Istnieją jednak dwie powiązane funkcje, które powodują opóźnienie hosta i problemy z zasilaniem:

Wielkość architektury, która reprezentuje model numeryczny odnoszący się do danych wejściowych z etykietowanymi wyjściami.
Etykietowane dane szkoleniowe użyte do stworzenia tego modelu, zapewniając kontekst tego, czego się nauczyłem.

W przeszłości sieci neuronowe były zwykle ograniczone do bardzo specyficznych problemów rozpoznawania wzorców. Takie sieci, tworzone dla konkretnych przypadków i przy użyciu wiedzy eksperckiej, mają tendencję do obniżania wydajności, gdy przypadki testowe różnią się od małego zestawu danych treningowych (na przykład, obrazy zebrane w różnych warunkach oświetleniowych i pogodowych oraz z różnymi czujnikami, lub czujniki z różnymi modelami hałasu). Oznacza to, że sieci takie nie mają charakteru ogólnego, aby zachować niezawodność w różnych warunkach wykrywania.

Jednak w ostatnich latach dzięki dostępności dużych danych i masowo równoległych struktur przetwarzania, takich jak procesory graficzne, możliwe jest trenowanie sieci składających się z wielu milionów neuronów (o największej liczbie setek miliardów) zorganizowanych w wiele warstw. Wiedza ekspercka zastępowana jest dużymi zestawami danych szkoleniowych i tak zwanymi „głębokimi” sieciami neuronowymi.

Koncepcja „dostrajania” sieci przez ekspertów ewoluowała w kierunku wykorzystania większej ilości danych, a jako naukowiec Sympozjum Inteligentnego Samochodu w 2017 r. Zasugerowano, „wyrzucenie większej sieci na problem.” Zasadniczo trendem jest zastąpienie eksperckiego wkładu użytkownika z brutalnym przetwarzaniem siły. Jednak więcej przetwarzania i więcej danych na ogół wprowadza wyższe opóźnienie i większe zużycie energii – dwa czynniki, które są niezgodne z koncepcją ekonomicznie opłacalnej autonomicznej jazdy.

W Mentor Graphics czerpaliśmy inspirację z procesu ekstrakcji cech dla splotowych sieci neuronowych. W naszych aplikacjach motoryzacyjnych używamy wielu czujników o odmiennych właściwościach fizycznych i spektralnych, aby zapewnić wielomodalne wektory wejściowe. Korzystając z takiego systemu wieloczujnikowego, jesteśmy w stanie wnioskować o stanach fizycznych, które poza tym są nieobserwowalne.

Następny blog rozszerzy ten proces i przedstawi naszą strategię włączania efektywnej sztucznej inteligencji do naszej platformy do syntezy czujników DRS360.


Dodaj komentarz

Twój adres email nie zostanie opublikowany.