Jak się okazało już wiele lat temu, układy graficzne (GPU) świetnie się nadają nie tylko do przetwarzania grafiki, ale też do wielu innych zadań. Tak powstał CUDA, czyli platforma i język programowania, które pozwalają użyć GPU do przetwarzania zadań wymagających wykonania wielu równoległych obliczeń. W pewnych zastosowaniach wyspecjalizowane układy GPU potrafią być bowiem szybsze od standardowych procesorów komputera (CPU) nawet... kilkadziesiąt razy.
Przeczytaj nasz wywiad z 2009 roku z Alainem Ticquetem z Nvidii na temat CUDA
Pierwsze zastosowania GPU to przetwarzanie fizyki w grach, ale też na przykład bardzo wydajna konwersja wideo.
Dziś Nvidia produkuje już nie tylko układy graficzne GeForce dla graczy, ale także, będące w istocie ich pochodnymi, procesory przeznaczone do znacznie szerszych zastosowań. Wiele przykładów mogliśmy zobaczyć na konferencji GTC 2017.
Większość nowości zapowiedział Jen-Hsun Huang, założyciel i prezes Nvidii, podczas swojego wystąpienia otwierającego konferencję. Przedstawił on zgromadzonym, w jakich obszarach Nvidia plasuje obecnie swoje produkty. Gry komputerowe to tylko jeden z wielu. Po za tym są to narzędzia naukowe (dynamika molekularna, przewidywanie pogody, wizualizacje medyczne, dynamika płynów, przetwarzanie danych sejsmicznych itd.), uczenie maszynowe i sztuczna inteligencja, wreszcie – samochody autonomiczne.
Jen-Hsun Huang zaprezentował najnowszy projekt Nvidii: komputer Drive PX „Pegasus” do samochodów autonomicznych poziomu 5, czyli całkowicie samodzielnych, niewymagających kierowcy (mogą już w ogóle nie mieć kierownicy oraz pedałów gazu i hamulca). Samochody te szef Nvidii określił mianem robotaksówek (robotaxis). Z założenia użytkownik nie musi być właścicielem samochodu: gdy będzie chciał się dostać z domu do pracy, robotaksówka sama podjedzie pod dom, użytkownik wsiądzie do środka (w aucie nie będzie kierowcy) i pojazd zawiezie go we wskazane miejsce. Nie będziemy musieli nawet wciskać żadnych przycisków czy wskazywać miejsca na mapie na ekranie: z robotaksówką będziemy się komunikować głosowo, a konwersacja może przypominać rozmowę z prawdziwym człowiekiem. Nie będzie trzeba wydawać sztucznych komend, jakich używamy w obecnych systemach nawigacji z funkcjami rozpoznawania głosu. Po prostu powiemy: „Zawieź mnie do moich rodziców” albo „Jedziemy do pracy, po drodze zatrzymaj się pod mcdonaldem”).
Robotaksówki będą wymagać potężnej mocy obliczeniowej, żeby przetwarzać dane z kamer, sensorów i radarów, którymi będą skanować całe swoje otoczenie. Samochody te będą musiały w ułamku sekundy podejmować decyzje o kierunku i prędkości jazdy, także w obliczu niespodziewanych zdarzeń na drodze (wtargnięcie pieszego na ulicę, upadek ułamanej gałęzi itp.).
Prototypy samochodów autonomicznych są już produkowane (chociaż na razie jeszcze nie seryjnie) i testuje je wiele firm. Wśród nich są w zasadzie wszyscy liczący się producenci samochodów (Mercedes-Benz, Audi, BMW, Volvo, Nissan, Honda, Toyota i inni), ale również takie firmy, jak: Uber, Lyft, Yandex, Baidu.
Komputery pokładowe sterujące tymi samochodami muszą mieć potężną moc obliczeniową. Dlatego zajmują obecnie... cały bagażnik. Jen-Hsun Huang przedstawił nawet ilustrację pokazującą, jak wygląda bagażnik dzisiejszego samochodu autonomicznego.
Ten skomplikowany zestaw w niedalekiej przyszłości będzie można zastąpić chociażby komputerem Drive PX. Komputer ten podobno jest niesamowicie wydajny: przetwarza 320 bilionów (!) operacji na sekundę (TOPS – trillion operations per second), a przepustowość pamięci sięga w nim 1 TB/s (!).
A to wszystko w postaci płyty głównej z dwoma wyspecjalizowanymi procesorami Nvidia Xavier, która jak to określił Huang, ma rozmiary zbliżone do amerykańskiej tablicy rejestracyjnej. Komputer podczas pracy pobiera maksymalnie 500 W – to ułamek tego, czego wymagają komputery obecnie montowane w samochodach autonomicznych.
I teraz ponownie rzut oka do bagażnika samochodu autonomicznego, po umieszczeniu w nim jedynie komputera Drive PX. Robi wrażenie, prawda?
Aby podkreślić, że rozwój samochodów autonomicznych jest na dobrej drodze, na korytarzu w centrum konferencyjnym, w którym odbywała się GTC, rozstawiono kilka przykładowych pojazdów tego typu. Wśród nich znalazła się Tesla Model X – standardowy, ale najnowszy model, który już dziś umie jeździć po drogach publicznych zupełnie samodzielnie (na YouTube znajdziecie pokazujące to filmy), chociaż jeszcze nie jest kwalifikowany jako samochód autonomiczny poziomu 5. Pokazano też najnowsze Audi A8 (w przedłużonej wersji A8L), a także samochód testowy Nvidii nazwany BB8, który na dachu ma zamontowany system kamer i radarów i którego celem jest jeżdżenie po drogach publicznych i „uczenie się”. Dwa inne auta, już zupełnie odjechane, to koncepcyjny Mercedes-Benz IAA Concept i – tu ciekawostka – Roborace, autonomiczny samochód wyścigowy poziomu 5. Ten drugi nie tylko nie ma kierowcy – on wręcz nie ma miejsca ani dla kierowcy, ani dla pasażera! To już prawdziwy robosamochód.
Komputer Drive PX to niejedyna nowość Nvidii pokazana na konferencji GTC. Jen-Hsun Huang zaprezentował ponadto system kolaboracji zdalnej HoloDeck, wykorzystujący VR (wirtualną rzeczywistość). Stworzony został głównie z myślą o projektantach. Przykładowo kilku projektantów może pracować nad konstrukcją nowego modelu samochodu – każdy z innego miejsca na świecie. Wszyscy po założeniu hełmu VR przenoszą się do wirtualnego studia projektowego, gdzie są reprezentowani przez trójwymiarowe awatary. (Przypomnijmy, że podobny pomysł na wirtualne „spotkania” z przyjaciółmi pokazywał wcześniej Mark Zuckerberg, szef Facebooka). W wirtualnym studiu mogą projektować nowe auto. Model będzie odwzorowany z fotorealistyczną dokładnością, ze wszystkimi, nawet najdrobniejszymi, szczegółami.
Miałem okazję wypróbować technikę HoloDeck. Znalazłem się przed najnowszym modelem McLarena, 720S. Auto było tak wiernie odwzorowane, że naprawdę miałem wrażenie obcowania z prawdziwym samochodem.
GPU Technology Conference to nie tylko nowe projekty Nvidii. Po głównej prezentacji Jen-Hsun Huanga kilkadziesiąt innych firm przeprowadziło własne wykłady, głównie na temat swoich prac w dziedzinie samochodów autonomicznych i sztucznej inteligencji. Prezentacje te były jednak poświęcone konkretnym zagadnieniom i skierowane głównie do inżynierów pracujących nad konstruowaniem samochodów autonomicznych, dlatego nie będziemy ich opisywać w niniejszej relacji.