Menu Close

Sztuczna inteligencja – DuLight

Andrew Ng prezentuje malutkie urządzenie, które owijane jest wokół ucha i łączy się ze smartfonem poprzez mały kabelek. Wygląda to jak powrót do przeszłości – słuchawki smartfona bez połączenia Bluetooth. Ale tak naprawdę to spojrzenie w przyszłość. To małe urządzenie umożliwia bowiem niewidomym skuteczną kontrolę i obserwację otoczenia. Andrew Ng jest głównym naukowcem chińskiego giganta technologicznego Baidu, a urządzenie jest jednym z najnowszych prototypów firmy. Nazywa się „DuLight”. Składa się z małej kamery, która rejestruje otoczenie z przodu twarzy człowieka i wysyła obrazy do aplikacji w smartfonie, która analizuje otrzymane obrazy, określa co przedstawiają i generuje do słuchawek odbiorcy opis słowny otoczenia. Wprawdzie nie widać przedmiotów, ale można się zorientować, że znajduje się on przed osobą. Sztuczna inteligencja zmienia już nie tylko sposób, w jaki używamy komputerów i smartfonów, ale także sposób interakcji ze światem realnym. „DuLight” jest nadal w najwcześniejszych stadiach rozwoju i nie działa jeszcze tak dobrze, jak prawdopodobnie będzie któregoś dnia. Ale zwraca się ku przyszłości, w której maszyny będą postrzegać, a nawet rozumieć swoje otoczenie, na równi z ludźmi, a nawet lepiej. Ten rodzaj sztucznej inteligencji zmienia nie tylko sposób w jaki używać  będziemy komputerów i smartfonów, ale również sposób interakcji ze światem. Prototyp NG opiera się na technologii sztucznej inteligencji o nazwie „deep lerning”. Wewnątrz ogromnych centrów danych komputerowych, które są podstawą usług online Baidu, znajdują się ogromne sieci neuronowe – sprzętu i oprogramowania, które poziomem komplikacji zbliżają się do sieci neuronów ludzkiego mózgu. Poprzez analizę ogromnych zbiorów obrazów cyfrowych, sieci te uczą się rozpoznawać przedmioty, słowa pisane, a nawet ludzkie twarze. Dostarczając  np. pewną ilość zdjęć  kotów do sieci neuronowych,  można nauczyć AI rozpoznawania kotów. Dostarczając również pewną ilość zdjęć chmur, nauczymy rozpoznawać chmury. Podobna technologia obsługuje już szereg innych zadań w ramach zarówno Baidu jak i amerykańskich technologicznych gigantów takich jak Google, Facebook czy Microsoft. W Google, sieci neuronowe pozwalają na natychmiastowe wyszukiwanie konkretnych ludzi, miejsc i rzeczy  pochowanych w kolekcjach zdjęć, czy pomaga rozpoznawać polecenia mówione do telefonu Android. Na Facebooku, technologia „deep lerning” pomaga w identyfikacji twarzy na publikowanych zdjęciach podczas aktualizacji statusu. W Skype, którego właścicielem jest Microsoft wprowadza się usługę, symultanicznego tłumaczenia rozmów z jednego języka na inny. Sieć neuronowa może pomóc w wielu różnych sposobach postrzegania. Technologia ta nawet zaczyna rozumieć naturalny sposób w jaki ludzie mówią. Wirtualny rozmówca Google „chatbot” może np. zbudować dialog na bazie dostarczonych wcześniej do neuronowej sieci dialogów ze starych  filmów, a dzięki „deep lerning” bot może prowadzić rozmowę na ten temat. Wszystko to wydaje się być obecnie science fiction. Ale 2015 jest rokiem, gdy technologia sztucznej inteligencji zadebiutowała w wielkim stylu w świecie rzeczywistym. „DuLight” i chatbot Google wprawdzie jeszcze są eksperymentami, ale technologia rozpoznawania twarzy Facebooka, tłumaczenia Skype’a, czy rozpoznawanie głosu w Androidzie są już realne i dostępne dla wszystkich. Google używa tej samej technologii w swojej wyszukiwarce internetowej, filarze imperium online. Twitter używa jej do identyfikacji pornografii, dając ludziom możliwość jej zablokowania. Baidu natomiast wykorzystuje ją do zarządzania reklamami i identyfikacji złośliwego oprogramowania. Na początku listopada ubiegłego roku, Google zaskoczył świat udostępniając istotne  elementy oprogramowania „deep lerning”. Google nie ujawnił oczywiście szczegółów technologii,  ale przekazał ogromne ilości danych, które posłużą do zasilania systemów informacją, tak  by uczynić je użytecznymi i stymulować ewolucję oraz rozwój systemu poza Google. Kilka tygodni później, również Facebook udostępnił projekty dla niestandardowego serwera sprzętowego, który napędza ich system „deep lerning”. Dzień po tym, grupa kierowana przez prezesa Tesla Motors, Elon’a Musk’a oraz prezesa Y Combinator, Sam’a Altman’a zapowiedziała zainwestowanie 1 mld. USD w non-profit projekt o nazwie “OpenAI” – rozwoju sztucznej inteligencji, obiecując przy tym przejrzystość wyników badań i technologii. OpenAI jest wielką sprawą i będzie nadzorowane przez Ilya Sutskever – dawniej jednego z najlepszych badaczy sztucznej inteligencji w Google. Musk i Altman stworzyli organizację jako sposób na ochronę świata przed zagrożeniami wynikającymi  z AI, obawiając się, że technologia „deep lerning” stanie się tak potężna, że będzie czymś w rodzaju ponadludzkiej superinteligencji znajdującej się poza naszą kontrolą. Twierdzą, że najlepszym sposobem na uniknięcie tego zjawiska, jest  publiczne udostepnienie wyników prac nad AI.  Altman twierdzi, że o wiele bardziej prawdopodobnym jest, że jednak znaczna cześć sztucznej inteligencji AI działała będzie na rzecz powstrzymania potencjalnego zła, aniżeli je generowała” Remedium na ew. zagrożenia jest tu pełna przejrzystość badań poprzez zapewnienie finansowania projektu . Jest jeszcze zbyt wcześnie, by ocenić  czy ten argument wytrzyma próbę czasu, bowiem nauka jest jeszcze zbyt daleko od super-AI w wymiarze ludzkim, o ile w ogóle zostanie takowa stworzona. Zagrożenia są z pewnością warte rozważenia. Ale społeczeństwo powinno być uświadomione o dobrych stronach aktywności sztucznej inteligencji. „DuLight” jest tego najlepszym przykładem. Podobne prace trwają w Facebooku. Tej jesieni, firma zaprezentowała technologię dla niewidomych, która automatycznie analizuje zdjęcia w kanałach Facebooka i za pomocą silnika “tekst – do -mowy”, opisuje zdjęcia. Efekt tego jest ogromny i natychmiastowy. Ponad 50.000 osób niewidzących i niedowidzących korzysta już z Facebooka, mimo że nie może zobaczyć, co jest na zdjęciach. Teraz maszyna działa jako ich oczy. Korzystny wpływ sztucznej inteligencji jest tu ewidentny dla wszystkich .

Autor: Cade Metz

01.01.2016

Leave a Reply

Your email address will not be published. Required fields are marked *