Menu Close

Algorytmy już kontrolują nasze życie: Czy są życzliwymi władcami czy złymi dyktatorami?

Ponieważ kody zajmują coraz większą część naszego procesu podejmowania decyzji, to potrzebujemy większej przejrzystości i jakiejś przysięgi hipokratycznej od ludzi, którzy je tworzą.

Od aplikacji telefonicznych i map GPS po rekomendacje muzyczne i sztuczną inteligencję , nasze życie jest coraz bardziej kształtowane przez algorytmy – zestawy instrukcji do wykonywania zadań lub rozwiązywania problemów. Algorytmy to poniekąd już zasady rządzące naszymi czasami –równania, które miały pomagać nam podejmować decyzje, lecz coraz częściej podejmują je za nas.

Czy te, na siłę niekiedy tworzone przepisy na życie są dobre czy złe? Według raportu Pew Research Center, są one w równej mierze dobre co złe. Pew ankietował 1302 ekspertów różnych dziedzin – futurystów, naukowców, programistów, mężczyzn i kobiet. Opinie były podzielone.

Na pytanie czy “ogólny efekt netto” dla osób i społeczeństwa będzie pozytywny lub negatywny w następnej dekadzie, 38% respondentów powiedziało, że pozytywy wyprzedzą negatywne konsekwencje, podczas gdy 37% postrzegało to dokładnie odwrotnie. Kolejne 25% stwierdziło, że negatywne konsekwencje zostaną zrównoważone pozytywnymi.

Eksperci powszechnie oczekują, że algorytmy będą się mnożyć i stawać się coraz ważniejsze w naszym życiu. Nie trudno jest zaobserwować jak może się ono poprawić. Banki będą mogły podejmować lepsze decyzje o tym komu pożyczyć pieniądze, zatwierdzając ludzi, którym raz już odmówiono lub dyskryminowano z powodu niekompletnych danych, twierdzą eksperci. Rządy staną się bardziej wydajne i bardziej równe, ponieważ decyzje będą podyktowane obiektywnymi danymi, a nie poglądami biurokratów. Algorytmy złagodzą korki, informując ludzi o najlepszych trasach i trybie podróżowania. Doprowadzą do “lepszej i aktywniejszej pracy policji, ukierunkowanej na obszary, w których można zapobiegać przestępczości”. Prawda czy Fałsz??

Badanie jednak zwraca uwagę na wszelkiego rodzaju szkodliwe konsekwencje ich ekspansji. Sztuczna Inteligencja umożliwi “hiper-stalking” – wysoce spersonalizowany marketing i “nowe sposoby na fałszywe przedstawianie rzeczywistości i utrwalanie kłamstw” (świetne do kampanii wyborczej). Algorytmy będą pisane tak, by zmaksymalizować wydajność i rentowność, a ludzie będą coraz częściej traktowani jako “dane wejściowe”. Algorytmy wyszkolone do tworzenia algorytmów następnej generacji, utrwalą natomiast cykle autonomicznego podejmowania decyzji bez udziału człowieka.

Powstanie coraz większy podział między ludźmi algorytmicznej wiedzy i tymi, którzy nie zrozumieją, jak to coś zostało wykonane. “Algorytmy będą korzystać z wygody i zysku, dyskryminując niektóre populacje, ale także osłabiając doświadczenia wszystkich innych”, mówi Bart Knijnenburg, adiunkt w dziedzinie informatyki skoncentrowanej na człowieku na Clemson University, “Celem algorytmów jest bowiem dopasowanie niektórych naszych preferencji, ale niekoniecznie wszystkich z nich: zasadniczo są one jednak karykaturą naszych upodobań i preferencji.”

Algorytmy obiecują beznamiętne gromadzenie danych i bardziej obiektywne podejmowanie decyzji. Ale nadmierne poleganie na nich, na przykład w policji lub w decyzjach o zatrudnieniu może wzmocnić uprzedzenia i zmniejszyć odpowiedzialność. Jeśli dane, które pobiera algorytm będą tendencyjne, to wyniki również będą tendencyjne.

“Wszystkie dane szkoleniowe zawierają uprzedzenia”, mówi Dudley Irish, inżynier oprogramowania. “Wiele z nich jest związane z rasą lub klasą społeczną.” Parafrazując Immanuela Kanta, „z pokręconego drewna nic prostego wystrugać się nie da.” Biorąc pod uwagę decydujące znaczenie algorytmów, pojawiają się wprawdzie apele o większą przejrzystość. Ale, biorąc pod uwagę ich znaczenie handlowe, mało prawdopodobnym jest by ich właściciele uchylili wystarczająco tajniki ich działania. “

Jednym z największych wyzwań następnej ery będzie więc zrównoważenie ochrony własności intelektualnej w algorytmach z ochroną podmiotów tych algorytmów przed nieuczciwą dyskryminacją i inżynierią społeczną”. Badanie, przeprowadzone wspólnie przez Elon University’s Imagining Internet Center, oferuje pewne wstępne pomysły na to, co społeczeństwo może zrobić, aby zmaksymalizować dobro i zminimalizować zło. Susan Etlinger, analityk branżowy w Altimeter Group, firmie badawczej twierdzi, że istnieje potrzeba jasnego audytu w tworzeniu algorytmów, podobnie jak istnieje szlak pochodzenia dla wielu produktów spożywczych. Inne, często zabawne pomysły to “FDA dla algorytmów”, przysięga Hipokratesa dla programistów i “reforma tego przemysłu” (giganci technologiczni niedawno wymyślili kilka niejasnych zasad zbiorowych dla Sztucznej Inteligencji).

Przede wszystkim jednak wszyscy będziemy potrzebować większej umiejętności czytania i pisania o miejscu algorytmów we współczesnym świecie i większej zdolności do wpływu na ich ostateczne wyniki. “Rozwiązaniem jest projektowanie, ale proces ten nie powinien być „czarną skrzynką”, w której lokujemy dane, ale przejrzystym procesem mającym na celu nie tylko uzyskanie rezultatu, ale wyjaśnienie, w jaki sposób do tego doszło”, mówi Judith Donath, badaczka z Harvard Berkman Klein Center for Internet & Society. “Systemy powinny być interaktywne, tak by ludzie mogli zbadać, w jaki sposób zmiana danych, założeń, czy zasad zmieni końcowe wyniki. Algorytm nie powinien być nowym bytem; celem powinna być pomoc i służba ludziom, w tym także tym którzy kwestionują autorytety.

 

wg. FastCompany, Ben Schiller 

Leave a Reply

Your email address will not be published. Required fields are marked *