Osaczeni przez liczby. O algorytmach, które kontrolują nasze życie. Od Facebooka i Google’a po fake newsy i bańki filtrujące
Czy matematycy sprawiają, że świat jest lepszy? Czy naprawdę chcemy lepiej zrozumieć świat? Czy algorytmy zajmą nasze miejsce? Aby odpowiedzieć na te i inne podobne pytania autor – matematyk, profesor matematyki stosowanej na Uniwersytecie w Uppsali – postanowił użyć jedynego sposobu, jaki zna, a mianowicie postanowił przyjrzeć się danym – obliczając dane statystyczne i stosując matematykę.
Wszyscy dziś już wiemy (a w każdym razie aktywni internauci), że Google zbiera informacje o odwiedzanych przez nas stronach i wykorzystuje te dane do wyświetlania nam odpowiednich reklam, że buduje sobie obraz naszych zainteresowań, klasyfikuje je, samodzielnie podejmuje decyzję o tym, co nam pokazać. Dopóki chodzi o reklamy sprzętu RTV lub oferty wakacyjne, to godzimy się już prawie bez zastrzeżeń, ale co, jeśli chodzi o nasze dane medyczne lub finansowe? Zbieranie i gromadzenie tego typu danych przez Google’a wzbudza duży niepokój. Może więc warto dowiedzieć się kto, co i dlaczego zbiera w internecie?
Dziś powszechnie tworzone są algorytmy do rozpoznawania twarzy, asystentów osobistych, chatboty – wszystko po to, aby rzekomo czynić dobro. Autor zastanawia się jednak, czy algorytmy sprawiają, że świat jest lepszy? A może po prostu opracowywanie algorytmy służą jedynie interesom międzynarodowych firm? I wreszcie, czy algorytmy potrafią szanować nasze prawa? A może nie tylko nie szanują, ale mogą dyskryminować, manipulować, oszukiwać?
Obserwacjom w internecie podlega cała nasza aktywność, także ta na portalach społecznościowych. Naukowiec przypomina, że Facebook ma 2 miliardy użytkowników na całym świecie. Co godzinę na portalu pojawiają się dziesiątki milionów nowych postów. Jego użytkownicy wraz ze swoimi „lajkami” to zatem łakomy kąsek dla Facebooka i jego mechanizmów obserwujących, mierzących, oceniających, analizujących, klasyfikujących, a następnie redukujących nasze wymiarowości. Według pisarza, Facebook osiągnął mistrzostwo w technikach redukowania naszych wymiarowości. Jego metody pozwalają w mniej niż sekundę zredukować milion różnych kategorii „polubień” wybranych przez 100000 różnych osób do kilkuset wymiarów. Metody tego portalu opierają się na matematyce losowości. Dlaczego? Otóż obracanie milionami danych trwałoby zbyt długo, zatem algorytm Facebooka zaczyna od proponowania losowego zestawu wymiarów, za pomocą których próbuje nas opisać. Dopiero w kolejnym etapie Facebook niejako testuje te losowości na żywym organizmie. Autor książki podkreśla jednak, że kategorii, jakimi opisuje nas ten program społecznościowy, nie należy traktować dosłownie – to próba dopasowania słów do dużo głębszego algorytmicznego zrozumienia użytkownika przez Facebooka, zaś charakteryzujące nas algorytmy nie polegają na słowach. Wygląda na to, że człowiek swoim umysłem nie jest w stanie objąć wielowymiarowego rozmieniania nas przez Facebooka.
Jeżeli jeden z programów może aż tak dużo wiedzieć o ponad 2 miliardach osób na całym świecie, to pojawia się pytanie: czy to jest dobre, czy złe? A co jeśli takie dane zostaną wykorzystane w innych celach niż tylko spersonalizowane reklamy? Wielu z nas pamięta aferę Cambridge Analityca, gdy firma zastosowała metody targetowania wyborców w celu wywarcia jak największego wpływu na głosujących. Autor przyznaje, że wykorzystywanie naszych preferencji, IQ czy osobowości może doprowadzić do manipulowania ludźmi. Badając aferę Cambridge Analityca, naukowiec postanowił przyjrzeć się bliżej działalności tej firmy. Doszedł do wniosku, że nie można wszystkiego upraszać do stwierdzenia, że komputery myślą zerojedynkowo. To nie jest właściwy sposób opisywania modeli matematycznych. W rzeczywistości to właśnie ludzie często postrzegają świat binarnie: jako „czarne” lub „białe”. Algorytmy natomiast, przetwarzając dużą liczbę wymiarów w prawdopodobieństwo lub ranking, wykorzystują metodę regresji. I wcale nie jest to nowa metoda. Statystycy bowiem stosują ją już od stulecia (w modelu tym pobierane są dane i wykorzystuje się znane informacje do przewidzenia rzeczy, których się nie zna). Według Sumptera aferze Cambridge Analityca towarzyszyły z jednej strony mocno przesadzone przechwałki samej firmy, a z drugiej – histeria wynikająca z braku dostatecznej wiedzy na temat działania algorytmów. Ale, jak sam autor zauważa, ostrożna nauka nie sprzedaje się dobrze jako usługa konsultingu politycznego.
Pisarz, przyglądając się Cambridge Analityca, odkrył fundamentalne ograniczenia dokładności algorytmów. Uświadomił sobie także, że jeżeli chodzi o rozumienie otaczającego nas świata, modele matematyczne zazwyczaj nie przewyższają ludzi, co może kłócić się z jego działalnością pozaliteracką – jest bowiem właścicielem firmy, która używa modeli matematycznych do prognozowania wyników meczów piłkarskich. Kieruje także pracami zespołu badawczego, który stosuje matematykę, aby tłumaczyć zbiorowe zachowania mrówek, ryb, ptaków i ssaków, w tym ludzi.
Wszystkie algorytmy opierają się na idei, że możemy się uczyć, podążając za rekomendacjami i decyzjami podejmowanymi przez innych. Ale co tak naprawdę dostarczają nam algorytmy, z którymi wchodzimy w interakcję? Jeff Bezos, założyciel sklepu Amazon, był pierwszą osobą, która doszła do wniosku, że przeglądając internet wcale nie chcemy obejrzeć wszystkiego, i potrzebujemy jedynie niewielkiej liczby opcji. Efekt? Autor, przeglądając książki sugerowane na podstawie jego ulubionych autorów, otrzymał bardzo trafione rekomendacje. Mało tego, algorytm świetnie rozumiał jego żonę i nastoletnią córkę. Badania nad Amazonem i innymi sklepami online prowadzą do wniosku, że im więcej przedstawi się ludziom opcji, tym mnie opcji obejrzą. Gdy pokazuje się nam dużo informacji, nasze mózgi stwierdzają, że najlepiej je zignorować. Oczywiście firmy o tym wiedzą i starają się oszukiwać nasze leniwe mózgi, stosując wyrafinowane metody.
Innymi ciekawymi tematami, jaki przyglądał się Sumpter, były także mechanizmy zdobywania popularności w sieci, bańki filtrujące, komory pogłosowe oraz fake newsy. Autor tłumaczy w swojej książce działanie algorytmów, które prowadzą do powstawania wspomnianych zjawisk. Pokazuje, dlaczego niektóre treści rozchodzą się w sieci lotem błyskawicy i trwają, mimo wielu publikowanych artykułów dementujących czy rzetelnych teksów naukowych. Na koniec porusza temat sieci neuronowych i sztucznej inteligencji. Zauważa, że choć naukowcy dużo wiedzą o mózgu, wciąż nie potrafią symulować charakterystycznego dla człowieka spontanicznego rozumienia nowych kontekstów. Google, Tesla, Amazon, Facebook i Microsoft ścigają się w wyścigu o zdobycie takich umiejętności, napędzając się jednocześnie wzajemnie w tym wyścigu. Myślimy o tworzeniu inteligencji psa, pszczoły, robaka, a nawet człowieka, ale nie potrafimy odtworzyć inteligencji mikrobów. Gdzie zatem jesteśmy w tym wyścigu? Na razie bardzo daleko od mety, według autora.