Kilka lat temu w moim mieście przy okazji remontu elewacji budynku Starostwa Powiatowego przebudowano plac przed urzędem. Pojawił się wtedy szeroki reprezentatywny chodnik dla pieszych wiodący centralnie od głównego wejścia do ruchliwej ulicy. Po bokach wysiano trawę, posadzono wiecznie zielone krzewy, ustawiono ławki. Co z tego, kiedy na trawnikach po obu stronach szybko powstały przedepty - równiutkie, wydeptane przez przechodniów ścieżki? Założenie przebudowy miało sens: stworzyć estetyczną przestrzeń, z której będą mogli skorzystać ludzie czekający na załatwienie sprawy w urzędzie. W praktyce jednak okazało się, że ludzie korzystają z tego miejsca zupełnie inaczej.
Mam wrażenie, że podobnie jest ze sztuczną inteligencją. W wypowiedziach naukowców i programistów tworzących różne rodzaje SI wybrzmiewa idea ułatwiania ludziom życia. Że niby AI będzie wykonywać nudne, powtarzalne zadania, albo takie, które są dla człowieka wręcz niewykonalne, jak porównywanie lub porządkowanie dużej ilości danych. Ale w życiu codziennym raczej słyszę o problemach z prawem autorskim, z kategoryzowaniem ludzi i dopasowywaniem dla nich treści, z pisaniem prac za pomocą modeli językowych itp. Projektanci chcą dobrze, ale ludzie się nie dostosowują. I znowu to użytkownicy są winni. Oczywiście, ironizuję. Albo i nie…
Ponieważ sztuczna inteligencja nadal jest dla mnie zagadką, chociaż usilnie staram się ją zrozumieć, dzisiejszy tekst to nie moje przemyślenia (poza wstępem i podsumowaniem), ale opis 3 książek dotyczących AI:
Atlas sztucznej inteligencji. Władza, pieniądze i środowisko naturalne Kate Crawford
Sztuczna inteligencja. Nieludzka, arcyludzka Aleksandry Przegalińskiej i Pawła Oksanowicza
W cieniu AI. Jak sztuczna inteligencja ingeruje w nasze życia Madhumity Murgii
Kolejność nie jest przypadkowa. Po pierwszą sięgnęłam z polecenia Michała Krzykawskiego. Po jej przeczytaniu uznałam, że chociaż to świetna lektura, jest jednocześnie bardzo stronnicza. Dlatego sięgnęłam po książkę filozofki, która mówi zrozumiałym dla mnie językiem - Aleksandry Przegalińskiej. A potem tak się wkręciłam, że zaczęłam szukać głębiej. Michał Kycia wskazał mi na książkę Murgii, więc ją kupiłam. Oprócz tego czytałam Nexus. Krótka historia informacji Harariego, ale to taka cegła, że w tym newsletterze już się nie zmieści. Zostawiam, jako lekturę dla chętnych.
Kate Crawford - badaczka na University of Southern California i Microsoft Research New York - wykonała ogrom pracy badawczej pisząc atlas. “Atlas”, ponieważ zbiera informacje z wielu źródeł i pisze o sztucznej inteligencji na wielu płaszczyznach: państwa i korporacje napędzające badania, eksploracja złóż, masowe zbieranie danych, praktyki zatrudnienia. Rzeczywiście, książka Crawford pozwala spojrzeć dużo głębiej i dalej niż tylko aplikacja, którą można się pobawić.
Lektura zawiera 6 głównych rozdziałów i to o nich napiszę w skrócie.
ZIEMIA: Dolina Krzemowa to nie tylko programowanie. To także przemysł wydobywczy - lit, nazywany szarym złotem, który potrzebny jest do produkcji akumulatorów, używanych w urządzeniach elektronicznych. Oprócz Kaliforni wydobywa się go w kilku miejscach na świecie, często w strefach konfliktów, a potem sprzedaje z intencją finansowania tych konfliktów (dlatego jest jednym z “krwawych minerałów”). Warunki pracy w kopalniach są skandaliczne, a życie okolicznej społeczności jest całkowicie podporządkowane firmom górniczym. Oprócz litu sztuczna inteligencja potrzebuje energii elektrycznej. “Chmura” kojarzona jest z czymś lekkim, ekologicznym. W rzeczywistości potrzebuje ogromnych centrów danych, które zużywają mnóstwo energii, a także wody do chłodzenia serwerów. Ślad węglowy sztucznej inteligencji stale rośnie. Do tego trzeba doliczyć środowiskowe koszty logistyki: algorytm podpowiada ci produkt skrojony na miarę twoich potrzeb (nikt nie zna cię lepiej niż algorytm ;-)). Zamawiasz go na portalu online, a dzień albo dwa później znajdujesz paczkę pod drzwiami albo w paczkomacie. Tyle że po drodze ta paczka przejechała wiele kilometrów, prawdopodobnie samochodem, który nie jest ani lekki, ani ekologiczny. Koszty ekologiczne są zgrabnie ukrywane, łatwo o nich nie myśleć. Te koszty ponoszą de facto inni - żyjący w innych regionach świata i jeszcze nienarodzeni.
PRACA: Kiedy myślimy o pracownikach zatrudnionych przy budowaniu sztucznej inteligencji przychodzą nam do głowy programiści siedzący na wygodnych krzesłach w klimatyzowanych biurowcach. To jednak tylko powierzchnia. Warto zanurkować pod nią. Znajdziemy tam obserwowanych na każdym kroku i rozliczanych z każdej minuty (przez SI, a jakże!) pracowników magazynów i serwerowni, setki tysięcy słabo opłacanych uchodźców etykietujących zdjęcia oraz rzesze straumatyzowanych ludzi oglądających przemoc, aby nauczyć algorytm wyłapywania przemocowych treści. A my? Wszyscy jesteśmy pracownikami przemysłu informatycznego, ponieważ dostarczamy mnóstwo danych, na których SI uczy się i pracuje. O tym więcej w trzeciej książce (przyznam, że opis tego rozdziału wzbogaciłam informacjami z lektury Murgii, aby obraz był pełniejszy).
DANE: Na początku swojego istnienia SI uczyła się na danych ze zdjęć policyjnych. Potem dochodziły do tego zbiory rządowe, z czasem naukowe. Teraz danych jest aż nadto: web 2.0 bazująca na danych dostarczanych przez użytkowników znacznie to ułatwia. Ale podejście do ich pozyskiwania jest skandaliczne: Określenia takie, jak “eksploracja danych” i stwierdzenia, że “dane to ropa naftowa”, należą do retoryki, która przesunęła pojęcie danych od czegoś osobistego, intymnego, będącego własnością jednostki i przez nią kontrolowanego ku czemuś bezwładnemu i nieludzkiemu. Dane zaczęto opisywać jako zasób do wykorzystania. [...] Ostatecznie “dane” stały się słowem bezcielesnym, ukrywającym zarówno swoje materialne pochodzenie, jak i przeznaczenie. [s.118-119]. Ukrywającym historie ludzkie, konteksty, opowieści, emocje. To, jak dane się rozumie, przechwytuje, klasyfikuje i nazywa, jest z istoty aktem tworzenia i zawężania świata. [s.126].
KLASYFIKACJE: Wydawać by się mogło, że SI analizuje rzeczywistość. Wiemy już, że analizuje dane, a im do rzeczywistości daleko. A poza tym… to nie tak działa. Algorytmy klasyfikują dane wrzucając je do kategorii, które zostały ustalone przez człowieka. Do określonej liczby kategorii. A przecież świat jest skomplikowany i nie wszystko da się jednoznacznie sklasyfikować. Co więcej, klasyfikowani są także ludzie. Etykietowani według kategorii wymyślonych przez innych ludzi. Ups… Powiało grozą. Tak jest, klasyfikacja oznacza centralizację władzy: rozstrzyganie o tym, które różnice są istotne, a które nie. [s.137] Określanie etykiet i decydowanie o tym, w jaki sposób upraszcza się rzeczywistość to władza. To naturalizowanie określonego porządku świata, pełnego uprzedzeń i nierówności. (Nieco więcej o tym w książce Murgii, a jeszcze więcej u Harariego w książce Nexus)
AFEKTY: Czy można nauczyć SI odczytywać emocje? Wielu próbowało, niektórzy odtrąbili sukces. Tyle że, jak wspomniałam przed chwilą, SI jest pełna uprzedzeń (to głównie kwestia danych, na jakich jest trenowana oraz kategorii określanych przez głównie białych mężczyzn). W efekcie niektóre programy do rozpoznawania twarzy przypisują twarzom osób czarnoskórych więcej negatywnych emocji niż twarzom osób o jasnej skórze, zwłaszcza więcej gniewu i pogardy. [s.181] A to tylko jeden z wielu przykładów nierówności algorytmów.
PAŃSTWO: w książce Crawford czytamy o wielu przykładach wykorzystywania SI przez rządy państw, głównie wywiad i wojsko. I tak np. w USA system bazujący na SI wykorzystuje rozpoznawanie twarzy i przetwarzanie danych do budowy narzędzia umożliwiającego aresztowania i deportacje. [s.201] Po więcej przykładów odsyłam do książki.
Aleksandra Przegalińska - filozofka, badaczka rozwoju nowych technologii w Akademii Leona Koźmińskiego i Harvard University - oraz Paweł Oksanowicz - dziennikarz, autor książek, kulturoznawca - prowadzą rozmowę na temat sztucznej inteligencji. Odwołują się do historii, tłumaczą, filozofują, wybiegają też w przyszłość. Z tej książki dowiemy się o początkach SI, o jej działaniu, o teście Turinga, o kobotach, o różnych rozwiązaniach opartych na SI w gospodarce, o potencjale SI w medycynie, o dużych oczekiwaniach, że sztuczna inteligencja pomoże ludzkości poradzić sobie z problemami, które od dawna nękają Ziemię (np. kryzys klimatyczny). Autorzy nie unikają tematów trudnych, jak np. niejasne i niesprawiedliwe algorytmy Ubera czy zapóźnione podejście państw w porównaniu z BigTechami (to zresztą ostatnio jest bardzo widoczne w polityce, kiedy państwa decydują się na współpracę z BigTechami, ponieważ same nie są w stanie rozwijać technologii w takim tempie, jak firmy). Często przywoływana jest tu Alexa - wirtualny asystent od Amazona, który wielu rodzinom ułatwia codzienne funkcjonowanie, ale jednocześnie zmienia kulturę, np. kształtując komunikację jej użytkowników z innymi ludźmi. [s.206]
Ta lektura dobitnie pokazuje, jak założenia naukowców rozmijają się z rzeczywistością. I tak np. Alan Turing, określany w książce “ojcem SI”, wyobrażał sobie, że sztuczna inteligencja będzie obojętna płciowo, niezniewolona rolami płciowymi i społecznymi, będąca ponad rozmaitymi konwencjami i zachowaniami narzucanymi przez społeczeństwo. (Książka Murgii pokazuje jak bardzo się mylił!) Rozmijanie się założeń z faktycznym wykorzystaniem widoczne jest wyraźnie w Chinach, gdzie wprowadzony ponad 10 lat temu System Zaufania Społecznego, oficjalnie mający na celu podniesienie poziomu uczciwości, bezpieczeństwa i wydajności społeczeństwa, w rzeczywistości służy stworzeniu lojalnego i karnego narodu. (O tym, z kolei, przeczytacie więcej w książce Sylwii Czubkowskiej Chińczycy trzymają nas mocno - polecam!)
Czy jest zatem sposób na to, aby korzystać z potencjału SI, ale nie dać się wykorzystać? Cała nadzieja w hakerach… Chodzi o to, aby budować kompetencje cyfrowe w społeczeństwach. Jeśli nie będziesz wiedział, co się z tobą dzieje w sieci, gdzie, jakie dane i jak są przechowywane, bo nikt ci tego nie powie, to taki system może być naprawdę groźny dla wolności społeczeństwa. [s.348]
Madhumita Murgia to pisarka i dziennikarka aktualnie pisząca dla Financial Times na temat sztucznej inteligencji. Jej książka przygląda się sztucznej inteligencji przez pryzmat ludzi, który są z nią związani. Opisuje historie konkretnych postaci, różnej płci i narodowości, o różnym statusie społeczno-ekonomicznym, z najróżniejszych stron świata. Pozwala zobaczyć człowieka, nie technologię. Czyta się ją wspaniale.
Siła modeli maszynowego uczenia się wynika z możliwości wykrywania relacji statystycznych, które często są niedostrzegalne dla człowieka. One same - a nie tworzący je ludzie - określają swoje metody postępowania i sposoby podejmowania decyzji. Dlatego modele te często nazywa się czarnymi skrzynkami. Ta cecha sprawia, że są rzekomo bardziej obiektywne niż ludzie, ale ich rozumowanie jest często nieprzejrzyste i sprzeczne z ludzką intuicją, nawet w ocenie ich twórców. [s.20]. Poza tym zadania w branży sztucznej inteligencji są podzielone na tak niewielkie porcje, że większość osób ma jedynie mgliste albo zgoła żadne wyobrażenie o komercyjnym zastosowaniu lub wartości produktu końcowego, w którego tworzeniu uczestniczy. [s.34]
I tak poznajemy Benję i Iana z Nairobi, którzy etykietują zdjęcia. Z książki wiemy, że chodzi o trenowanie SI w rozpoznawaniu obrazów, ale oni sami nie do końca wiedzą, po co to robią ani jak zostaną wykorzystane modele SI na potrzeby których pracują. Czytamy też o Danielu, 27-letnim imigrancie z RPA, byłym pracowniku podwykonawcy firmy Meta, który w procesie zatrudniania zrozumiał, że jego zadaniem będzie przeglądanie materiałów marketingowych na platformie Facebook. W rzeczywistości miał do czynienia z wyłapywaniem i odsiewaniem drastycznych i nielegalnych treści. Dzień w dzień oglądał więc składanie ofiar z ludzi, dekapitacje, mowę nienawiści i wykorzystywanie seksualne dzieci. Jego praca była wykorzystana do trenowania algorytmów. Pozostawiła głębokie rany na jego psychice. Co ważne, tego typu zadania zlecane są podwykonawcom z państw Afryki, Azji i Ameryki Południowej. Słabo opłacanym - chociaż na ich pracy duże firmy technologiczne zarabiają krocie. Chociaż za podobną pracę wykonywaną w Europie lub Ameryce Północnej zapłacono by kilka razy więcej.
Poznajemy też Helen, pisarkę z Anglii, która pewnego dnia dowiaduje się, że w pewnym serwisie pornograficznym można znaleźć deepfejki pokazujące, jak kilku mężczyzn przyciska ją do ziemi i gwałci. Przeczytamy opis, jak to wpłynęło na jej psychikę. Na całe jej życie. Takich kobiet jest mnóstwo. Carrie Goldberg, prawniczka pomagająca kobietom prześladowanym, twierdzi:
W mojej opinii wszystkie przestępstwa są popełniane offline, ponieważ ich ofiarami są prawdziwi ludzie, nie komputery. Narzędzia sieciowe są tylko bronią, nie istotą czynu. Kiedy ktoś mówi o cyberstalkingu czy molestowaniu internetowym, protestuję. To taki sam stalking i takie samo molestowanie jak w realu. [s.95]
Gdzie indziej czytamy o Ashicie, lekarce pracujące w biednym regionie Indii u podnóży Himalajów. Jej aplikacja oparta na AI pomaga diagnozować gruźlicę. Naprawdę pomaga i ratuje ludzi. Z drugiej strony jest też Ziad, lekarz w USA, który zauważył, że technologie medyczne są tworzone przez białych ludzi … dla białych ludzi. Przykładem jest pulsoksymetr mierzący nasycenie krwi tlenem, który nie uwzględnia różnych poziomów melaniny (barwnika skóry) i w związku z tym nie nadaje się dla osób o ciemniejszej skórze.
Ostatnia historia, którą krótko przytoczę, dotyczy Diany, imigrantki z obrzeży Amsterdamu, matki 2 nastolatków, których algorytm wrzucił na listę potencjalnych przestępców, chociaż nie popełnili przestępstwa. To opowieść o uprzedzeniach rasowych i determinizmie społecznym - chłopcy stale kontrolowani przez policję w końcu faktycznie wpadli do światka przestępczego, a ich matka przez wiele lat zmagała się z depresją. Policja natomiast nie była w stanie wyjaśnić dokładnie, na jakiej podstawie algorytm sklasyfikował właśnie tych nastolatków, a nie ich sąsiadów. System, którego założeniem była troska o osoby narażone na wykluczenie i przestępczość, przekształcił się w system opresyjny.
Niezależny ekspert ONZ do spraw skrajnego ubóstwa i praw człowieka ogłosił w 2019 roku alarmujący raport na temat pojawienia się tak zwanego cyfrowego państwa opiekuńczego, czyli zjawiska zastępowania prerogatyw rządów analizą danych. [...] Cyfrowe technologie, w tym sztuczna inteligencja, których zadaniem teoretycznie jest określanie, komu należy przyznać pomoc społeczną i ochronę, w gruncie rzeczy przewidują, identyfikują, inwigilują, wykrywają, osaczają i piętnują biedę. [s.240-241]
Na podsumowanie wykorzystam cytat z książki Crawford: AI narodziła się w słonych jeziorach Boliwii i kopalniach Konga, a jej budulcem były zbiory danych oznaczanych przez crowdworkerów w celu klasyfikacji ludzkich działań, emocji i tożsamości. Jest wykorzystywana do sterowania dronami w Jemenie, zarządzania służbami antyimigracyjnymi w Stanach Zjednoczonych i modulowania ocen ludzkiej wartości i ryzyka w różnych miejscach na świecie. Aby zrozumieć te zachodzące na siebie systemy, musimy mieć szerokokątne, wieloparametrowe spojrzenie na AI. [s.224]
I to właśnie takie spojrzenie powinniśmy pokazywać uczniom i uczennicom w szkole. Aplikacje służące do zabawy i nauki to mały, niewiele znaczący element SI. Mam wrażenie, że szkoda na to czasu. Wykorzystajmy ten czas na pokazanie wielopłaszczyznowości, zadawajmy pytania i rozmawiajmy o etyce korzystania z technologii sztucznej inteligencji. Rozmawiajmy o tym, jak sztuczna inteligencja wzmacnia i odtwarza formy władzy. Według mnie to jest uczciwe. To przecież nie my, tylko nasi podopieczni najbardziej odczują skutki bezkrytycznego wdrażania sztucznej inteligencji w otaczających nas systemach.