Proszę o wsparcie dla Krzysia Bulczaka, największego bohatera jakiego znam.

To dziadowskie AI

Byłem wczoraj na spotkaniu promującym książkę Aleksandry Przegalińskiej Istoty wirtualne. Jak fenomenologia zmieniała sztuczną inteligencję. Chociaż książki jeszcze nie czytałem, spotkanie mogę uznać za bardzo udane – mniej było na nim dyskusji nad samą publikacją, więcej ogólnej rozmowy nad istotą i problemami sztucznej inteligencji.

Dostępność i wszechobecność rozwiązań AI poraża – już nawet w domowych warunkach można potestować sobie jakieś proste rozwiązania. Na szczęście refleksja teoretyczna nie ustępuje tutaj progresowi technicznemu, a nawet – jak można się było przekonać podczas spotkania – jest z nim głęboko związana. Zresztą zdaniem autorki to właśnie w AI filozofia jak nigdzie indziej uzyskuje swoje praktyczne wdrożenie.

Chyba najważniejszym wątkiem spotkania była dyskusja o naturze sztucznej inteligencji. Okazuje się, że definitywnie odchodzi się od jej antropomorfizowania, tj. projektowania jej w taki sposób, aby symulowała człowieka. W tym kontekście zrozumiałe staje się więc podważanie potencjału testu Turinga, który bada przede wszystkim – jak to wczoraj zostało powiedziane wprost – zdolności symulacyjne sztucznej inteligencji i utożsamia inteligencję ze zdolnością maszyny do upodabniania się do człowieka. Siłą AI jest dziś nie superinteligentny komputer, ale nieograniczony dostęp do danych – autonomiczne samochody Google’a poruszają się sprawnie w przestrzeni tylko dzięki temu, że są połączone z ogromną siecią wiedzy agregowanej przez tę firmę. Proste cyborgi, niezgrabnie poruszające się roboty czy bełkoczące chatboty to popularny, ale fałszywy wizerunek sztucznej inteligencji – prawdziwe dziadowskie AI.

Z perspektywy historii cyfrowej – czy w ogóle cyfrowej humanistyki – AI to przede wszystkim konkretne narzędzie wspierające badania. Systemy rozpoznawania treści fotografii czy narzędzia automatycznej transkrypcji mają praktyczne zastosowania w badaniach materiałów źródłowych. Tu jednak pojawia się problem dostępności i przejrzystości tej metody. Czy dla końcowych użytkowników nie jest to po prostu czarna skrzynka, której zadaje się określone pytanie i otrzymuje wynik bez wiedzy o procesach, które prowadzą do jego wygenerowania? A jeśli tak, to czy nie wprowadza to jakiejś metodologicznej niepewności? Na ile badacz czy badaczka może odpowiadać za wyniki badania z wykorzystaniem takich rozwiązań?

Innym problemem jest własność zasobów, na podstawie których system AI wypracowuje wyniki. Mamy dziś przecież do czynienia z wielkimi pośrednikami, którzy formatują nasz dostęp do zasobów kultury (np. Google Books czy Amazon) i przestrzeń komunikacji społecznej w internecie (Facebook, Twitter). To wszystko źródła danych, które mogą być wykorzystywane jako wkład do systemów AI. Na ile przejrzysty jest ich status własnościowych i ile wolności mamy w korzystaniu z nich w badaniach? Przecież podczepienie się pod Cloud Vision API w projekcie masowej analizy fotografii historycznych poza koniecznością poniesienia pewnych kosztów finansowych oznacza także zgodę na status klienta, a nie partnera w badaniu. Swobodę wykorzystania danych kulturowych określa dziś ich wielki komercyjny agregator – wiedzą o tym też dobrze wszyscy badacze społeczni próbujący prowadzić badania na danych mediów społecznościowych.

Spotkanie wokół książki Aleksandry Przegalińskiej nie było jednak – na szczęście – jedynie okazją do wyrażenia obaw wobec dominacji wielkich komercyjnych graczy współczesnej kultury cyfrowej. Okazuje się bowiem, że AI wysoką skuteczność uzyskuje dziś jedynie w sferze obliczeń matematycznych, a sfery takie jak imitujące naturalne zachowania interakcje czy zaawansowana percepcja świata rzeczywistego pozostają wciąż poza zasięgiem tworzonych systemów. Sztuczna inteligencja w tych sferach to wciąż dziadowskie AI, wywołujące bardziej litość niż lęk. Do tego stopnia, że – ten wątek pojawił się tuż pod koniec dyskusji – bardziej wartościowe poznawczo jest badanie naszych reakcji na interakcję z AI niż spekulowanie o podmiotowości tych systemów. Dla humanistyki sztuczna inteligencja ma mieć wartość przede wszystkim jako lustro, w którym możemy spojrzeć krytycznie na nasze człowieczeństwo.

Istoty wirtualne - spotkanie z Aleksandrą Przegalińską. 13 stycznia, Tarabuk (Warszawa).

Przeczytaj także:

Udostępnij na Twitterze | Udostępnij na Facebooku