Zamów warsztaty z R: wygodne narzędzie do pracy z danymi

To dziadowskie AI

Byłem wczoraj na spotkaniu promującym książkę Aleksandry Przegalińskiej Istoty wirtualne. Jak fenomenologia zmieniała sztuczną inteligencję. Chociaż książki jeszcze nie czytałem, spotkanie mogę uznać za bardzo udane – mniej było na nim dyskusji nad samą publikacją, więcej ogólnej rozmowy nad istotą i problemami sztucznej inteligencji.

Dostępność i wszechobecność rozwiązań AI poraża – już nawet w domowych warunkach można potestować sobie jakieś proste rozwiązania. Na szczęście refleksja teoretyczna nie ustępuje tutaj progresowi technicznemu, a nawet – jak można się było przekonać podczas spotkania – jest z nim głęboko związana. Zresztą zdaniem autorki to właśnie w AI filozofia jak nigdzie indziej uzyskuje swoje praktyczne wdrożenie.

Chyba najważniejszym wątkiem spotkania była dyskusja o naturze sztucznej inteligencji. Okazuje się, że definitywnie odchodzi się od jej antropomorfizowania, tj. projektowania jej w taki sposób, aby symulowała człowieka. W tym kontekście zrozumiałe staje się więc podważanie potencjału testu Turinga, który bada przede wszystkim – jak to wczoraj zostało powiedziane wprost – zdolności symulacyjne sztucznej inteligencji i utożsamia inteligencję ze zdolnością maszyny do upodabniania się do człowieka. Siłą AI jest dziś nie superinteligentny komputer, ale nieograniczony dostęp do danych – autonomiczne samochody Google’a poruszają się sprawnie w przestrzeni tylko dzięki temu, że są połączone z ogromną siecią wiedzy agregowanej przez tę firmę. Proste cyborgi, niezgrabnie poruszające się roboty czy bełkoczące chatboty to popularny, ale fałszywy wizerunek sztucznej inteligencji – prawdziwe dziadowskie AI.

Z perspektywy historii cyfrowej – czy w ogóle cyfrowej humanistyki – AI to przede wszystkim konkretne narzędzie wspierające badania. Systemy rozpoznawania treści fotografii czy narzędzia automatycznej transkrypcji mają praktyczne zastosowania w badaniach materiałów źródłowych. Tu jednak pojawia się problem dostępności i przejrzystości tej metody. Czy dla końcowych użytkowników nie jest to po prostu czarna skrzynka, której zadaje się określone pytanie i otrzymuje wynik bez wiedzy o procesach, które prowadzą do jego wygenerowania? A jeśli tak, to czy nie wprowadza to jakiejś metodologicznej niepewności? Na ile badacz czy badaczka może odpowiadać za wyniki badania z wykorzystaniem takich rozwiązań?

Innym problemem jest własność zasobów, na podstawie których system AI wypracowuje wyniki. Mamy dziś przecież do czynienia z wielkimi pośrednikami, którzy formatują nasz dostęp do zasobów kultury (np. Google Books czy Amazon) i przestrzeń komunikacji społecznej w internecie (Facebook, Twitter). To wszystko źródła danych, które mogą być wykorzystywane jako wkład do systemów AI. Na ile przejrzysty jest ich status własnościowych i ile wolności mamy w korzystaniu z nich w badaniach? Przecież podczepienie się pod Cloud Vision API w projekcie masowej analizy fotografii historycznych poza koniecznością poniesienia pewnych kosztów finansowych oznacza także zgodę na status klienta, a nie partnera w badaniu. Swobodę wykorzystania danych kulturowych określa dziś ich wielki komercyjny agregator – wiedzą o tym też dobrze wszyscy badacze społeczni próbujący prowadzić badania na danych mediów społecznościowych.

Spotkanie wokół książki Aleksandry Przegalińskiej nie było jednak – na szczęście – jedynie okazją do wyrażenia obaw wobec dominacji wielkich komercyjnych graczy współczesnej kultury cyfrowej. Okazuje się bowiem, że AI wysoką skuteczność uzyskuje dziś jedynie w sferze obliczeń matematycznych, a sfery takie jak imitujące naturalne zachowania interakcje czy zaawansowana percepcja świata rzeczywistego pozostają wciąż poza zasięgiem tworzonych systemów. Sztuczna inteligencja w tych sferach to wciąż dziadowskie AI, wywołujące bardziej litość niż lęk. Do tego stopnia, że – ten wątek pojawił się tuż pod koniec dyskusji – bardziej wartościowe poznawczo jest badanie naszych reakcji na interakcję z AI niż spekulowanie o podmiotowości tych systemów. Dla humanistyki sztuczna inteligencja ma mieć wartość przede wszystkim jako lustro, w którym możemy spojrzeć krytycznie na nasze człowieczeństwo.

Istoty wirtualne - spotkanie z Aleksandrą Przegalińską. 13 stycznia, Tarabuk (Warszawa).

Udostępnij na na Twitterze | Udostępnij na Facebooku

Przeczytaj także

Newsletter bezpieczny dla Twojego adresu email dostarcza tinyletter.com. Dowiedz się więcej