Andrzej Zybertowicz to socjolog z dużym dorobkiem, znany z wielu oryginalnych myśli. Nie zawsze jest słuchany, gdyż jest też postacią silnie związaną z jednym biegunem politycznej polaryzacji w Polsce – z biegunem „prawicowym”. A szkoda, gdyż jako jeden z nielicznych polskich ekspertów zajmuje się on rozważaniami na temat skutków społecznych wykorzystywania technologii sztucznej inteligencji. Rozwój tej technologii niesie za sobą wiele nadziei dla ludzkości oraz stał się już impulsem do boomu na Wall Street. Zybertowicz w książce „AI eksploracja” (będącej zapisem wywiadów przeprowadzonych z nim przez jego żonę, doktor socjologii Katarzynę Zybertowicz) skupia się jednak przede wszystkim na czynnikach ryzyka związanych ze sztuczną inteligencją. Przedstawia ich tak dużo, że w pewnym momencie stawia postulat, by spowolniono pracę nad rozwojem AI.
Czy argumenty Zybertowicza to tylko „narzekania starszego człowieka”, który boi się technologii, której nie rozumie? Taka interpretacja jego książki byłaby zbyt prostacka. Wywód Zybertowicza jest bowiem bardzo logiczny (choć zwykle pozostający w sferze teorii). Zwraca on uwagę choćby na to, że sami naukowcy pracujący nad sztuczną inteligencją nie do końca rozumieją mechanizmy jej funkcjonowania, takie jak choćby mechanizm powstawania „halucynacji” (czyli udzielania przez programy oparte na AI dziwacznych odpowiedzi na pytania). Co prawda wielu naukowców zapewnia nas, że niemożliwym jest osiągnięcie przez sztuczną inteligencję samoświadomości, ale sami mają problem z określeniem, czym dokładnie jest świadomość.
Zybertowicz wskazuje również na to, że sztuczna inteligencja może stanowić potężny „mnożnik siły” dla różnego rodzaju państw oraz organizacji mających wrogie zamiary wobec cywilizacji zachodniej. Obawia się on choćby jej wykorzystywania na masową skalę do przeprowadzania ataków hakerskich czy siania dezinformacji. Autor przypomina co jakiś czas, że już powstanie mediów społecznościowych przyniosło światu wiele negatywnych skutków. Twierdzi wręcz, że owe platformy cyfrowe przyczyniły się do „ogłupienia” ludzkości. Sztuczna inteligencja może ten stan jeszcze pogłębić. Możemy się doczekać przyszłości, w której ludzie będą brali wiedzę o świecie z tekstów generowanych przez chatboty AI i nie będą weryfikowali zawartych w nich przekłamań.
Wiele argumentów Zybertowicza było dla mnie przejawem nadmiernej ostrożności starszego naukowca, oszołomionego tempem zmian społecznych. Jeden jednak mnie przekonał. Zybertowicz wskazał bowiem, że asystenci AI mogą się stać w przyszłości narzędziem do powszechnej cenzury. Chatboty wbudowane w przeglądarki internetowe mogą próbować narzucać internautom „jedyną słuszną wersję historii” oraz odradzać czy nawet blokować odwiedzanie witryn z „nieprawomyślnymi” informacjami. Owi asystenci mogą nam z czasem zacząć też dyktować, jak mamy się odżywiać i co robić w czasie wolnym, a od ich irytujących rad nie będziemy mogli się uwolnić.
A co jeśli sztuczna inteligencja uzna, że jakaś część ludzkości (naród lub rasa) generuje zbyt wiele kłopotów i trzeba ją odiozolować lub zniszczyć?