Polskiego uczonego nazywają „Oppenheimerem AI". Ostrzega: AI może zagrozić demokracji

Sztuczna inteligencja pozwala dostosować program polityczny, a nawet pomóc w jego wymyśleniu. Politycy chcą dzięki AI lepiej komunikować się z wyborcami. To rodzi zagrożenia manipulacją – mówi Michał Kosiński, profesor Uniwersytetu Stanforda.

Publikacja: 20.03.2025 15:00

Michał Kosiński zyskał światową sławę dzięki badaniom nad analizą danych z mediów społecznościowych,

Michał Kosiński zyskał światową sławę dzięki badaniom nad analizą danych z mediów społecznościowych, które pokazały, jak precyzyjnie można określić cechy osobowości, preferencje polityczne czy orientację seksualną na podstawie zaledwie kilku polubień na Facebooku

Foto: Michał Kosiński, Standford University

Panie profesorze, spotkał się pan z określeniem „Oppenheimer AI”?

Tak, zdarza mi się słyszeć, że jestem Oppenheimerem AI. Jeżeli taka „sława” pomaga w promowaniu ostrzeżeń i wiedzy na temat AI, niech już tak będzie. Ja jednak – w odróżnieniu od Roberta Oppenheimera, który stał za opracowaniem pierwszej broni atomowej – nie tworze żadnych systemów AI. Nie mam takiej wiedzy, a nawet gdybym miał, pewnie wykorzystałbym swoje umiejętności inaczej.

Ja badam możliwości systemów stworzonych przez innych. Jestem ich audytorem, staram się patrzeć, jakie mają zalety, możliwości i zagrożenia. I często denerwuje to autorów tych systemów.

Ale Oppenheimer po zakończeniu II wojny światowej stał się jednym z głównych zwolenników kontroli nad bronią jądrową i jej ograniczenia. Publicznie ostrzegał przed jej niekontrolowanym rozwojem i skutkami wyścigu zbrojeń. Pan też przestrzega przed negatywnymi konsekwencjami rozwoju technologii AI. Jest się czego obawiać?

Bez wątpienia. A zagrożenia są różnorakie. Coraz częściej polegamy na AI w podejmowaniu decyzji, od rekomendacji zakupowych po diagnozy medyczne. Dzięki temu decyzje te są dużo lepsze. Jednak prowadzi to tez do zaniku alternatywnych metod podejmowania takich decyzji. Stajemy się od tej technologii coraz bardziej uzależnieni. A im bardziej się na niej opieramy, tym gorsze konsekwencje, gdy technologia nas zawiedzie. Weźmy np. infrastrukturę krytyczną. Coraz więcej elektrowni, sieci przesyłowych, systemów transportowych, komunikacyjnych i finansowych opiera się na AI. Ataki cybernetyczne, celowe awarie lub błędy systemowe mogą spowodować paraliż i zagrozić podstawowemu funkcjonowaniu społeczeństwa. To już nie jest kwestia „jeśli”, ale „kiedy”.

Technologia AI może być wykorzystana jako broń. Algorytm, który pomaga w edukacji lub chroni sieci komputerowe, może też manipulować ludźmi lub atakować systemy. Firmy takie jak OpenAI starają się cenzurować i minimalizować zagrożenia, ale inne podmioty, takie jak firmy zbrojeniowe, skupiają się na rozwoju tych groźnych aspektów.

Czytaj więcej

Transformacja cyfrowa przyspiesza. Firmy nie nadążają z tempem zmian

Zyskał pan światową sławę dzięki badaniom nad analizą danych z mediów społecznościowych, które pokazały, jak precyzyjnie można określić cechy osobowości, preferencje polityczne czy orientację seksualną na podstawie zaledwie kilku polubień na Facebooku. Te odkrycia stworzyły podstawy dla metod, które Cambridge Analytica wykorzystała do mikrotargetowania politycznego, m.in. w kampaniach wyborczych Donalda Trumpa i brexitu. Czy pana doświadczenia pozwalają sądzić, że sztuczna inteligencja idzie dziś o krok dalej niż targetowanie, które pan badał w przypadku Facebooka?

Tak, tylko stawka jest znacznie wyższa. Facebook mimo wszystko łączy nas głównie z treściami tworzonymi przez innych ludzi. Wciąż mamy więc poczucie, że jesteśmy na pewnego rodzaju agorze, gdzie wymieniamy się opiniami. Systemy sztucznej inteligencji wchodzą z człowiekiem w zupełnie inną relację – stają się naszymi doradcami, pomagają tłumaczyć teksty, pisać, edukują nas. Nie łączą nas z zewnętrznymi treściami, lecz generują dla nas treści na bieżąco, ucząc, doradzając, manipulując. To rodzi ogromne zagrożenie.

Obcując z reklamą, nawet taką manipulującą, zdajemy sobie sprawę, iż obcujemy z reklamą. Rozmawiając z ChatGPT, łatwiej zapomnieć, że wypowiedzi tego systemu również są manipulowane.

Firma kontrolująca popularny model językowy, poprzez subtelne zmiany w jego działaniu, może wpływać na myślenie i opinie milionów ludzi w sposób niemal niewidoczny. Obcując z reklamą, nawet taką manipulującą, zdajemy sobie sprawę, iż z nią obcujemy. Rozmawiając z ChatGPT, łatwiej zapomnieć,  że wypowiedzi tego systemy również są manipulowane.

Czy te manipulacje już mają miejsce?

Oczywiście. Poprawność polityczna jest tego przykładem. ChatGPT i inne modele nie powiedzą nam wielu rzeczy, a to, co powiedzą, jest determinowane przez ludzi o konkretnych poglądach. Ja mogę się z tymi poglądami zgadzać, ale uważam, że taka kontrola jest bardzo niebezpieczna, a treści serwowane milionom ludzi nie powinny być kontrolowane przez tak małą grupę ludzi i w taki nieprzejrzysty sposób.

Czy istnieją narzędzia AI, które nie są „sterowane”?

Nawet modele open source są kształtowane przez dane, na których są trenowane. Proces treningu, dobór tekstów, wszystko to wpływa na „poglądy” i „opinie” danego systemu. Nie ma więc narzędzi w pełni neutralnych. Rozwiązaniem w tej sytuacji jest pluralizm, konkurencja na rynku modeli, wolna dyskusja o ich zaletach i wadach. Jeśli się okaże, że któraś firma nadużywa swojej mocy, ludzie muszą mieć alternatywę.

Niestety, technologie AI mają tendencję do tworzenia naturalnych monopoli. Im więcej osób korzysta z danego modelu, tym lepsze stają się jego odpowiedzi czy porady. A im lepszy model, tym więcej ludzi z niego korzysta, zamykając koło. To samo obserwowaliśmy w kontekście Google’a i Facebooka. Mam nadzieję, że tym razem regulatorzy będą lepiej przygotowani.

Czytaj więcej

Brad Smith, wiceprezes i prezydent Microsoftu: W przyszłym roku możliwa kolejna inwestycja w Polsce

Czy sztuczna inteligencja jest już wykorzystywana w wyborach politycznych?

Bez wątpienia. Barack Obama i Donald Trump korzystali z targetowania. Każdy polityk, który ma dostęp do AI, będzie z tego korzystał. To potężne narzędzie. Polityk, który je wykorzystuje, ma przewagę nad tym, który tego nie robi. Sztuczna inteligencja pozwala dostosować program polityczny, a nawet pomóc w jego wymyśleniu. Na całym świecie partie i politycy opierają się na algorytmach, aby zdobyć jak największą popularność. AI pomaga w formułowaniu programów i komunikacji z wyborcami, poprzez spersonalizowane reklamy, wiadomości tekstowe i e-maile. To naturalne, że politycy chcą lepiej komunikować się z wyborcami. Ale to rodzi też wielkie zagrożenia.

Tylko tu już jest bardzo cienka granica między komunikacją a...

…manipulacją. Jednak granica ta jest płynna i zależy od naszych poglądów. To co dla jednego jest edukacją, dla innych stanowić będzie pranie mózgu. Musimy wypracować społeczne standardy, co jest akceptowalne, a co nie. Musimy też być gotowi na to, że nie wszyscy się z nimi zgodzą.

Czy to stanowi zagrożenie dla demokracji?

Z jednej strony tak, ale z drugiej spory różne punkty widzenia są istotą demokracji. Ten sam system, który w rękach jednego polityka wykorzystywany jest do manipulacji, w rękach etycznych polityków może być wykorzystany do dobrej komunikacji i edukowania wyborców. Czy system ten będzie użyty do edukacji, komunikacji czy do propagandy, zależy od nas.

Niestety, technologie AI mają tendencję do tworzenia naturalnych monopoli. Im więcej osób korzysta z danego modelu, tym lepsze stają się jego odpowiedzi czy porady. A im lepszy model, tym więcej ludzi z niego korzysta, zamykając koło.

Sztuczna inteligencja odbierze nam pracę. Tak czy nie?

Nie odbierze, pomoże. Już teraz jest lepsza od nas w wielu zadaniach, a będzie jeszcze lepsza. Jest modelowana na ludzkim mózgu i trenowana w podobny sposób, jak my uczymy się zawodów. Zastąpi nas w wielu zadaniach umysłowych, tak jak technologie z przeszłości zastępowały pracę fizyczną. To zagrożenie, ale też szansa.

Szansa?

Rozwój AI to tańsze usługi, porady medyczne – większa dostępność, większy dobrobyt dla każdego z nas.

Czyli nie powinniśmy się obawiać masowych zwolnień?

Historia pokazuje, że wzrost wydajności często prowadzi do wzrostu popytu i zatrudnienia. Weźmy księgowych. Dzięki komputerom pojedynczy księgowy może obsłużyć pięć–dziesięć razy więcej klientów. To nie spowodowało jednak masowych zwolnień w tym zawodzie. Wręcz odwrotnie, wydajniejsi księgowi obniżyli koszty obsługi dla pojedynczych klientów, prowadząc do wzrostu popytu na ich usługi. Coraz mniejsze firmy lub coraz mniej zamożne osoby mogły pozwolić sobie na ich zatrudnienie. Tak więc komputeryzacja księgowości spowodowała zwiększenie zapotrzebowania na księgowych i innych pracowników biurowych. Poza tym wiele zawodów nie opiera się na efektywności. Artyści, nauczyciele, zegarmistrzowie – w tych dziedzinach często cenimy unikalność, osobisty kontakt i tradycję, a nie wydajność. Szwajcarski zegarek, choć dużo gorszy od Casio za dwa dolary, jest dużo droższy. Dlaczego? Bo jest produkowany w sposób mniej efektywny. To pokazuje, że efektywność nie zawsze jest tym, za co chcemy płacić.

Właściwie to nie wiem, czy jest pan bardziej sceptykiem czy entuzjastą sztucznej inteligencji?

Jestem wielkim entuzjastą. Sztuczna inteligencja rozwiąże wiele problemów i polepszy nasze życie. Jest to jednak potężna technologia, która może wzmocnić istniejące zagrożenia lub stworzyć zupełnie nowe, nieznane nam dzisiaj.

Czy regulacje dotyczące AI mogą nas przed nimi ustrzec? Może stawianie legislacyjnych zapór, jak robi to Unia Europejska, to słuszna droga? Mimo że w tym wyścigu przegramy z Chinami, które rozwijają AI bez takiej kontroli.

To nie jest sprawa czarno-biała. Zbyt mało regulacji grozi wypadkami i problemami, na wzór tych, jakie pojawiały się w przypadku wczesnego etapu rozwoju przemysłu. Zbyt dużo regulacji może jednak spowolnić rozwój lub sprawić, że technologia rozwinie się gdzie indziej, a my stracimy nad nią kontrolę. Sztuką jest znalezienie złotego środka, co nie będzie łatwe. Nawet w przypadku starszych technologii, takich jak wyszukiwarki czy media społecznościowe, regulatorom trudno było nadążyć za postępem. W przypadku AI będzie jeszcze trudniej.

No, a gdzie w tym wszystkim jest Polska? Mamy szansę zaistnieć na tej mapie świata AI?

Mamy niesamowitą szansę. Jakość życia w Polsce rośnie, a wielu cudzoziemców zapewnia, że ten kraj jest najlepszym miejscem do życia w Europie. Mamy niższe koszty życia, a nasze większe przywiązanie do tradycji, które czasem w sobie krytykujemy, oszczędziło nam wielu problemów, z którymi borykają się teraz nasi bardziej progresywni sąsiedzi.

Stworzyliśmy środowisko atrakcyjne dla rozwoju AI. Mamy przykłady firm, które radzą sobie coraz lepiej, ludzi, którzy wracają do Polski, i cudzoziemców, którzy tu przyjeżdżają. Talent jest „ropą naftową” ery AI. Liczy się kapitał pomysłów, który inicjuje rozwój tej technologii. A tego mamy tu pod dostatkiem.

CV

Michał Kosiński

Profesor Uniwersytetu Stanforda, bada ludzką i sztuczną kognicję oraz procesy psychologiczne w dużych modelach językowych. Zajmuje się wykorzystaniem AI, uczenia maszynowego i Big Data do modelowania i przewidywania ludzkiego zachowania. Współautor popularnego podręcznika „Modern Psychometrics”, opublikował ponad 100 recenzowanych prac w wiodących czasopismach, w tym „Nature Machine Intelligence”, „Proceedings of the National Academy of Sciences” czy „Psychological Science”. Znajduje się w gronie 1 proc. najczęściej cytowanych naukowców (według Clarivate). Był autorem pierwszego artykułu prasowego ostrzegającego przed Cambridge Analytica. Jego badania ujawniły zagrożenia dla prywatności, które firma wykorzystała. Ma doktorat z psychologii Uniwersytetu Cambridge. Pracował m.in. jako badacz w Microsoft Research.

Technologie
Spory parkiet Vercomu zmienia właściciela
Technologie
Czteroletni plan Orange Polska ogłoszony. Nadzieje w światłowodzie i AI
Technologie
Rynek uwierzył w PCF Group. Czy nie za mocno?
Technologie
Wzrost o 200 proc. w cztery dni. Niesamowita historia PCF Group
Technologie
cyber_Folks zapowiada rekordową dywidendę i dalsze przejęcia
Technologie
Orange Polska pokazał plan na lata 2025-2028. Opłaty za pakiety w górę o 12-15 proc.
Technologie
Giełdowi dystrybutorzy IT mają szansę na udany rok