Panie profesorze, spotkał się pan z określeniem „Oppenheimer AI”?
Tak, zdarza mi się słyszeć, że jestem Oppenheimerem AI. Jeżeli taka „sława” pomaga w promowaniu ostrzeżeń i wiedzy na temat AI, niech już tak będzie. Ja jednak – w odróżnieniu od Roberta Oppenheimera, który stał za opracowaniem pierwszej broni atomowej – nie tworze żadnych systemów AI. Nie mam takiej wiedzy, a nawet gdybym miał, pewnie wykorzystałbym swoje umiejętności inaczej.
Ja badam możliwości systemów stworzonych przez innych. Jestem ich audytorem, staram się patrzeć, jakie mają zalety, możliwości i zagrożenia. I często denerwuje to autorów tych systemów.
Ale Oppenheimer po zakończeniu II wojny światowej stał się jednym z głównych zwolenników kontroli nad bronią jądrową i jej ograniczenia. Publicznie ostrzegał przed jej niekontrolowanym rozwojem i skutkami wyścigu zbrojeń. Pan też przestrzega przed negatywnymi konsekwencjami rozwoju technologii AI. Jest się czego obawiać?
Bez wątpienia. A zagrożenia są różnorakie. Coraz częściej polegamy na AI w podejmowaniu decyzji, od rekomendacji zakupowych po diagnozy medyczne. Dzięki temu decyzje te są dużo lepsze. Jednak prowadzi to tez do zaniku alternatywnych metod podejmowania takich decyzji. Stajemy się od tej technologii coraz bardziej uzależnieni. A im bardziej się na niej opieramy, tym gorsze konsekwencje, gdy technologia nas zawiedzie. Weźmy np. infrastrukturę krytyczną. Coraz więcej elektrowni, sieci przesyłowych, systemów transportowych, komunikacyjnych i finansowych opiera się na AI. Ataki cybernetyczne, celowe awarie lub błędy systemowe mogą spowodować paraliż i zagrozić podstawowemu funkcjonowaniu społeczeństwa. To już nie jest kwestia „jeśli”, ale „kiedy”.
Technologia AI może być wykorzystana jako broń. Algorytm, który pomaga w edukacji lub chroni sieci komputerowe, może też manipulować ludźmi lub atakować systemy. Firmy takie jak OpenAI starają się cenzurować i minimalizować zagrożenia, ale inne podmioty, takie jak firmy zbrojeniowe, skupiają się na rozwoju tych groźnych aspektów.
Czytaj więcej
Niekorzystne zmiany demograficzne i dystans pracowników do nowych technologii to jedne z hamulców wdrożeń nowoczesnych rozwiązań w firmach w naszym kraju. Efekt? Aż 63 proc. z nas w ogóle nie używa narzędzi sztucznej inteligencji w pracy.