W ostatnich tygodniach uwagę mediów przyciągnęła konferencja AI Safety Summit zorganizowana przez brytyjskiego premiera Rishiego Sunaka, któremu udało się zgromadzić gości takich jak Kamala Harris, Ursula von der Leyen, Elon Musk czy Sam Altman. Kluczowym wydarzeniem konferencji było podpisanie przez 28 krajów Deklaracji z Bletchley, nazwanej tak od słynnego Bletchley Park – centrum łamania szyfrów podczas drugiej wojny światowej, które teraz gościło konferencję. Deklaracja, będąca niewątpliwym sukcesem dyplomatycznym, ma jednak wartość głównie symboliczną, a zawarte w niej stwierdzenia, że „AI powinno być rozwijane (...) w sposób bezpieczny” nie wiążą się z konkretnymi obietnicami działań sygnatariuszy.
Tematem dużo ważniejszym, acz mniej nośnym medialnie, są prace nad tzw. AI Act przedstawionym przez Komisję Europejską (KE). Projekt legislacyjny tego aktu został zaprezentowany przez KE w kwietniu 2021 r. i stanowił najpierw przedmiot uzgodnień pomiędzy państwami członkowskimi UE w łonie Rady UE, obecnie zaś trwają negocjacje trójstronne z udziałem Rady, Parlamentu Europejskiego (PE) i KE. W swojej oryginalnej wersji AI Act klasyfikował rozwiązania AI według stwarzanego przez nie ryzyka i w zależności od jego stopnia zakazywał tworzenia owych systemów (np. do prowadzenia punktowej oceny obywateli) lub nakładał na nie ograniczenia (np. na systemy identyfikacji biometrycznej).
Mimo że na pierwszy rzut oka unijne zapędy regulacyjne służą szczytnym celom, istotne jest wzięcie pod uwagę negatywnych konsekwencji owej regulacji dla innowacyjności oraz dla konkurencyjności Europy na tle USA i Chin.
Proponowane regulacje najmocniej uderzają w start-upy oraz projekty open-source, które nie mają zasobów, by dostosować się do skomplikowanych wymogów prawnych. Według ankiety przeprowadzonej przez niemieckie centrum innowacji UnternehmerTUM na próbie ponad 100 start-upów zajmujacych się AI, ponad jedna trzecia obecnie rozwijanych zastosowań sztucznej inteligencji zostałaby zakwalifikowana do klasy wysokiego ryzyka. Tak wysoki odsetek stoi w wyraźnej sprzeczności z zamierzeniami autorów aktu, którzy szacowali, że do kategorii wysokiego ryzyka zaliczać będzie się między 5 a 15 proc. rozwiązań. Pochopna regulacja może pociągnąć za sobą opłakane skutki dla innowacji: blisko 80 proc. ankietowanych funduszy venture capital przewiduje spadek konkurencyjności europejskich start-upów AI.
Kolejnym zarzutem podnoszonym wobec AI Act jest jego prewencyjny charakter. Jak podkreśla założyciel Geopolitical Intelligence Services, książę Michał von Liechtenstein, obecny kształt regulacji próbuje przewidzieć ryzyko na podstawie przeszłych doświadczeń. Według niego takie podejście tworzy iluzję ograniczania ryzyka, jednocześnie pozostawiając mało pola do adaptacji do zagrożeń, które pojawią się w przyszłości. Istotnie, mankamenty obecnego kształtu projektu regulacji są widoczne jeszcze przed jej wprowadzeniem. W strukturach europejskich panuje impas spowodowany bezprecedensowym wzrostem popularności dużych modeli językowych, do których zalicza się ChatGPT. Twórcy AI Act, którego pierwsza wersja powstała w 2021 r., nie mogli przewidzieć globalnego boomu na generatywną sztuczną inteligencję, który zapoczątkowała premiera produktu Open AI w listopadzie 2022 r. Serwis Euractiv specjalizujący się w polityce Unii Europejskiej donosi, że przyjęcie aktu prawnego jest zagrożone ze względu na trudności w wypracowaniu konsensusu między sceptyczną wobec regulacji Radą UE a PE, który naciska na dodanie zapisów dotyczących tzw. foundation models, do których zalicza się ChatGPT. Nawet jeśli akt zostanie wprowadzony, nie można wykluczyć powstania kolejnej rewolucyjnej technologii, która nie została uwzględniona w obowiązującej wersji dokumentu. W sektorze o tak dużej dynamice rozwoju jak AI wprowadzenie regulacji będzie hamować innowacje i stwarzać kolejne wyzwania regulacyjne, zamiast faktycznie chronić obywateli przed zagrożeniami płynącymi z nowych technologii.