Z kolei badanie Forbes Advisor „How Businesses Are Using Artificial Intelligence In 2024” wykazało, że niemal wszystkie przedsiębiorstwa (97 proc.) uważają, że ChatGPT wesprze ich działalność. Najczęstszym kierunkiem wykorzystania AI przez firmy jest obsługa klienta (56 proc.) oraz sfera cyberbezpieczeństwa i zarządzania ryzykiem oszustw/fraudów (51 proc.). Blisko trzy czwarte firm (73 proc.) korzysta lub planuje używać chatbotów opartych na AI do komunikacji.
GenAI towarzyszą liczne obawy
Wraz z rozwojem nowych technologii oczywistym stało się, że oprócz niewątpliwych korzyści spotkamy się również z zagrożeniami. Nie wszystkie z nich były nam dotąd znane. Do wyzwań tych zaliczyć należy np. ochronę prywatności i danych osobowych, nowe rodzaje oszustw, kwestie praw własności intelektualnej czy też zarządzanie danymi oraz ryzykiem.
W badaniu przeprowadzonym przez firmę Cisco pod nazwą „Data Privacy Benchmark Study 2024” niemal wszyscy respondenci (91 proc.) potwierdzili, że powinni podjąć dodatkowe działania, aby zapewnić klientów o odpowiednim wykorzystaniu ich danych przez AI. Apetyt na nowe ryzyko bywa pod tym względem zróżnicowany.
Co czwarta firma (27 proc.) zakazała korzystania z wszelkich narzędzi opartych na GenAI. Większość firm (63 proc.) posiada mechanizmy ograniczające dane, jakie można do tego celu zastosować, a 61 proc. ograniczyło korzystanie z części z nich. Według doniesień prasowych niektóre duże korporacje zakazują obecnie wykorzystywania publicznie dostępnych modeli LLM w codziennej pracy. Wynika to z obawy o wyciek danych oraz zagrożenia dotyczące ewentualnego ujawnienia tajemnicy przedsiębiorstwa. Zdarzały się już bowiem przypadki, w których pracownicy przesyłali np. wrażliwe kody źródłowe. Powyższe badania potwierdzają, że niemal w co drugiej organizacji (48 proc.) może dojść do wprowadzania niepublicznych danych do aplikacji. Odestek ten jest podobny w przypadku wykorzystania danych osobowych pracowników (45 proc.). Większość firm (69 proc.) obawia się również, że GenAI może zagrozić prawom własności intelektualnej i wyjawić tajemnice przedsiębiorstwa.
Regulacje są niezbędne
Stojąc w obliczu nowych wyzwań związanych z dynamicznym i niekontrolowanym rozwojem AI, Unia Europejska już od kilku lat podejmuje szereg działań związanych z tworzeniem ram prawnych dla funkcjonowania sztucznej inteligencji. Wyrazem tego jest pakiet tworzonych rozwiązań legislacyjnych, w tym – przede wszystkim – rozporządzenie, tzw. AI Act. Projektowana regulacja w centrum uwagi stawia prawa człowieka i nasze bezpieczeństwo. Oczywiście nie brak jest również krytycznych głosów wyrażających obawę o możliwość wyhamowania rozwoju AI w UE. Niemniej brak norm i reguł postępowania w tym zakresie może zrodzić tylko kolejne zagrożenia.
Ambicją Unii jest zapewnienie, aby systemy sztucznej inteligencji stosowane na jej terytorium były bezpieczne, przejrzyste, identyfikowalne, niedyskryminujące i przyjazne dla środowiska naturalnego – oczywiście nie zapominając przy tym o korzyściach płynących z rozwoju AI. AI Act koncentruje się na podejściu opartym na analizie ryzyka (risk-based approach), tworząc podział na cztery związane ze sobą kategorie: