AI na cenzurowanym

Rozwój sztucznej inteligencji może wyhamować. USA mają już wytyczne dla firm z branży, ważą się losy powołania globalnego regulatora ds. tej technologii.

Publikacja: 30.10.2023 21:00

AI na cenzurowanym

Foto: Adobe Stock

W środę w Buckinghamshire w W. Brytanii rusza szczyt AI. Udział wezmą w nim członkowie grupy G7 oraz przedstawiciele UE. Inicjatywie przewodzi brytyjski premier Rishi Sunak, który ostrzega, iż sztuczna inteligencja „niesie ze sobą nowe niebezpieczeństwa i lęki”, których „łagodzenie musi stać się globalnym priorytetem”.

Jeszcze przed startem szczytu opracowano zarys 11-punktowego kodeksu, który ma promować tworzenie bezpiecznych algorytmów i godnej zaufania AI. Zawiera on jednak dobrowolne wytyczne dla firm z tego sektora. Mimo to koncerny z tego sektora wcale jednak nie bronią się przed odpowiedzialnością za technologię, którą tworzą. Giganci przyznają, że ryzyko jest duże. Świadczy zresztą o tym fakt, że OpenAI, twórca ChatGPT, powołał tzw. zespół gotowości. Ma on być swoistym bezpiecznikiem – ma śledzić, oceniać, prognozować i chronić przed zagrożeniami związanymi ze sztuczną inteligencją. Jego zadaniem jest „zapobieganie katastrofalnemu ryzyku”, jakie może wywołać sztuczna inteligencja. A to, jak wskazuje OpenAI w komunikacie, może mieć nawet charakter „chemiczny, biologiczny czy nuklearny”. Co ciekawe, na czele zespołu stanął Polak – Aleksander Mądry (profesor Massachusetts Institute of Technology).

Tylko 119 zł za pół roku czytania.

Zyskaj pełen dostęp do analiz, raportów i komentarzy na Parkiet.com

Gospodarka światowa
Załamanie liry i giełdy tureckiej po aresztowaniu przywódcy opozycji
Gospodarka światowa
Putin pozwolił spieniężyć część uwięzionych akcji
Gospodarka światowa
Niemcy: poluzowanie hamulca da szansę na powrót gospodarki do wzrostu
Gospodarka światowa
W Europie Środkowo-Wschodniej mniej fuzji i przejęć banków
Gospodarka światowa
BYD ma technologię bardzo szybkiego ładowania samochodów elektrycznych
Gospodarka światowa
Bessent nie boi się korekty giełdowej