OpenAI jest bez wątpienia spółką bardzo mocno przyciągającą uwagę inwestorów. Wszak to ona blisko rok temu dała impuls do powrotu hossy na amerykańskie i globalne giełdy. Wypuściła wtedy na rynek swój oparty na sztucznej inteligencji program ChatGPT, co rozpoczęło wśród inwestorów boom na wszystko, co jest związane z generatywną sztuczną inteligencją. Wydawałoby się więc, że władze OpenAI powinny postępować bardzo rozważnie, wiedząc, że ich działaniom bardzo uważnie przygląda się cały świat inwestorski. A jednak odegrały one coś w rodzaju „korporacyjnej telenoweli”. Najpierw zarząd zwolnił ze stanowiska prezesa Sama Altmana, założyciela OpenAI. Tłumaczył to w bardzo tajemniczy sposób „problemami z komunikacją” z nim. To wywołało oburzenie inwestorów, a Altmanowi zagwarantowało dobrą posadę w Microsofcie. Niemal cała załoga spółki zbuntowała się przeciwko decyzji zarządu i zapowiadało się na to, że też przejdzie do Microsoftu. Zarząd więc przywrócił Altmana na fotel prezesa. Przedstawiciele zarządu OpenAI wyszli na ludzi niekompetentnych i oderwanych od rynkowej rzeczywistości. Dlaczego jednak tak się ośmieszyli? Czy mieli poważny motyw, by odwoływać Altmana? Z przecieków wynika, że tym motywem było zaangażowanie spółki w projekt, który rzekomo ma potencjał, by… zniszczyć ludzkość.
Superinteligencja
Według agencji Reuters w dniach poprzedzających odwołanie Altmana część pracowników OpenAI miała zwrócić uwagę zarządu na realizowany przez spółkę program Q* (znany również jako Q-Star). Miał on być przełomem w badaniach nad sztuczną inteligencją, umożliwiających modelowi AI „przewyższyć ludzi w zadaniach najbardziej wartościowych ekonomicznie”. Na dwa dni przed odwołaniem Altmana ze stanowiska miała o tym modelu rozmawiać z pracownikami Mira Murati, ówczesna członkini zarządu, która stała się później na niecałe trzy dni p.o. prezesa OpenAI.
Co takiego przełomowego miało być w projekcie Q-Star? Jeśli przedstawimy programowi ChatGPT (lub jego bardziej zaawansowanej wersji, jaką jest GPT-4) problem matematyczny do rozwiązania, to udzieli on nam odpowiedzi, do której dojdzie, wykorzystując wielką bazę tekstów, i będzie słowo po słowie decydował, jaka może być prawidłowa odpowiedź. W trakcie tego procesu ChatGPT może generować odpowiedzi, które będą błędne lub całkowicie bezsensowne. Model Q-Star jest natomiast rzekomo zdolny do samodzielnego rozwiązywania problemów matematycznych. To oznacza, że reprezentuje on wyższy poziom rozwoju i można go uznać za tzw. silną sztuczną inteligencję (AGI). Taka technologia ma potencjał, by przewyższyć ludzi pod względem kreatywności, zdolności do rozwiązywania problemów czy podejmowania decyzji.
– Jeśli możesz stworzyć sztuczną inteligencję, która potrafi rozwiązać problem, którego rozwiązania nie widziała wcześniej w swoich ogromnych zbiorach danych treningowych, to jest to wielka sprawa, nawet jeśli zadanie matematyczne jest relatywnie proste. Rozwiązywanie trudniejszych zadać może być jeszcze bardziej ekscytujące – wskazuje Andrew Rogoyski, naukowiec z Uniwersytetu Surrey.
– Cztery razy w historii OpenAI – ostatnim razem kilka tygodni temu – zdarzyło mi się, że byłem w pokoju, gdy odsuwaliśmy zasłonę ignorancji, a przesuwaliśmy granicę odkryć – mówił Altman na listopadowej konferencji towarzyszącej spotkaniu Wspólnoty Gospodarczej Azji i Pacyfiku (APEC) w San Francisco. Niektórzy uznali, że mówił on wówczas o projekcie Q-Star. I że nie powiadomił wcześniej zarządu o tak przełomowych pracach. Zarząd mógł się więc poczuć urażony i zaniepokojony.