AI może być wykorzystywana do opracowania dużych zbiorów danych w celu wpływania na podejmowanie decyzji przez wyborców. Można wyróżnić wiele sposobów, w jakie generatywna sztuczna inteligencja może wzmacniać istniejące zagrożenia dla procesów demokratycznych. Jej zdolność do przeprowadzania cyberataków, tworzenia tzw. deepfake’ów i rozpowszechniania dezinformacji może destabilizować procesy demokratyczne, zagrażać integralności dyskursu politycznego i podważać zaufanie publiczne.
Generowane przez AI treści mogą sprawić, że produkcja na dużą skalę fałszywych, ale przekonujących tekstów, obrazów lub nagrań głosowych staje się mniej kosztowna, a jednocześnie bardziej wiarygodna dla wyborców, trudniejsza do zidentyfikowania i obalenia. Tak zwane deepfake’i i klonowanie głosu były już wykorzystywane do imitowania kandydatów ubiegających się o urząd publiczny. W jednym z incydentów wygenerowany przez sztuczną inteligencję tzw. robocall podszywający się pod prezydenta USA Joe Bidena próbował zniechęcić demokratów do głosowania przed prawyborami w New Hampshire w Stanach Zjednoczonych. W przyszłości takie taktyki mogą służyć nie tylko do przekonującego demobilizowania lub oszukiwania wyborców, ale także do wpływania na opinię publiczną i pogłębiania podziałów politycznych lub prezentowania nieprawdziwych poglądów. Podobna sytuacja miała miejsce na kilka dni przed wyborami na Słowacji, gdzie pojawiły się generowane za pomocą AI nagrania audio deepfake’a, przedstawiające rzekomo rozmowy dziennikarza z czołowym politykiem liberalnym, którzy omawiali fałszowanie wyborów i inne kontrowersyjne tematy. Nagrania zostały rozpowszechnione na platformach społecznościowych i niewykluczone, że wpłynęły na wynik wyborów, w których zwyciężyła prorosyjska partia populistyczna.
Warto również zauważyć, że same oskarżenia o posługiwanie się sztuczną inteligencją stają się swego rodzaju kartą przetargową w rozgrywkach politycznych prowadzonych w ramach kampanii wyborczych. Najlepszym tego przykładem może tu być oskarżenie, wysunięte przez Donalda Trumpa, o wykorzystanie AI w celu poprawy wizerunk, przez jego konkurentkę do fotela prezydenta USA. W dwóch postach, umieszczonych na platformie Truth Social w weekend 10–11 sierpnia br., były prezydent USA i kandydat republikanów na urząd prezydenta USA Donald Trump napisał, że wiceprezydent Kamala Harris „stworzyła za pomocą AI zdjęcia ogromnego tłumu, który pojawił się, aby posłuchać jej przemówienia na wiecu wyborczym na lotnisku w Detroit”. Według Trumpa na zdjęciu widoczne jest również zwierciadlane odbicie uczestników wiecu w kadłubie samolotu, którym przybyła Harris. I chociaż w odbiciu tym wyraźnie widać zgromadzonych ludzi, to brakuje odbicia Kamali Harris i jej świty. Ma to dowodzić wykorzystania AI do stworzenia „sztucznego tłumu”. Sztab Harris odpowiedział własnym postem, w którym stwierdził, że obraz jest „prawdziwym zdjęciem 15-tysięcznego tłumu na rzecz kampanii Harris–Walz w Michigan”. Również główne media amerykańskie uznały oskarżenia Trumpa za „z gruntu fałszywe”, przedstawiając liczne dowody na potwierdzenie tej tezy. Jest to pierwszy przypadek (o którym powszechnie wiadomo), kiedy kandydat na prezydenta USA osobiście wywołuje wśród amerykańskich wyborców wizję fałszerstwa generowanego za pomocą AI przez swego bezpośredniego przeciwnika politycznego (a nie przez konsultantów lub przypadkowych użytkowników mediów społecznościowych). Oskarżenia, choć jak się okazało, fałszywe, żerują na powszechnych obawach i nieporozumieniach dotyczących wiarygodności informacji online w erze AI i mogą być przyjęte przez część elektoratu.
Tagowanie metadanych
Rozwiązanie kwestii wyzwań, jakie stwarzają treści generowane przez AI, wymaga koordynacji działań szerokiego grona podmiotów, od rządów po firmy AI i platformy mediów społecznościowych, a także działań ze strony użytkowników. Interwencje ukierunkowane na rozwój, dystrybucję i wykrywanie treści generowanych przez AI mogą złagodzić niektóre problemy, jakie generatywna AI stwarza dla ogólnej integralności informacji, szczególnie w trakcie kampanii wyborczych. Chociaż mało prawdopodobne jest, aby te środki rozwiązały wszystkie problemy.
Firmy technologiczne, które opracowują narzędzia AI, już pracują nad strategiami, które mogłyby lepiej sygnalizować sytuację, w której tekst, obraz lub głos jest generowany przez AI. Jak na razie wprowadzane rozwiązania technologiczne obejmują przede wszystkim tzw. znakowanie wodne, które dodaje specjalny wzór do generowanej treści, aby zasygnalizować, że została wygenerowana przez AI, oraz podobną do etykiety żywieniowej warstwę informacji o pochodzeniu tej treści, sygnalizującą, kiedy tekst, obraz lub wideo zostały utworzone za pomocą narzędzia AI oraz gdzie i jak zostały edytowane. Oczywiście ten sposób tagowania metadanych może być pomocny, jeśli zostanie jednolicie wdrożony w całej branży technologicznej. Wyzwaniem w tym podejściu jest to, że wytwory AI, które nie zdecydują się na „znakowanie wodne” lub inne wymagania dotyczące pochodzenia treści, mogą być błędnie uznane za wygenerowane przez człowieka. Ponadto przy zrzutach ekranu lub nagraniach telefonicznych obrazów lub filmów ww. informacje mogą być usuwane, a „znaki wodne” mogą zostać łatwo uszkodzone.