Rozwój technologii opartych na sztucznej inteligencji stawia przed demokracją nowe, poważne wyzwania. Kampanie wyborcze coraz częściej korzystają z AI do analizy danych, targetowania reklam czy generowania treści. Jednak najwięcej kontrowersji budzi możliwość tworzenia fałszywych materiałów — tzw. deepfake’ów — które mogą zniszczyć reputację kandydatów, zmanipulować opinię publiczną lub wręcz wpłynąć na wynik wyborów.
Deepfake – realne zagrożenie dla demokracji
Deepfake to technologia umożliwiająca tworzenie realistycznych, ale całkowicie fałszywych materiałów wideo, w których osoby publiczne mogą być przedstawiane, jakby wypowiadały się lub zachowywały w sposób, który nigdy nie miał miejsca. W kontekście wyborów prezydenckich może to oznaczać np. spreparowane „nagranie” kandydata wypowiadającego kontrowersyjne poglądy — udostępniane viralowo w ostatnich dniach kampanii.
To nie jest już science fiction. Narzędzia takie jak Google Veo 3, pozwalające na generowanie filmów w wysokiej rozdzielczości na podstawie tekstu, oraz ogólnodostępne modele AI do zmiany głosu i mimiki, sprawiają, że technicznie każdy może stworzyć „wiarygodny” fake news w formie wideo.

Przykład Stanowskiego – kampania satyryczna czy przyszłość polityki?
Dobrym przykładem możliwości AI w kampanii wyborczej — choć o charakterze satyrycznym — były spoty stworzone dla Krzysztofa Stanowskiego, kandydata z żartobliwym podejściem do wyborów. Jego materiały pokazujące m.in. loty na smokach i orłach wygenerowane przez AI, udowodniły, jak łatwo można stworzyć przyciągające uwagę i emocje treści wyborcze bez udziału kamer czy scenariuszy.
Choć w tym przypadku intencją była zabawa, ten przykład pokazuje, jak łatwo AI może zostać wykorzystane do poważnych manipulacji – zwłaszcza gdy treści wyglądają realistycznie, a odbiorca nie ma narzędzi do ich weryfikacji.
Mikrotargetowanie i manipulacja emocjami
Sztuczna inteligencja umożliwia też ekstremalnie precyzyjne targetowanie treści. Bazując na danych z mediów społecznościowych, historii wyszukiwania czy lokalizacji, AI może personalizować przekaz polityczny do konkretnego użytkownika – wzmacniając jego uprzedzenia, lęki lub nadzieje.
To nie tylko zwiększa skuteczność kampanii, ale rodzi pytania o etykę i przejrzystość procesu wyborczego. Czy wyborcy podejmują decyzje świadomie, czy są jedynie ofiarami algorytmów zaprojektowanych do maksymalizacji kliknięć i emocji?
Brak regulacji = podatność na chaos
Obecnie brakuje jasnych regulacji prawnych dotyczących wykorzystania AI w kampaniach wyborczych w Polsce. Nie ma też skutecznych narzędzi do weryfikacji autentyczności materiałów wideo ani procedur reagowania na fake newsy rozpowszechniane przez AI.
To stwarza idealne warunki do chaosu informacyjnego i podważania wyników wyborów. Wystarczy jedna viralowa dezinformacja, by znacząco wpłynąć na przebieg kampanii — lub jej wynik.
Podsumowanie
Sztuczna inteligencja może mieć ogromny wpływ na wybory prezydenckie – nie tylko wspierając kampanie, ale też stanowiąc zagrożenie dla uczciwości i przejrzystości procesu wyborczego. Deepfake’i, mikrotargetowanie i dezinformacja to realne ryzyka, z którymi musi zmierzyć się zarówno państwo, jak i społeczeństwo.
Przykład kampanii Stanowskiego pokazuje, jak potężne i efektowne mogą być narzędzia AI, nawet jeśli użyte w formie satyry. Pytanie nie brzmi „czy” AI wpłynie na wybory, lecz „jak bardzo” — i co zrobimy, by zabezpieczyć demokrację przed nadużyciami.