Czy sztuczna inteligencja może zmanipulować wybory prezydenckie? Deepfake, dezinformacja i zagrożenia AI w polityce

Rozwój technologii opartych na sztucznej inteligencji stawia przed demokracją nowe, poważne wyzwania. Kampanie wyborcze coraz częściej korzystają z AI do analizy danych, targetowania reklam czy generowania treści. Jednak najwięcej kontrowersji budzi możliwość tworzenia fałszywych materiałów — tzw. deepfake’ów — które mogą zniszczyć reputację kandydatów, zmanipulować opinię publiczną lub wręcz wpłynąć na wynik wyborów.


Deepfake – realne zagrożenie dla demokracji

Deepfake to technologia umożliwiająca tworzenie realistycznych, ale całkowicie fałszywych materiałów wideo, w których osoby publiczne mogą być przedstawiane, jakby wypowiadały się lub zachowywały w sposób, który nigdy nie miał miejsca. W kontekście wyborów prezydenckich może to oznaczać np. spreparowane „nagranie” kandydata wypowiadającego kontrowersyjne poglądy — udostępniane viralowo w ostatnich dniach kampanii.

To nie jest już science fiction. Narzędzia takie jak Google Veo 3, pozwalające na generowanie filmów w wysokiej rozdzielczości na podstawie tekstu, oraz ogólnodostępne modele AI do zmiany głosu i mimiki, sprawiają, że technicznie każdy może stworzyć „wiarygodny” fake news w formie wideo.


Przykład Stanowskiego – kampania satyryczna czy przyszłość polityki?

Dobrym przykładem możliwości AI w kampanii wyborczej — choć o charakterze satyrycznym — były spoty stworzone dla Krzysztofa Stanowskiego, kandydata z żartobliwym podejściem do wyborów. Jego materiały pokazujące m.in. loty na smokach i orłach wygenerowane przez AI, udowodniły, jak łatwo można stworzyć przyciągające uwagę i emocje treści wyborcze bez udziału kamer czy scenariuszy.

Choć w tym przypadku intencją była zabawa, ten przykład pokazuje, jak łatwo AI może zostać wykorzystane do poważnych manipulacji – zwłaszcza gdy treści wyglądają realistycznie, a odbiorca nie ma narzędzi do ich weryfikacji.


Mikrotargetowanie i manipulacja emocjami

Sztuczna inteligencja umożliwia też ekstremalnie precyzyjne targetowanie treści. Bazując na danych z mediów społecznościowych, historii wyszukiwania czy lokalizacji, AI może personalizować przekaz polityczny do konkretnego użytkownika – wzmacniając jego uprzedzenia, lęki lub nadzieje.

To nie tylko zwiększa skuteczność kampanii, ale rodzi pytania o etykę i przejrzystość procesu wyborczego. Czy wyborcy podejmują decyzje świadomie, czy są jedynie ofiarami algorytmów zaprojektowanych do maksymalizacji kliknięć i emocji?


Brak regulacji = podatność na chaos

Obecnie brakuje jasnych regulacji prawnych dotyczących wykorzystania AI w kampaniach wyborczych w Polsce. Nie ma też skutecznych narzędzi do weryfikacji autentyczności materiałów wideo ani procedur reagowania na fake newsy rozpowszechniane przez AI.

To stwarza idealne warunki do chaosu informacyjnego i podważania wyników wyborów. Wystarczy jedna viralowa dezinformacja, by znacząco wpłynąć na przebieg kampanii — lub jej wynik.


Podsumowanie

Sztuczna inteligencja może mieć ogromny wpływ na wybory prezydenckie – nie tylko wspierając kampanie, ale też stanowiąc zagrożenie dla uczciwości i przejrzystości procesu wyborczego. Deepfake’i, mikrotargetowanie i dezinformacja to realne ryzyka, z którymi musi zmierzyć się zarówno państwo, jak i społeczeństwo.

Przykład kampanii Stanowskiego pokazuje, jak potężne i efektowne mogą być narzędzia AI, nawet jeśli użyte w formie satyry. Pytanie nie brzmi „czy” AI wpłynie na wybory, lecz „jak bardzo” — i co zrobimy, by zabezpieczyć demokrację przed nadużyciami.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *