Trwa pierwsza kampania wyborcza, w której politycy i partie mają do dyspozycji narzędzia generatywnej sztucznej inteligencji, pozwalającej na imitowanie głosów, zdjęć i materiałów wideo. Są jednak poważne wątpliwości – czy jako społeczeństwo jesteśmy gotowi na odbiór tak generowanych przekazów? Co z wiarygodnością i potężnym ryzykiem manipulacji ocierających się o jawne kłamstwa?
Jeszcze w prekampanii generatywną sztuczną inteligencję w swoim spocie wyborczym wykorzystała Suwerenna Polska. W lipcu Dariusz Matecki, szef struktur partii na Pomorzu, opublikował spot „Nie dopuśćmy politycznych zdrajców do władzy”, gdzie negatywnego bohatera przypominającego Donalda Tuska wygenerowała AI.
Później tę technologię wykorzystała inny poseł Suwerennej Polski, Piotr Sak. On również skupił się na ataku na Donalda Tuska – byłego premiera i lidera opozycji porównał do znanych publicznie oszustów, jak Kalibabka i Simon Leviev, bohater dokumentu Netfliksa „Oszust z Tindera”.
Po sztuczną inteligencję sięgnęła także Platforma Obywatelska. W spocie partii wygenerowano dzięki AI głos przypominający bohaterów tzw. afery mailowej. Teksty z e-maili rzekomo przechwyconych ze skrzynki bliskiego doradcy premiera Michała Dworczyka, publikowanych przez serwis Poufna Rozmowa, czytane były głosem m.in. imitującym Mateusza Morawieckiego.
Nie zostało to początkowo nigdzie w wideo oznaczone, po krytyce partia dodała informacje, że spoty z mailami z Poufnej Rozmowy to dzieło technologii.
– Użyte w tych spotach mechanizmy sztucznej inteligencji są bardzo proste. Nazywam to nawet semi-deepfakeami. W spotach Platformy nie mamy do czynienia z generowaniem sztucznych wypowiedzi, z Poufnej Rozmowy, które cały czas nie zostały podważone przez nasz rząd, możemy zakładać, że są to prawdziwe słowa. W nagraniu jednego z posłów Solidarnej Polski mamy sytuację odwrotną – wkładanie w usta Donalda Tuska wyimaginowanych wypowiedzi. Generatywna AI używa w tym spocie jest bardzo banalna pod względem wizualnym – ocenia dla Wirtualnemedia.pl Sylwia Czubkowska, dziennikarska specjalizująca się w tematyce technologicznej.
Według Czubkowskiej prezentowane do tej pory w kampanii przykładowe użycia sztucznej inteligencji budzą obawy o wiarygodność przekazów, zwłaszcza, że w pierwotnej wersji np. spotu PO nie zaznaczono, że głos nie należy do człowieka.
– Największe ryzyka w używaniu generatywnej AI to wprowadzanie do dyskursu politycznego nie tyle kłamstwa i manipulacji, bo to już widzieliśmy w wielu kampaniach, ale podpompowanie ich przez technologie. To niebezpieczne, bo ludzie mogą mieć potężne problemy z odróżnieniem, co jest prawdą, a co kłamstwem. Obniżone zostanie zaufanie do polityków, które i tak jest już bardzo niskie – uważa Sylwia Czubkowska.
AI i wybory. Czy odróżnimy prawdę od imitacji?
Nikola Bochyńska, redaktorka naczelna CyberDefence24.pl, jest zdecydowaną przeciwniczką używania sztucznej inteligencji w kampanii wyborczej. Jeśli już, informacja o takiej ingerencji w materiał powinna być wyraźnie podana.
– Żyjemy w czasach kiedy prosty komunikat dezinformacyjny, czy zmiana nazwy konta lub zdjęcia profilowego w celu podszycia się pod inną osobę w serwisie społecznościowym skutkuje brakiem umiejętności weryfikacji i podaniem dalej tego typu wpisów. Jeśli chodzi o walkę z dezinformacją, wciąż jako społeczeństwo nie mamy wykształconych mechanizmów obronnych i dobrych nawyków. Potrzeba w tym zakresie edukacji od podstawówki – tłumaczy swój pogląd w rozmowie z Wirtualnemedia.pl Nikola Bochyńska.
Czy zatem wobec istniejących obaw i ryzyk związanych z wykorzystaniem sztucznej inteligencji w kampanii wyborczej politycy porzucą tego typu pomysły? To zdaniem pytanych przez nas ekspertów mało prawdopodobne. Nowe narzędzia przyspieszają i ułatwiają wiele zadań, np. pisanie przekazów pod konkretne grupy wyborców.
– Sztuczna inteligencja na pewno ułatwi prowadzenie kampanii specjalistom od marketingu i social media managerom. Dla nich oznacza to szybsze generowanie treści i co się z tym wiąże – sprawniejsze zarządzanie czasem oraz możliwość dotarcia do określonej grupy docelowej. ChatGPT jest nawet w stanie wygenerować komunikaty, skierowane do zwolennika konkretnej partii. Czy w polityce AI może być użyta w słusznym celu? Musielibyśmy wierzyć w dobre intencje polityków, a czy takie są? Na to pytanie każdy odpowie sobie sam – sądzi Nikola Bochyńska.
Michał Raszka, dyrektor komunikacji w Grupie PRC Holding i wykładowca Uniwersytetu WSB Merito, realne zagrożenie manipulacji przekazem przy użyciu AI widzi w kampanii na poziomie lokalnym.
– Mamy tu do czynienia z transformacją kampanii wyborczych. O ile w poprzednich kampaniach na poziomie lokalnym królowały spotkania z wyborcami, outdoor i ulotki, to w tym roku prawdopodobnie dominującym narzędziem będą media społecznościowe i reklamy online. Na tym poziomie, jak pokazały poprzednie elekcje, zasady etyczne nie obowiązują, czarny PR i ciosy poniżej pasa to klasyczny repertuar działań. A przy tym nie sposób weryfikować wszystkich materiałów kandydatów na posłów i senatorów. Próby więc będą, część zapewne skutecznych – przewiduje Michał Raszka w komentarzu dla Wirtualnemedia.pl.
Zdaniem naszego rozmówcy można wyobrazić sobie scenariusz, w których np. deepfake zostanie wpuszczony do sieci tuż przed ciszą wyborczą, nie dając czasu na żadną reakcję konkurentom.
– Technicznie AI naśladujące głos jest już na takim poziomie, że wyborca może go nie odróżnić (np. słuchając w autobusie). Całkiem realnym scenariuszem jest na przykład wypuszczenie takiego materiału uderzającego w kontrkandydata tuż przed ciszą wyborcą, gdzie nie będzie czasu na odkrycie oszustwa. Nienadążające w tej sprawie prawo wręcz zachęca do takich działań. Jedno jest pewne, choć to najbardziej brutalna kampania w III RP, to też jedna z najciekawszych – podsumowuje Michał Raszka.