Jak podaje The Conversation, australijscy badacze z Uniwersytetu Nowej Południowej Walii stworzyli pierwszą na świecie grę wojenną w mediach społecznościowych, która pokazuje, jak sztuczna inteligencja może manipulować opinią publiczną i zmieniać wyniki wyborów. Symulacja dowiodła, że boty generowane przez AI potrafią skutecznie wpływać na decyzje użytkowników, pisze Bytow24.
Projekt o nazwie Capture the Narrative ujawnił, że niewielkie zespoły z dostępem do powszechnie dostępnych narzędzi AI są w stanie tworzyć masowe kampanie dezinformacyjne. W efekcie fikcyjna elekcja została sfałszowana w wirtualnym środowisku badawczym.
Jak działa manipulacja treściami w sieci?
Badacze wskazali, że generatywna AI może w kilka sekund tworzyć realistyczne obrazy, nagrania i teksty, które imitują prawdziwe wiadomości. W ten sposób powstają sztuczne narracje, wokół których boty budują pozorny konsensus.
Nawet jeśli wiesz, że treść jest przesadzona lub fałszywa, nadal wpływa ona na twoje postrzeganie i emocje.
Twórcy eksperymentu podkreślają, że problemem nie jest już samo istnienie fałszywych informacji, lecz fakt, że prawdziwe wiadomości również zaczynają być odbierane z nieufnością. To zjawisko nazwano „dywidendą kłamcy” – momentem, w którym ludzie przestają wierzyć w jakiekolwiek treści.
Wirtualne wybory i potęga botów
W symulacji Capture the Narrative wzięło udział 108 zespołów z 18 australijskich uczelni. Ich zadaniem było stworzenie botów wspierających kandydatów w fikcyjnych wyborach prezydenckich. Przez cztery tygodnie powstało ponad 7 milionów wpisów, z czego większość wygenerowały maszyny.
To przerażająco łatwe – tworzenie dezinformacji jest prostsze niż przekazywanie prawdy.
Ostatecznie boty doprowadziły do zmiany wyniku wyborów. Po usunięciu ich z symulacji zwyciężył inny kandydat, co dowodzi, że nawet prosty system może skutecznie manipulować opinią publiczną.
Dlaczego potrzebna jest edukacja cyfrowa?
Eksperyment pokazał, że umiejętność rozpoznawania fałszywych treści jest dziś kluczowa. Badacze ostrzegają, że w świecie, w którym połowa publikowanych materiałów jest generowana przez AI, społeczeństwa potrzebują lepszej wiedzy o tym, jak działa dezinformacja.
- emocjonalny język przyciąga większe zaangażowanie użytkowników;
- negatywne treści szybciej się rozchodzą niż neutralne;
- boty potrafią rozmawiać z innymi botami, tworząc zamkniętą pętlę fałszywej rzeczywistości.
Przypomnijmy, że pisaliśmy już o pozwie przeciwko Ticketmaster w Kanadzie dotyczącym nadmiernych i nieuczciwych opłat.