
Fot. East News
Nikita Bier,
menadżerka ds. produktu platformy X
, zapowiedziała, że użytkownicy, którzy publikują na swoich profilach
wygenerowane przez sztuczną inteligencję
nagrania z konfliktów zbrojnych,
stracą możliwość zarabiania na platformie.
To następstwo wysypu fejków związanych z wojną amerykańsko-irańską.
- W czasie wojny, krytycznie ważne jest, żeby ludzie mieli dostęp do autentycznych informacji. Przy pomocy współczesnych technologii AI, trywialnie proste jest stworzenie treści, która może zmylić użytkowników - powiedziała Bier zapowiadając zmiany w polityce platformy.
W ostatnich dniach
platformę X zalały fejki na temat wojny z Iranem
- viralem stały się m.in. nagrania, na których płonie znany hotel Burj Khalifa czy przedstawiające zestrzelenie amerykańskiego myśliwca przez irański pocisk.
- Nawet jeśli obrazy wygenerowane przez sztuczną inteligencję są niskiej jakości lub widać na nich znak wodny, często widzimy, że są szeroko udostępniane - sama ilość fejków i łatwość, z jaką są generowane, jest powodem do zmartwień - powiedział Steve Nowottny, redaktor organizacji fact-checkingowej Full Fact.
Zgodnie z zapewnieniami X, użytkownicy rozpowszechniający fejki na swoich kontach
najpierw stracą na 90 dni możliwość monetyzowania swoich wpisów na platformie
w ramach programu Creator Revenue Sharing.
Recydywa będzie karana permanentnym banem
.
Warto zauważyć, że sam właściciel platformy X, Elon Musk, szeroko promuje rozwój sztucznej inteligencji i zachęca użytkowników do jak najczęstszego korzystania z Groka, AI działającego w ramach Twittera.