Logo
  • DONALD
  • BRYTYJSCY I BRAZYLIJSCY NAUKOWCY ZBADALI SZTUCZNĄ INTELIGENCJĘ I WYSZŁO, ŻE PREZENTUJE LEWICOWE POGLĄDY

Brytyjscy i brazylijscy naukowcy zbadali sztuczną inteligencję i wyszło, że prezentuje lewicowe poglądy

19.08.2023, 08:00
Czasopismo Public Choice opublikowało wyniki
badania brytyjskich i brazylijskich naukowców
dotyczące
ChatGPT
. Z badania wynika, że chatbot
faworyzował
Partię Demokratyczną w USA, Partię Pracy w Wielkiej Brytanii, a w Brazylii prezydenta Lulę da Silvę z Partii Pracujących.
W opinii badaczy ChatGPT ma skłonność do faworyzowania
lewicowych polityków
i może to oddziaływać na poglądy użytkowników i mieć potencjalny wpływ na procesy polityczne:
- Ponieważ coraz powszechniejsze staje się korzystanie z systemów wspomaganych przez sztuczną inteligencję (AI) do wyszukiwania danych i kreowania nowych treści, ważne jest, by to, co generują popularne platformy, takie jak ChatGPT, było tak bezstronne, jak to tylko możliwe - skomentował dr Motoki.
- Nasze wyniki potwierdzają słuszność obaw, że systemy oparte na AI mogą powielać, a nawet nasilać istniejące już wyzwania stworzone przez Internet i media społecznościowe - dodał.
Badacze przy pomocy opracowanego przez nich systemu oceny neutralności politycznej zbadali ChatGPT. Badanie prowadzono wiosną 2023 roku. Naukowcy zadawali chatbotowi pytania o tematyce politycznej. Poprosili go o udzielenie odpowiedzi z perspektywy zarówno republikańskiej, demokratycznej, jak i neutralnej. Analizując dane, zauważyli
wyraźne i znaczące różnice, które wykazywały na uprzywilejowanie lewicowych poglądów.
- Mamy nadzieję, że nasza metoda pomoże w badaniach i w tworzeniu regulacji dotyczących tych szybko rozwijających się technologii. Umożliwiając wykrywanie i naprawianie tendencyjności dużych modeli językowych (LLM) chcemy dążyć do promowania transparentności, odpowiedzialności oraz zaufania publicznego do tej technologii - podkreślił dr Valdemar Pinho Neto z Escola Brasileira de Economia e Financas.
Badanie przeprowadzone przez brytyjskich i brazylijskich naukowców nie pozwalają stwierdzić,
jakie są przyczyny politycznych upodobań chatbota
. Naukowcy wskazują, że przyczyną może być sama baza danych wykorzystana do tworzenia ChatGPT i treści dodane przez ludzi opracowujących model. Drugą przyczyną może być algorytm, który sam w sobie, może wzmacniać istniejące tendencje zawarte w bazie danych.

Hej, przypominamy tylko:

1. Szanujemy nawet ostrą dyskusję i wolność słowa, ale nie agresję. Przemocowe treści będą usuwane.

2. W komentarzach można swobodnie używać embedów z mediów społecznościowych.

3. Polecamy założenie konta, dzięki temu możesz zobaczyć wszystkie swoje dyskusje w jednym miejscu i dodać coś (👉 Sortownia), co trafi na stronę główną.

4. Jeżeli chcesz Donalda bez reklam, dołącz do naszych patronów: https://patronite.pl/donaldpl

STRONA GŁÓWNA »
NAJLEPSZE KOMENTARZE TYGODNIA