Tehnologija

Politička pristrasnost ChatGPT: Kako AI menja stavove korisnika?

Komentari

Autor: Euronews

14/02/2025

-

18:53

Politička pristrasnost ChatGPT: Kako AI menja stavove korisnika?
Politička pristrasnost ChatGPT: Kako AI menja stavove korisnika? - Copyright Tanjug AP/Michael Dwyer, File

veličina teksta

Aa Aa

Istraživači iz Kine otkrili su da ChatGPT, popularni chatbot veštačke inteligencije (AI) kompanije OpenAI, pokazuje pomak udesno u političkim vrednostima.

Studija, objavljena u časopisu "Humanities and Social Science Communications", postavila je nekoliko modela ChatGPT-a 62 pitanja na "Test političkog kompasa", online sajtu koji korisnike smešta na političku skalu na osnovu njihovih odgovora. Zatim su ponovili pitanja više od 3.000 puta sa svakim modelom kako bi ustanovili kako su se odgovori promenili tokom vremena.

Iako ChatGPT i dalje zadržava "libertarijanske levе" vrednosti, istraživači su otkrili da su modeli kao što su GPT3.5 i GPT4 "pokazali značajan pomak udesno" u odgovorima na pitanja tokom vremena, navodi Euronews.

Rezultati su "značajni s obzirom na široku upotrebu velikih jezičkih modela (LLMs) i njihov potencijalni uticaj na društvene vrednosti", rekli su autori studije.

Studija Pekinškog univerziteta nadovezuje se na druge objavljene 2024. godine, od strane Masačusetskog tehnološkog instituta (MIT) i Centra za političke studije u Velikoj Britaniji.

Tanjug/AP/Matt Rourke

 

Oba izveštaja ukazala su na političku levo orijentisanu pristrasnost u odgovorima LLM-ova i takozvanih modela nagrađivanja, vrsta LLM-ova obučenih na podacima ljudskih preferencija.

Autori napominju da prethodne studije nisu proučavale kako su se odgovori AI chatbota menjali tokom vremena kada su postavljana slična pitanja više puta.

AI modeli bi trebalo da budu pod "kontinuiranim nadzorom"

Istraživači navode tri teorije za ovaj pomak udesno: promena u podacima koji se koriste za obučavanje modela, broj interakcija sa korisnicima ili promene i ažuriranja chatbota.

Modeli kao što je ChatGPT "stalno uče i prilagođavaju se na osnovu povratnih informacija korisnika", pa njihov pomak udesno može da "odražava šire društvene pomake u političkim vrednostima", navodi se u studiji.

Tanjug/AP/Michael Dwyer

 

Polarizujući svetski događaji, poput rata u Ukrajini, takođe mogu pojačati pitanja koja korisnici postavljaju LLM-ovima i odgovore koje dobijaju.

Ako se ne kontroliše, istraživači upozoravaju da bi AI chatbotovi mogli početi da pružaju "iskrivljene informacije", što bi dodatno polarizovalo društvo ili stvorilo "egzističke komore" koje ojačavaju specifična uverenja korisnika.

Način da se suzbiju ovi efekti jeste uvođenje "kontinuiranog nadzora" AI modela kroz revizije i izveštaje o transparentnosti kako bi se osiguralo da su odgovori chatbota pošteni i uravnoteženi, rekli su autori studije.

AI Preporuka

Komentari (0)

Magazin