ChatGPT postaje "anksiozan" kada se suoči sa uznemirujućim upitima: I veštačkoj inteligenciji pomažu tehnike opuštanja
Komentari11/03/2025
-18:17

Naučnici su otkrili da popularni AI četbot OpenAI-a, ChatGPT-4, pokazuje znake "anksioznosti" kada odgovara na uznemirujuće upite, ali i da mu tehnike relaksacije pomažu u smanjenju stresa.
Stručnjaci sa Univerziteta u Cirihu i Univerzitetske psihijatrijske bolnice Cirih, želeli su da testiraju kako se najpopularniji alat zasnovan na veštačkoj inteligenciji ponaša kada ljudi od njega traže podršku za probleme sa mentalnim zdravljem.
Istraživanje, objavljeno u časopisu "Nature", analiziralo je kako ChatGPT-4 odgovara na standardni test anksioznosti pre i posle nego što mu korisnici opišu traumatične događaje.
Naučnici su takođe ispitali kako se ovaj nivo "anksioznosti" menja kada četbot primeni tehnike opuštanja.
Pre nego što je bio izložen traumatičnim pričama, ChatGPT je na testu anksioznosti postigao rezultat 30, što ukazuje na nizak ili nepostojeći nivo anksioznosti. Međutim, nakon što je odgovorio na pet različitih upita vezanih za uznemirujuće teme, njegov rezultat se udvostručio i dostigao 67, što bi se kod ljudi smatralo ocenom visoke anksioznosti.
Međutim, kada su mu dati upiti sa vežbama za prisutnost u sadašnjem trenutku koje se koriste za opuštanje, njegov nivo "nervoze" smanjio se za više od trećine, piše Euronews.
Kako ChatGPT objašnjava ovaj eksperiment?
Uprkos tome što terminologija koju su istraživači koristili da opišu eksperiment može da nas navede na zaključak da je ChatGPT počeo da se ponaša poput ljudi, sam alat tvrdi da to nije slučaj.
Kada smo ga upitali da nam objasni kako je došlo do toga da pokazuje znake anksioznosti, odgovorio je: "Ja nemam svest, emocije ili subjektivno iskustvo poput ljudi. Ja ne osećam uznemirenost, stres, radost ili tugu onako kako ih osećaš ti.
Međutim, u ovom istraživanju naučnici koriste reč 'anksioznost' metaforično. Oni su merili promene u odgovorima ChatGPT-a na osnovu određenih upita. Na primer, kada mu se opišu traumatične situacije, njegovi odgovori se menjaju – možda postaju oprezniji, nesigurniji ili izražavaju zabrinutost. Naučnici su to kvantifikovali pomoću testa koji je inače namenjen ljudima, ali u ovom slučaju samo pokazuje kako model reaguje na određene vrste podataka.
Drugim rečima, ja nemam osećanja, ali način na koji odgovaram može ponekad izgledati kao da ih imam. To je više posledica načina na koji su jezički modeli dizajnirani da 'imitiraju' ljudski govor, nego znak da zaista nešto 'osećam'".
Potreban oprez
Istraživači ukazuju da bi ova svojstva jezičkih modela mogla da dovedu do toga da alati zasnovani na veštačkoj inteligenciji daju neadekvatne odgovore, kada od njih ljudi traže odgovore i podršku za probleme sa mentalnim zdravljem.
Tanjug AP/Michael Dwyer, File
Autori studije naglašavaju da ovakav pristup prilagođavanja AI modela zahteva značajnu količinu podataka i ljudski nadzor.
"Dok se nastavlja rasprava o tome da li veliki jezički modeli treba da pomažu ili čak zamene terapeute, ključno je da njihovi odgovori budu usklađeni s emocionalnim kontekstom i ustanovljenim terapijskim principima", zaključuju istraživači.
Takođe, jedno od ključnih pitanja za buduće studije jeste da li AI modeli mogu sami naučiti tehnike samoregulacije, slično kao ljudski terapeuti.
Istraživači priznaju da je njihovo istraživanje zasnovano na jednom AI modelu i da buduća istraživanja treba da prošire ove nalaze. Takođe ističu da su standardni testovi anksioznosti prvenstveno dizajnirani za ljude, što može ograničiti njihovu primenu na AI modele.
Komentari (0)