Prompt nedelje o AI "halucinacijama": Kako eliminisati greške kod veštačke inteligencije
Komentari25/03/2025
-22:36
U emisiji Prompt nedelje gostovao je Branko Kovač, stručnjak za podatke iz start-upa Logika AI Solutions. Povod za ovaj razgovor je pomalo neverovatna priča o jednom Norvežaninu, kome je ChatGPT izmislio brutalnu i potpuno netačnu priču da je ubio dva sina, da je osuđen na 21. godinu zatvora.
Kovač objašnjava pojavu "halucinacija" u LLM-ovima (Large Language Models) kao proizvod netačnih podataka.
On ističe da LLM-ovi ne greše sami po sebi, već se baziraju na statistici i biraju sledeću reč prema podacima koji nisu uvek tačni ili dovoljno dobri.
"Halucinacija" se definiše kao situacija kada LLM generiše informaciju koja nije tačna, a problem se često javlja zbog loših izvora podataka.
Prema njegovim rečima, LLM-ovi, kao i drugi AI modeli, ne greše sami, već zbog prirode podataka koji se koriste. Ako su podaci loši ili netačni, to će se reflektovati u rezultatima koje AI generiše. Stručnjaci naglašavaju da LLM-ovi koriste statistiku i stvoreni model ne može da prepozna greške na isti način na koji to radi ljudski um.
Može li se eliminisati AI halucinacije u budućnosti?
Kovač predviđa da halucinacije nikada neće biti potpuno eliminisane jer su deo prirode rada LLM-ova, ali se mogu svesti na manju meru kroz bolju kvalitetu podataka.
Napominje da je važno da AI tehnologije napreduju kako bi postigle preciznije i tačnije rezultate, ali nikada neće biti potpuno bez grešaka.
Euronews
Iako je teško očekivati da će se regulacija AI razviti brzo, Kovač smatra da bi za donošenje globalnih pravila bilo potrebno da postoji konsenzus na svetskom nivou.
"U Evropi je situacija već nešto naprednija sa zakonima kao što je GDPR, ali još uvek postoji mnogo nesigurnosti u pogledu toga kako se podaci koriste, naročito kada su u pitanju privatne informacije i autorska prava".
Privatnost podataka i uloga regulative u budućnosti AI industrije
Kovač ističe da je važno da kompanije koje razvijaju AI rešenja dobiju odobrenje za korišćenje privatnih podataka. Potrebna je bolja zaštita ličnih podataka i jasan okvir za korišćenje podataka koji se odnose na pojedince, kako bi se osigurala prava korisnika, a da se istovremeno obezbedi efikasnost AI modela.
Više o ovoj temi pogledajte u video prilogu.
Komentari (0)