Fact-checking s pomoću AI-a može povećati vjerovanje u lažne naslove


Card image cap

Izvor: Pixabay



Autor: Gordana Ilić Ostojić

Datum objave: 28.02.2025.

Ljudi koji provjeravaju činjenice sve teže mogu pratiti količinu lažnih ili pogrešnih tvrdnji koje se šire društvenim medijima, uključujući i sadržaj koji generira umjetna inteligencija. Potreba fact-checkera da u svom radu posegnu za umjetnom inteligencijom proizlazi iz enormnog porasta količine dezinformacija i pogrešnih tvrdnji u internetskom prostoru.

Da bi se napravila vjerodostojna i potpuno transparentna provjera činjenica, iskusnim provjeravateljima je nekada potrebno pola sata, no u nekim se slučajevima provjera protegne na više dana ili čak tjedana. U vremenima kada je važno što prije doći do vjerodostojnih činjenica, ‘ljudski’ fact-checking jednostavno je prespor. Pojedini AI alati taj postupak mogu ubrzati i pojednostaviti.

No, iako mnoge tehnološke tvrtke i start-upovi hvale potencijal usluga automatizirane provjere činjenica koje pokreće AI, istraživanje koje je provedeno na američkom Sveučilištu Indiana otkriva da provjera činjenica s pomoću umjetne inteligencije ponekad zapravo može povećati vjerovanje lažnim naslovima u čiju istinitost AI pri provjeri nije bila sigurna, te umanjiti vjerovanje u istinite naslove koji su pogrešno označeni kao lažne vijesti. Osim toga je utvrđeno i da su sudionici u istraživanju, koji su na uvid dobili naslove provjerene s pomoću AI, podjednako dijelili dalje i istinite i lažne vijesti

Znanstvenici Sveučilišta Indiana istražili su kako veliki jezični modeli (LLM) koji se koriste za provjeru činjenica utječu na percepciju i širenje naslova političkih vijesti. LLM su vrsta umjetne inteligencije koja koristi algoritme strojnog učenja za repliciranje ljudskog jezika

Unatoč sve većem prihvaćanju umjetne inteligencije i testovima njene sposobnosti da se suprotstavi dezinformacijama na internetu, malo se zna o tome kako ljudi zapravo reagiraju na provjeru činjenica vođenu LLM-om. Provedeni eksperiment otkriva da čak i LLM-ovi koji točno identificiraju lažne naslove ne poboljšavaju nužno sposobnosti konzumenata vijesti da razaznaju točnost naslova, niti pozitivno utječu na dijeljenje istinitih vijesti. LLM provjere činjenica zapravo mogu smanjiti vjerovanje konzumenata u istinite vijesti koje je alat pogrešno označio kao lažne, te povećati vjerovanje u sumnjive naslove kada umjetna inteligencija nije sigurna u istinitost članka.

Naime, iako je AI model korišten u istraživanju točno identificirao 90% lažnih naslova, istraživači su otkrili da to u prosjeku nije značajno poboljšalo sposobnost sudionika u ispitivanju da razlikuju istinite od lažnih naslova. Nasuprot tome, kada su u istraživanju korištene provjere činjenica koje su proveli ljudi, kod sudionika je zabilježeno poboljšanje u raspoznavanju istinitih naslova.

Znanstvenici su zaključili da u interakciji ljudi s umjetnom inteligencijom mogu nastati neželjene posljedice, stoga je iznimno važno pažljivo razmotriti kako se ti alati koriste. Potrebno je i više istraživanja kako bi se poboljšala točnost AI provjere činjenica, ali i bolje razumijevanje interakcija između ljudi i AI.

Rezultati ovoga istraživanja Sveučilišta Indiana predstavljeni su u radu koji je objavljen krajem prošle godine u američkom Zborniku Nacionalne akademije znanosti.

x


Adresa:

Ulica bana Josipa Jelačića 83, 31220 Višnjevac

E-mail:

info@verifeye.hr

Telefon:

+385 31 272 943

Verifeye
Centar za nestalu i zlostavljanu djecu
Agencija za elektroničke medije
Financirala Europska unija
Republika Hrvatska Ministartvo kulture
Akademija za umjetnost i kulturu u Osijeku
Centar za kulturu medija