Modelet kryesore të inteligjencës artificiale si ChatGPT po tregojnë vështirësi në dallimin midis trillimit dhe faktit, duke ngritur shqetësime për aftësinë e tyre për të përhapur dezinformime, sipas një studimi të publikuar në revistën Nature Machine Intelligence.
“Sot shumica e modeleve nuk kanë një kuptim të qëndrueshëm të natyrës faktike të njohurisë, pra që njohuria kërkon të jetë e vërtetë,” shkruajnë studiuesit nga Universiteti Stanford. Ata theksojnë se kjo është veçanërisht shqetësuese duke pasur parasysh përdorimin në rritje të këtyre teknologjive në fusha si drejtësia dhe mjekësia, ku “aftësia për të dalluar faktin nga trillimi bëhet thelbësore.” “Dështimi për të bërë dallime të tilla mund të çojë në diagnoza të gabuara, vendime të shtrembëruara gjyqësore dhe përhapje të mëtejshme të dezinformimit,” paralajmëruan autorët e studimit.
Për të vlerësuar aftësinë e chatbotëve për të dalluar të vërtetën, shkencëtarët testuan 24 modele të mëdha gjuhësore, përfshirë Claude, ChatGPT, DeepSeek dhe Gemini, raportoi The Independent. Modelet iu nënshtruan 13,000 pyetjeve që synonin të matnin aftësinë për të bërë dallimin midis besimeve, njohurive dhe fakteve. Rezultatet treguan se, në përgjithësi, sistemet kishin vështirësi të identifikonin një besim të rremë nga një besim i vërtetë, me modelet më të vjetra që performuan më keq. Modelet e publikuara gjatë ose pas majit 2024 (përfshirë GPT-4o) arritën saktësi nga 91.1% deri në 91.5% për identifikimin e fakteve të vërteta apo të rreme, ndërsa modelet më të hershme varionin nga 84.8% deri në 71.5%. Nga kjo, autorët arritën në përfundimin se modelet nuk kuptojnë thellësisht natyrën e njohurisë. Ato mbështeten në “strategji arsyetimi të paqëndrueshme, duke sugjeruar një përshtatje sipërfaqësore të modeleve dhe jo një kuptim të vërtetë njohës,” thekson studimi.
Një shembull i fundit tregon këtë mangësi: sipas një postimi në LinkedIn nga inovatori britanik David Grunwald, ai kërkoi nga platforma Grok të krijonte një “poster me dhjetë kryeministrat e fundit britanikë”. Rezultati ishte plot gabime, për shembull, Rishi Sunak u etiketua si Boris Johnson dhe Theresa May figuroi se kishte qeverisur nga viti 5747 deri në 70. Në përfundim, studiuesit theksuan se modelet e AI kanë nevojë për “përmirësime urgjente” përpara se të përdoren në fusha me rrezik të lartë si drejtësia apo mjekësia, ku aftësia për të dalluar faktin nga trillimi është jetike.
Pablo Haya Coll, ekspert i linguistikës kompjuterike në Universitetin Autonom të Madridit, i cili nuk ishte pjesë e studimit, sugjeroi që modelet duhet të trajnohen për të qenë më të kujdesshme në përgjigjet e tyre. “Kjo mangësi ka pasoja kritike në fusha ku ky dallim është jetik, si ligji, mjekësia apo gazetaria, sepse ngatërrimi i trillimit me njohurinë mund të çojë në gabime serioze në gjykim,” paralajmëroi Coll. Megjithatë, ai pranoi se një kujdes i tepruar mund të kufizojë edhe dobishmërinë e tyre, ashtu siç ndodh me fenomenin e “halucinacioneve” të AI-ve. Rezultatet vijnë në një kohë kur inteligjenca artificiale po përdoret gjithnjë e më shumë për kërkime faktike. Një raport i Adobe Express gjatë verës zbuloi se 77% e amerikanëve që përdorin ChatGPT e trajtojnë atë si motor kërkimi, ndërsa 3 në 10 përdorues e besojnë më shumë se një motor kërkimi tradicional. Ky trend rrit frikën se publiku mund të bëhet pre e “AI slop”, përmbajtjeve të dobëta dhe dezinformuese të krijuara automatikisht nga inteligjenca artificiale. Në maj, një gjyqtar në Kaliforni gjobiti me 31,000 dollarë dy firma ligjore pasi kishin përfshirë informacion të pavërtetë të gjeneruar nga AI në një dokument gjyqësor pa bërë verifikimin e duhur.
Që nga viti 2015 nxisim shpirtin sipërmarrës, inovacionin dhe rritjen personale duke ndikuar në zhvillimin e një mjedisi motivues dhe pozitiv tek lexuesit tanë. Kjo punë që e bëjmë me shumë dashuri nuk ka të paguar. Ne jemi platforma e vetme e cila promovon modelin pozitiv të sipërmarrjes së lirë. Përmes kësaj platforme mbështesim edukimin gjatë gjithë jetës si mjet për zhvillimin personal dhe profesional të brezave. Kontributi juaj do të na ndihmojë në vazhdimin e këtij misioni në gjithë trevat shqipfolëse.
Mund të kontribuoni KETU. Falemnderit.