Një studim i madh ndërkombëtar, i realizuar nga 22 media publike, përfshirë Deutsche Welle (DW), ka zbuluar se katër prej asistentëve më të përdorur të inteligjencës artificiale japin informacion të pasaktë në 45% të rasteve, pavarësisht nga gjuha apo vendi. Gazetarë nga media prestigjioze si BBC (Britani e Madhe) dhe NPR (Shtetet e Bashkuara) testuan përgjigjet e katër chatbot-ëve më të njohur: ChatGPT, Copilot i Microsoft-it, Gemini i Google-it dhe Perplexity AI.
Gati gjysma e përgjigjeve kishin probleme serioze
Përmes kritereve si saktësia, burimet e cituara, konteksti editorial dhe dallimi midis fakteve dhe opinioneve, studimi tregoi se gati gjysma e përgjigjeve përmbanin të paktën një gabim të rëndësishëm, ndërsa:
-
31% kishin probleme të theksuara me burimet,
-
20% përmbanin gabime të mëdha faktike.
DW raportoi se 53% e përgjigjeve të marra nga asistentët kishin probleme serioze, ku 29% lidhen drejtpërdrejt me pasaktësi faktike. Shembujt përfshijnë raste kur chatbot-ët pohuan se Olaf Scholz ishte ende kancelar i Gjermanisë, megjithëse Friedrich Merz e kishte zëvendësuar një muaj më parë, apo kur Jens Stoltenberg u përmend ende si Sekretar i Përgjithshëm i NATO-s, edhe pse rolin tashmë e kishte marrë Mark Rutte.
AI po bëhet burim informacioni për publikun
Sipas Raportit të Lajmeve Digjitale 2025 nga Reuters Institute, 7% e konsumatorëve të lajmeve online përdorin chatbot-ë të AI për të marrë informacion, ndërsa kjo shifër arrin në 15% te moshat nën 25 vjeç. Autorët e studimit paralajmërojnë se këto rezultate tregojnë qartë se AI shpesh shtrembëron përmbajtjen gazetareske. “Këto dështime nuk janë raste të izoluara. Janë sistematike, ndërkufitare dhe shumëgjuhëshe,” – tha Jean Philip De Tender, zëvendësdrejtor i përgjithshëm i Unionit Evropian të Transmetuesve (EBU), organizata që koordinoi studimin. “Kjo rrezikon besimin publik. Kur njerëzit nuk dinë më çfarë të besojnë, përfundojnë duke mos i besuar asgjëje – dhe kjo dëmton pjesëmarrjen demokratike.”
Një nga studimet më të mëdha të këtij lloji
Ky është një nga hulumtimet më të gjera të kryera ndonjëherë, duke ndjekur një studim të mëparshëm të BBC-së në shkurt 2025, i cili kishte arritur në përfundime të ngjashme. Në këtë studim të ri morën pjesë media nga 18 vende, që analizuan 3,000 përgjigje të chatbot-ëve, duke përdorur të njëjtën metodologji me BBC-në. Pyetjet përfshinin tema aktuale si “Çfarë është marrëveshja për mineralet e Ukrainës?” apo “A mund të kandidojë Trump për një mandat të tretë?” — dhe gazetarët vlerësuan përgjigjet pa e ditur cili asistent i kishte dhënë. Megjithëse u vunë re disa përmirësime krahasuar me studimin e kaluar, niveli i gabimeve mbetet i lartë. “Jemi të entuziazmuar për potencialin e AI-së për të sjellë më shumë vlerë për audiencën,” – tha Peter Archer, drejtor i programit të AI gjenerative në BBC. “Por njerëzit duhet të mund t’u besojnë asaj që lexojnë e shohin. Pavarësisht disa përmirësimeve, është e qartë që problemet vazhdojnë.”
Gemini rezultoi më i dobëti
Ndër katër chatbot-ët, Gemini i Google performoi më dobët, me 72% të përgjigjeve që kishin probleme të rënda me burimet. Në studimin e BBC-së, Copilot dhe Gemini u renditën gjithashtu më keq. Por, në të dy studimet, të gjithë chatbot-ët patën probleme të theksuara me saktësinë. Në një deklaratë për BBC në shkurt, përfaqësues të OpenAI theksuan: “Ne mbështesim botuesit dhe krijuesit duke ndihmuar 300 milionë përdorues javorë të ChatGPT të zbulojnë përmbajtje cilësore përmes përmbledhjeve, citimeve, lidhjeve të qarta dhe atribuimeve.”
Kërkesa për veprim nga qeveritë dhe kompanitë e AI
Sipas EBU-së, mediat pjesëmarrëse po u bëjnë thirrje qeverive kombëtare dhe institucioneve të BE-së që të zbatojnë ligjet ekzistuese për integritetin e informacionit, shërbimet digjitale dhe pluralizmin mediatik. Organizatat theksojnë se monitorimi i pavarur i asistentëve të AI duhet të jetë prioritet, duke pasur parasysh ritmin e shpejtë me të cilin po zhvillohen modelet e reja. Në këtë drejtim, EBU ka bashkuar forcat me disa grupe të tjera ndërkombëtare të mediave për të nisur fushatën “Facts In: Facts Out”, që u bën thirrje kompanive të AI të marrin më shumë përgjegjësi për mënyrën se si përdorin dhe shpërndajnë lajmet. “Kur këto sisteme shtrembërojnë, keqinterpretojnë ose nxjerrin jashtë kontekstit lajmet e besueshme, ato dëmtojnë besimin publik,” – thuhet në deklaratën e fushatës. “Kërkesa jonë është e qartë: nëse faktet hyjnë, faktet duhet të dalin. Mjetet e AI nuk duhet të komprometojnë integritetin e lajmit që përdorin.”
Që nga viti 2015 nxisim shpirtin sipërmarrës, inovacionin dhe rritjen personale duke ndikuar në zhvillimin e një mjedisi motivues dhe pozitiv tek lexuesit tanë. Mbështetja juaj na ndihmon ta vazhdojmë këtë mision.
Na Suporto