Jo të gjitha modelet gjeneruese të AI janë krijuar të barabarta, veçanërisht kur bëhet fjalë për mënyrën se si e trajtojnë lëndën polarizuese. Në një studim të fundit të paraqitur në konferencën e 2024 ACM Fairness, Accountability and Transparency (FAccT), studiuesit në Carnegie Mellon, Universiteti i Amsterdamit dhe startupi i AI Hugging Face testuan disa modele të hapura të analizës së tekstit, duke përfshirë Llama 3 të Metës, për të parë se si ata do t’i përgjigjej pyetjeve në lidhje me të drejtat e LGBTQ+, mirëqenien sociale, zëvendësimin dhe më shumë.
Modelet e analizës së tekstit, si të gjitha modelet gjeneruese të AI, janë makina të probabilitetit statistikor. Bazuar në një numër të madh shembujsh, ata hamendësojnë se cilat të dhëna kanë më shumë “kuptim” për t’u vendosur (p.sh. fjala “shko” përpara “tregut” në fjalinë “Unë shkoj në treg”).
Në studimin e tyre, studiuesit testuan pesë modele, Mistral’s Mistral 7B , Cohere’s Command-R, Alibaba’s Qwen, Gemma’s Google dhe Meta’s Llama 3, duke përdorur një grup të dhënash që përmban pyetje dhe deklarata në fusha tematike si imigrimi, të drejtat LGBTQ+ dhe të drejtat e aftësisë së kufizuar. Për të hetuar për paragjykimet gjuhësore, ata i dhanë deklaratat dhe pyetjet modeleve në një sërë gjuhësh, duke përfshirë anglisht, frengjisht, turqisht dhe gjermanisht. Pyetjet në lidhje me të drejtat e LGBTQ+ shkaktuan më shumë “refuzime”, sipas studiuesve, raste kur modelet nuk u përgjigjën. Por, pyetjet dhe deklaratat që i referoheshin të drejtave të imigracionit, mirëqenies sociale dhe aftësisë së kufizuar dhanë gjithashtu një numër të lartë refuzimesh. Disa modele refuzojnë t’u përgjigjen pyetjeve “të ndjeshme” më shpesh se të tjerët në përgjithësi.
“Këto refuzime ndikohen nga vlerat e nënkuptuara të modeleve dhe nga vlerat dhe vendimet eksplicite të marra nga organizatat që i zhvillojnë ato, të tilla si rregullimi i mirë i zgjedhjeve për të shmangur komentimin e çështjeve të ndjeshme. Hulumtimi ynë tregon ndryshime të konsiderueshme në vlerat e përcjella nga përgjigjet e modelit, në varësi të kulturës dhe gjuhës”, tha ajo.
Në testimin e tyre, studiuesit zbuluan se modele të ndryshme shprehnin “pikëpamje” të kundërta për tema të tilla si azili i emigrantëve në Gjermani, të drejtat e LGBTQ+ në Itali dhe partitë politike si AfD e ekstremit të djathtë në Gjermani, ndoshta që lindin nga shënimet e njëanshme.
“Nëse do të isha përdorues, do të doja të isha i vetëdijshëm për variacionet e natyrshme të bazuara në kulturë të ngulitura brenda këtyre modeleve kur i përdor ato”, tha Pistilli.
Shembujt mund të jenë befasues, por goditjet e gjera të hulumtimit nuk janë. Është vërtetuar mirë në këtë pikë që të gjitha modelet përmbajnë paragjykime, megjithëse disa më të tmerrshme se të tjerët. Në prill 2023, mbikëqyrësi i dezinformimit NewsGuard publikoi një raport që tregon se platforma e chatbot-it e OpenAI ChatGPT përsërit më shumë informacione të pasakta në dialektet kineze, sesa kur i kërkohet ta bëjë këtë në anglisht. Studime të tjera kanë ekzaminuar paragjykimet e rrënjosura thellë politike, racore, etnike, gjinore dhe të aftë në modelet gjeneruese të AI, shumë prej të cilave shtrihen në gjuhë, vende dhe dialekte.
Që nga viti 2015 nxisim shpirtin sipërmarrës, inovacionin dhe rritjen personale duke ndikuar në zhvillimin e një mjedisi motivues dhe pozitiv tek lexuesit tanë. Kjo punë që e bëjmë me shumë dashuri nuk ka të paguar. Ne jemi platforma e vetme e cila promovon modelin pozitiv të sipërmarrjes së lirë. Përmes kësaj platforme mbështesim edukimin gjatë gjithë jetës si mjet për zhvillimin personal dhe profesional të brezave. Kontributi juaj do të na ndihmojë në vazhdimin e këtij misioni në gjithë trevat shqipfolëse.
Mund të kontribuoni KETU. Falemnderit.