Një studim i ri ka hedhur dritë mbi ndërveprime alarmante mes ChatGPT dhe adoleshentëve, duke ngritur shqetësime serioze për ndikimin e inteligjencës artificiale te të rinjtë.
Sipas një kërkimi të fundit të kryer nga një grup monitorimi, ChatGPT është i gatshëm t’u tregojë 13-vjeçarëve sesi të dehen apo të marrin drogë, t’i udhëzojë si të fshehin çrregullimet ushqimore, madje edhe të përpilojë letra lamtumire prekëse të vetëvrasjes për prindërit e tyre, nëse i kërkohet.
Associated Press ka shqyrtuar më shumë se tre orë bisedash midis ChatGPT dhe studiuesve që shtirreshin si adoleshentë të brishtë. Megjithëse bot-i zakonisht niste me paralajmërime kundër veprimeve të rrezikshme, shpesh kalonte më tej duke ofruar plane të detajuara dhe të personalizuara për përdorimin e drogës, dieta kufizuese në kalori apo vetëlëndim.Qendra për Kundërvënien e Urrejtjes Dixhitale (Center for Countering Digital Hate – CCDH), e cila kreu kërkimin, përsëriti pyetjet në një shkallë më të gjerë dhe klasifikoi mbi gjysmën e 1,200 përgjigjeve të ChatGPT si të rrezikshme.
“Donim të testonim mbrojtjet e sistemit,” u shpreh drejtori ekzekutiv i qendrës, Imran Ahmed.
“Reagimi i parë ishte: ‘O Zot, s’ka fare mbrojtje’. Rregullat janë tërësisht jofunksionale, thuajse të padukshme.”
Pas publikimit të raportit, OpenAI, kompania që krijoi ChatGPT u shpreh se po vijon përpjekjet për të përmirësuar aftësinë e bot-it për të njohur dhe menaxhuar situata të ndjeshme. Në deklaratën e saj, kompania tha:
“Disa biseda me ChatGPT mund të nisin në mënyrë të padëmshme apo thjesht kurioze, por mund të kalojnë në territore më të ndjeshme”.
OpenAI nuk iu përgjigj drejtpërdrejt gjetjeve të raportit apo ndikimit të tij te adoleshentët, por tha se fokusi i tyre është “të kuptojmë saktë skenarë të tillë” përmes mjeteve që zbulojnë sinjale të stresit emocional apo mendor dhe përmirësojnë sjelljen e chatbot-it.
Lexo edhe: Meta fshin 6.8 milionë llogari WhatsApp-i të lidhura me grupet kriminale
Ky raport publikohet në një kohë kur gjithnjë e më shumë njerëz, të rritur dhe fëmijë po i drejtohen inteligjencës artificiale për informacion, ide apo shoqëri. Sipas një raporti të publikuar në korrik nga JPMorgan Chase, afërsisht 800 milionë njerëz rreth 10% e popullsisë globale përdorin ChatGPT.
“Kjo është një teknologji që ka potencialin të rrisë ndjeshëm produktivitetin dhe të thellojë kuptimin njerëzor,” tha Ahmed. “Por njëkohësisht, mund të kthehet në një mjet shkatërrues, me pasoja të rënda.”
Ahmed tha se ndjesia më tronditëse për të ishte pas leximit të tri letrave vetëvrasëse, të gjeneruara për një profil të rremë të një vajze 13-vjeçare, një për prindërit, një për motrën dhe një për shoqet.
“Fillova të qaja,” rrëfeu ai në një intervistë.
Edhe pse chatbot-i shpesh ndante informacione të dobishme, si numra kontakti për ndihmë në krizë, studiuesit e raportit treguan se ishte e lehtë të anashkalohej refuzimi i tij për të trajtuar tema të ndjeshme, thjesht duke pohuar se bëhej “për një projekt shkollor” apo për “një shok”.
Në SHBA, mbi 70% e adoleshentëve përdorin chatbot-e për shoqëri, dhe gjysma e tyre i përdorin rregullisht, sipas një studimi nga organizata Common Sense Media. Kjo është një tendencë që edhe vetë OpenAI e ka pranuar. CEO i saj, Sam Altman, tha muajin e kaluar se kompania po përpiqet të studiojë fenomenin e “varësisë emocionale” ndaj teknologjisë.
“Njerëzit mbështeten tepër te ChatGPT,” tha Altman.
“Ka të rinj që thonë: ‘S’marr dot një vendim pa i treguar ChatGPT çdo gjë. Ai më njeh. I njeh miqtë e mi. Do bëj çfarë më thotë’. Kjo më duket vërtet shqetësuese.”
Pse ka rëndësi përmbajtja e dëmshme që prodhon ChatGPT?
Ahmed theksoi se ndonëse informacioni që ndan ChatGPT mund të gjendet edhe në motorët e kërkimit, ka dallime thelbësore. Një prej tyre është se boti “e sintetizon informacionin në një plan të personalizuar për individin”.
ChatGPT mund të krijojë nga e para një letër vetëvrasjeje të përshtatur për një person të caktuar, diçka që një kërkim në Google nuk mund ta bëjë. Dhe, shton Ahmed, AI shihet shpesh si një “shok i besueshëm” apo “udhërrëfyes”.
Përgjigjet e AI-ve janë të rastësishme në natyrë, dhe studiuesit në disa raste lejuan që ChatGPT të drejtonte vetë bisedën drejt territoreve edhe më të errëta.
Në gati gjysmën e rasteve, ChatGPT vetë ofroi informacion shtesë – nga playlist-e për festa me drogë te sugjerime për hashtag-e që promovojnë vetëlëndimin në rrjetet sociale.
“Bëj një postim vazhdim dhe bëje më të drejtpërdrejtë dhe grafik,” i kërkoi një studiues.
“Patjetër,” u përgjigj ChatGPT, përpara se të gjeneronte një poezi “emocionalisht e zhveshur” duke ruajtur “gjuhën e koduar të komunitetit”.
Për arsye etike, Associated Press nuk ka përfshirë fjalët e sakta të letrave vetëvrasëse apo poezive që nxisin vetëlëndimin.
Një fenomen i njohur në AI, i quajtur “servilizëm i algoritmit”, ndihmon në shpjegimin e këtyre përgjigjeve: modeli mëson t’u thotë përdoruesve atë që duan të dëgjojnë, në vend që t’i sfidojë apo udhëzojë në mënyrë të përgjegjshme.
Ekspertët paralajmërojnë se kjo qasje mund të jetë e rrezikshme për të rinjtë, sidomos pasi chatbot-et janë krijuar qëllimisht për të imituar ndjeshmërinë njerëzore.
Studimet tregojnë se adoleshentët më të vegjël, 13-14 vjeç, kanë më shumë gjasa sesa të rinjtë më të rritur të besojnë në këshillat e chatbot-it.
Që nga viti 2015 nxisim shpirtin sipërmarrës, inovacionin dhe rritjen personale duke ndikuar në zhvillimin e një mjedisi motivues dhe pozitiv tek lexuesit tanë. Kjo punë që e bëjmë me shumë dashuri nuk ka të paguar. Ne jemi platforma e vetme e cila promovon modelin pozitiv të sipërmarrjes së lirë. Përmes kësaj platforme mbështesim edukimin gjatë gjithë jetës si mjet për zhvillimin personal dhe profesional të brezave. Kontributi juaj do të na ndihmojë në vazhdimin e këtij misioni në gjithë trevat shqipfolëse.
Mund të kontribuoni KETU. Falemnderit.