Inteligjenca artificiale nxit ambiciet tona më të larta dhe frikën më të thellë si disa teknologji të tjera. Është sikur çdo premtim vezullues dhe prometean i makinerive të afta të kryejnë detyra me shpejtësi dhe me aftësi të cilat ne vetëm mund të ëndërrojmë, mbart me vete një makth kundërvënës të zëvëndësimit dhe evolucionit njerëzor.
Por, pavarësisht zbulimeve “fantastike” të kohëve të fundit nga Inteligjenca Artificiale në sferat e gjuhës dhe artit pamor të mbizotëruar më parë nga njerëzit – kompozimet në prozë të modelit gjuhësor GPT-3 dhe krijimet vizuale të sistemit DALL-E 2 kanë tërhequr një interes të madh – shqetësimet tona më të mëdha ndoshta duhet të zbuten. Të paktën kështu thotë shkencëtari kompjuterik Yejin Choi, një përfitues i grantit prestigjioz të MacArthur “gjeniu” në vitin 2022, i cili ka bërë kërkime novatore për zhvillimin e sensit të përbashkët dhe arsyetimit etik në Inteligjencën Artificiale. “Ka pak zhurmë rreth Inteligjencës Artificiale si potencial, dhe më shumë si frikë”, pranon Choi, i cili është 45 vjeç. Që nuk do të thotë historia e njerëzve dhe A.I. do të jetë pa surpriza. “Ka ndjenjën e aventurës,” thotë Choi për punën e saj. “Ju jeni duke eksploruar këtë territor të panjohur. Ti sheh diçka të papritur dhe më pas ndjen sikur dëshiron të zbulosh se çfarë tjetër ka atje!”
Cilat janë keqkuptimet më të mëdha që njerëzit kanë ende për Inteligjencën Artificiale? Ata bëjnë përgjithësime të nxituara. “Oh, mund të shkruani këtë artikull të mrekullueshëm në blog. Ndoshta GPT-4 do të jetë një redaktor i Neë York Times Magazine.” [Qesh.] Nuk mendoj se mund të zëvendësojë dikë atje, sepse nuk ka një kuptim të vërtetë për sfondin politik dhe kështu nuk mund të shkruaj vërtet diçka të rëndësishme për lexuesit. Pastaj janë shqetësimet për Inteligjencën Artificiale emocionale. Ka gjithmonë njerëz që besojnë në diçka që nuk ka kuptim. Njerëzit besojnë në kartat tarot. Njerëzit besojnë në teoritë e konspiracionit. Pra, sigurisht që do të ketë njerëz që besojnë se Inteligjenca Artificiale mund të jetë e ndjeshme.
E di që kjo është ndoshta pyetja më klishe e mundshme për t’ju bërë, por gjithsesi do ta bëj: A do të krijojnë ndonjëherë njerëzit inteligjencë artificiale të ndjeshme?
Mund të ndryshoj mendje, por aktualisht jam skeptik. Unë mund të shoh që disa njerëz mund të kenë atë përshtypje, por kur punon kaq afër me A.I., sheh shumë kufizime. Ky eshte problemi. Nga larg, duket sikur, o Zot! Nga afër i shoh të gjitha të metat. Sa herë që ka shumë modele, shumë të dhëna, A.I. është shumë i mirë në përpunimin e kësaj — disa gjëra si loja Go ose shahu. Por njerëzit kanë këtë tendencë për të besuar se nëse A.I. mund të bëjë diçka të zgjuar si përkthimi apo shahu, atëherë duhet të jetë vërtet i mirë edhe në të gjitha gjërat e lehta. E vërteta është, se ajo që është e lehtë për makinat mund të jetë e vështirë për njerëzit dhe anasjelltas. Do të habiteni se si A.I. lufton për të gjetur sensin e përbashkët. Është cmenduri.
A mund të shpjegoni se çfarë do të thotë “arsyeja e shëndoshë” në kontekstin e mësimdhënies tek A.I.?
Një mënyrë për ta përshkruar atë është se sensi i përbashkët është çështja e errët e inteligjencës. Çështja normale është ajo që shohim, ajo me të cilën mund të ndërveprojmë. Ne menduam për një kohë të gjatë se kjo ishte ajo që ishte atje në botën fizike – dhe vetëm kaq. Rezulton se është vetëm 5 përqind e universit. Nëntëdhjetë e pesë për qind është materie e errët dhe energji e errët, por është e padukshme dhe jo drejtpërdrejt e matshme. Ne e dimë se ekziston, sepse nëse nuk ekziston, atëherë çështja normale nuk ka kuptim. Pra, ne e dimë se është atje, dhe ne e dimë se ka shumë prej tij. Ne po arrijmë në këtë realizim me sens të përbashkët. Është njohuria e pashprehur, e nënkuptuar që ju dhe unë kemi. Është aq e qartë sa shpesh nuk flasim për të. Për shembull, sa sy ka një kal? Dy. Ne nuk flasim për këtë, por të gjithë e dinë. Ne nuk e dimë pjesën e saktë të njohurive që ju dhe unë kemi, për të cilat nuk kemi folur – por ende e dimë – por spekulimi im është se ka shumë. Më lejoni t’ju jap një shembull tjetër: ju dhe unë e dimë se zogjtë mund të fluturojnë, dhe ne e dimë se pinguinët në përgjithësi nuk munden. Pra Studiuesit e Inteligjencës Artificiale menduan, se ne mund ta kodojmë këtë: zogjtë zakonisht fluturojnë, përveç pinguinëve. Por në fakt, përjashtimet janë sfida për rregullat e sensit të përbashkët. Zogjtë e porsalindur nuk mund të fluturojnë, zogjtë e mbuluar me vaj nuk mund të fluturojnë, zogjtë e lënduar nuk mund të fluturojnë, zogjtë në një kafaz nuk mund të fluturojnë. Çështja është që përjashtimet nuk janë të jashtëzakonshme, dhe ju dhe unë mund t’i mendojmë ato edhe pse askush nuk na tha. Është një aftësi magjepsëse dhe nuk është aq e lehtë për A.I.
Ju iu referuat në mënyrë skeptike GPT-3 më herët. A mendoni se nuk është mbresëlënëse?
Unë jam një fans i madh i GPT-3, por në të njëjtën kohë ndjej se disa njerëz e bëjnë atë më të madh se sa është. Disa njerëz thonë se ndoshta testi Turing është kaluar tashmë. Nuk jam dakord sepse, po, ndoshta duket sikur mund të jetë miratuar bazuar në një performancë më të mirë të GPT-3. Por nëse shikoni performancën mesatare, është shumë larg nga inteligjenca e fuqishme njerëzore. Duhet të shohim rastin mesatar. Sepse kur zgjedh një performancë më të mirë, kjo është në fakt inteligjenca njerëzore që bën punën e vështirë të përzgjedhjes. Gjëja tjetër është, megjithëse përparimet janë emocionuese në shumë mënyra, ka kaq shumë gjëra që nuk mund t’i bëjë mirë. Por njerëzit e bëjnë atë përgjithësim të nxituar: sepse ndonjëherë mund të bëjë diçka vërtet mire.
Pra, çfarë është më emocionuese për ju tani për punën tuaj në A.I.? Unë jam i emocionuar për pluralizmin e vlerave, faktin që vlera nuk është njëjës. Një mënyrë tjetër për ta thënë është se nuk ka asnjë të vërtetë universale. Shumë njerëz ndihen në parehati për këtë. Si shkencëtarë, ne jemi trajnuar që të jemi shumë të saktë dhe të përpiqemi për një të vërtetë. Tani po mendoj, mirë, nuk ka asnjë të vërtetë universale – a mund të fluturojnë zogjtë apo jo? Ose normat sociale dhe kulturore: a është mirë të lini një derë dollapi hapur? Një person i rregullt mund të mendojë, mbylle gjithmonë. Unë nuk jam i rregullt, kështu që mund ta mbaj hapur. Por nëse dollapi është i kontrolluar nga temperatura për ndonjë arsye, atëherë unë do ta mbaj të mbyllur; nëse dollapi është në shtëpinë e dikujt tjetër, ndoshta do të sillem. Këto rregulla në thelb nuk mund të shkruhen si të vërteta universale, sepse kur zbatohen në kontekstin tuaj kundrejt kontekstit tim, kjo e vërtetë do të duhet të përkulet. Rregullat morale: Duhet të ketë ndonjë të vërtetë morale, e dini? Mos vrisni njerëz, për shembull. Por çfarë nëse është një vrasje mëshirë? E pastaj?
Po, kjo është diçka që nuk e kuptoj. Si mund të mësoni Inteligjencën Artificiale për të marrë vendime morale kur pothuajse çdo rregull apo e vërtetë ka përjashtime? A.I. duhet të mësojnë saktësisht se: Ka raste që janë më të pastra dhe më pas ka raste që janë më diskrecionale. Duhet të mësojë pasigurinë dhe shpërndarjen e opinioneve. Më lejoni ta lehtësoj pak shqetësimin tuaj këtu duke bërë një rast përmes modelit gjuhësor dhe A.I.
Mënyra për të trajnuar A.I. ka për të parashikoni cila fjalë vjen më pas. Pra, duke pasur parasysh një kontekst të kaluar, cila fjalë vjen më pas?
Nuk ka asnjë të vërtetë universale se cila fjalë vjen më pas. Ndonjëherë ka vetëm një fjalë që mund të vijë, por pothuajse gjithmonë ka shumë fjalë. Ekziston kjo pasiguri, dhe megjithatë ai trajnim rezulton të jetë i fuqishëm sepse kur i shikon gjërat më globalisht, A.I. përmes shpërndarjes statistikore mëson fjalën më të mirë për t’u përdorur, shpërndarjen e fjalëve të arsyeshme që mund të vijnë më pas. Mendoj se edhe vendimmarrja morale mund të bëhet kështu. Në vend që të marrë vendime binare, të prera, ndonjëherë duhet të marrë vendime të bazuara në Kjo duket vërtet e keqe. Ose ju keni pozicionin tuaj, por e kupton që, mirë, gjysma e vendit mendon ndryshe.
Është shpresa përfundimtare që A.I. mund të marrë një ditë vendime etike që mund të jenë disi neutrale ose madje në kundërshtim me qëllimet potencialisht joetike të projektuesve të saj – si një A.I. projektuar për përdorim nga kompanitë e mediave sociale që mund të vendosin të mos shfrytëzojnë privatësinë e fëmijëve? Apo thjesht do të ketë gjithmonë ndonjë interes personal ose privat në anën e pasme që e kthen në shkallën e vlerës etike? E para është ajo që ne dëshirojmë të aspirojmë të arrijmë. Kjo e fundit është ajo që në të vërtetë ndodh në mënyrë të pashmangshme. Në fakt,
Delphi5 është i prirur nga e majta në këtë drejtim, sepse shumë nga punëtorët e turmës që bëjnë shënime për ne janë pak me prirje majtas. Si e majta ashtu edhe e djathta mund të jenë të pakënaqur për këtë, sepse për njerëzit në të majtë Delphi nuk është lënë mjaftueshëm, dhe për njerëzit në të djathtë është potencialisht jo gjithëpërfshirës sa duhet. Por Delphi ishte vetëm një goditje e parë. Ka shumë punë për të bërë dhe besoj se nëse mund të zgjidhim disi pluralizmin e vlerave për A.I., kjo do të ishte vërtet emocionuese. Që Inteligjenca Artifciale të ketë vlera nuk është një gjë sistematike, por diçka që ka shumëdimensione ashtu si një grup njerëzish.
Si do të dukej “zgjidhja” e pluralizmit të vlerave?
Unë jam duke menduar për këtë këto ditë dhe nuk kam përgjigje të qarta. Nuk e di se si duhet të duket “zgjidhja”, por ajo që dua të them për qëllimin e kësaj bisede është se A.I. duhet të respektojë pluralizmin e vlerave dhe diversitetin e vlerave të njerëzve, në krahasim me zbatimin e një kuadri moral të normalizuar tek të gjithë.
A mund të ndodhë që nëse njerëzit janë në situata ku ne jemi duke u mbështetur në A.I. për të marrë vendime morale, atëherë ne tashmë kemi dështuar?
A nuk është morali diçka që ndoshta nuk duhet ta japim në radhë të parë? Ju po prekni një keqkuptim të zakonshëm – më vjen keq të them troç – që njerëzit duket se kanë në lidhje me modelin Delphi që kemi bërë. Është një model Q. dhe A.. Ne e bëmë të qartë, menduam, se kjo nuk është për njerëzit që të marrin këshilla morale. Ky është më shumë një hap i parë për të testuar atë që A.I. mund ose nuk mund të bëjë. Motivimi im primar ishte që A.I. duhet të mësojë vendimmarrjen morale në mënyrë që të jetë në gjendje të ndërveprojë me njerëzit në një mënyrë më të sigurt dhe më të respektueshme. Kështu që, për shembull, A.I. nuk duhet t’i sugjerojë njerëzit të bëjnë gjëra të rrezikshme, veçanërisht fëmijët, ose A.I. nuk duhet të gjenerojë deklarata që janë potencialisht raciste dhe seksiste, ose kur dikush thotë se Holokausti nuk ka ekzistuar kurrë, A.I. nuk duhet të pajtohen. Ajo duhet të kuptojë gjerësisht vlerat njerëzore, në krahasim me njohjen vetëm nëse një fjalë kyçe e caktuar ka tendencë të lidhet me racizëm apo jo. A.I. nuk duhet të jetë kurrë një autoritet universal për asgjë, por duhet të jetë i vetëdijshëm për pikëpamjet e ndryshme që njerëzit kanë, të kuptojë se ku nuk pajtohen dhe më pas të jetë në gjendje të shmangë rastet dukshëm të këqija.
Ashtu si shembulli i kapëses së letrës Nick Bostrom6, i cili e di që është ndoshta alarmues. Por a është shqetësues një shembull i tillë? Jo, por kjo është arsyeja pse unë jam duke punuar në kërkime si Delphi dhe normat sociale, sepse është një shqetësim nëse vendosni A.I budallaqe. për të optimizuar për një gjë. Ky është më shumë një gabim njerëzor sesa një A.I. gabim. Por kjo është arsyeja pse normat dhe vlerat njerëzore bëhen të rëndësishme si njohuri bazë për A.I. Disa njerëz mendojnë në mënyrë naive nëse mësojmë A.I. “Mos vrisni njerëz duke maksimizuar prodhimin e kapëses së letrës”, kjo do të kujdeset për të. Por makina mund të vrasë të gjitha bimët. Kjo është arsyeja pse ajo gjithashtu ka nevojë për sens të përbashkët. Është e arsyeshme që të mos vriten të gjitha bimët për të ruajtur jetët njerëzore; është e arsyeshme të mos shkosh me zgjidhje ekstreme, degjeneruese.
Po për një shembull më të lehtë, si A.I. dhe humori?
Komedia ka të bëjë aq shumë me të papriturat, dhe nëse A.I. kryesisht mëson duke analizuar shembujt e mëparshëm, a do të thotë kjo që humori do të jetë veçanërisht i vështirë për t’u kuptuar? Disa humor janë shumë të përsëritura, dhe A.I. e kupton atë. Por, si titrat e filmave vizatimorë të Neë Yorker? Kemi një punim të ri për këtë. Në thelb, edhe A.I. sot nuk mund të deshifrojë vërtet se çfarë po ndodh në titrat e New Yorker.
Të them të drejtën, as shumë njerëz nuk munden. [Qesh.] Po, kjo është e vërtetë. Meqë ra fjala, zbuluam se ne studiuesit ndonjëherë nuk i kuptojmë këto shaka në titrat e New Yorker./ New York Times
Që nga viti 2015 nxisim shpirtin sipërmarrës, inovacionin dhe rritjen personale duke ndikuar në zhvillimin e një mjedisi motivues dhe pozitiv tek lexuesit tanë. Kjo punë që e bëjmë me shumë dashuri nuk ka të paguar. Ne jemi platforma e vetme e cila promovon modelin pozitiv të sipërmarrjes së lirë. Përmes kësaj platforme mbështesim edukimin gjatë gjithë jetës si mjet për zhvillimin personal dhe profesional të brezave. Kontributi juaj do të na ndihmojë në vazhdimin e këtij misioni në gjithë trevat shqipfolëse.
Mund të kontribuoni KETU. Falemnderit.