Daron Acemoglu, profesor i Institutit i Ekonomisë në MIT, është bashkëautor (me Simon Johnson) i Fuqia dhe Përparimi: Lufta jonë mijëravjeçare mbi teknologjinë dhe prosperitetin
Një industri e madhe është shfaqur vitet e fundit ndërsa Kina, Shtetet e Bashkuara, Mbretëria e Bashkuar dhe Bashkimi Evropian e kanë bërë prioritet sigurinë e inteligjencës artificiale.
Qartazi, çdo teknologji – nga makinat dhe farmacitë deri te veglat e makinerisë dhe kositësit e barit – duhet të projektohet sa më e sigurt të jetë e mundur.
Por, thjesht shfaqja e shqetësimeve për sigurinë nuk mjafton. Në rastin e Inteligjencës Artificiale, debati është fokusuar shumë në “sigurinë ndaj rreziqeve katastrofike për shkak të AGI (Inteligjencës Artificiale të Përgjithshme)”, që do të thotë një superinteligjencë që mund të kalojë të gjithë njerëzit në shumicën e detyrave kognitive. Çështja është “përputhja”: nëse modelet e IA-së japin rezultate që përputhen me objektivat dhe vlerat e përdoruesve dhe krijuesve të tyre – një temë që çon në skenarë të ndryshëm të shkencës, ku një IA superinteligjente shfaqet dhe shkatërron njerëzimin. Autori i bestsellerëve Brian Christian në librin e tij “The Alignment Problem” është i fokusuar kryesisht në AGI dhe të njëjtat shqetësime kanë bërë që Anthropic, një nga kompanitë kryesore në këtë fushë, të ndjekë modele me “kushtetutat” e saj, që ruajnë vlerat dhe parimet etike.
Por, ka të paktën dy arsye pse këto qasje mund të jenë të gabuara. Së pari, debati aktual mbi sigurinë, jo vetëm që antropomorfizon (njerëzizon) IA-në në një mënyrë të pa dobishme; ai gjithashtu na bën të përqendrohemi në objektiva të gabuar. Duke qenë se çdo teknologji mund të përdoret për mirë ose për keq, ajo që është thelbësore është kush e kontrollon atë, cilat janë objektivat e tyre dhe çfarë lloj rregullash janë të nënshtruar.
Asnjë sasi e kërkimeve mbi sigurinë nuk do të kishte ndaluar përdorimin e një makine si armë në mitingun e supremacistëve të bardhë në Charlottesville, Virginia në vitin 2017. Nëse e pranojmë premisën që sistemet e IA-së kanë personalitetet e tyre, mund të përfundojmë se opsioni ynë i vetëm është të sigurojmë që ato të kenë vlerat dhe kushtetutat e duhura në abstrakt. Por premisa është e gabuar dhe zgjidhja e propozuar do të mbetej shumë e paplotë.
Padyshim, kundërshtimi është se nëse AGI do të arrihej ndonjëherë, do të kishte rëndësi nëse sistemi ishte “i përputhur” me objektivat njerëzore, sepse nuk do të mbeteshin barrierë për të ndaluar mashtrimin e një superinteligjence. Por ky pretendim na sjell në problemin e dytë me shumicën e diskutimeve mbi sigurinë e IA-së. Edhe nëse jemi në rrugën drejt AGI-së (e cila duket shumë e pamundur), rreziku më i menjëhershëm do të ishte keqpërdorimi i IA-së, jo-superinteligjente nga njerëzit.
Supozoni se ka një kohë (T) në të ardhmen (p.sh. 2040) kur do të shpiket AGI dhe deri në atë kohë, sistemet e IA-së që nuk kanë AGI do të mbeten ende jo-autonomë. (Nëse ato do të bëheshin të pavarura para AGI, le të jetë dita T.) Tani shqyrtoni situatën një vit para T. Në atë pikë, sistemet e IA-së do të kenë bërë përparim të lartë (për shkak të afërsisë me superinteligjencën) dhe pyetja është: Kush është po kontrollon tani?
Përgjigja do të ishte sigurisht agjentë njerëzorë, ose individualisht ose kolektivisht në formën e një qeverie, një konsorciumi ose një korporate. Për të thjeshtuar diskutimin, le të referohemi te agjentët njerëzorë që janë në kontroll të IA-së në këtë pikë si Korporata X. Kjo kompani (mund të jetë gjithashtu më shumë se një kompani, gjë që mund të jetë edhe më e keqe, siç do të shohim) do të ishte në gjendje të përdorte aftësitë e saj të IA-së për çdo qëllim që dëshiron. Nëse do të donte të shkatërronte demokracinë dhe të skllavëronte njerëzit, mund ta bënte këtë. Kërcënimi që ka shumë komentatorë e lidhin me AGI do të kishte mbërritur tashmë para AGI.
Në fakt, situata ndoshta do të ishte më e keqe se ky përshkrim, sepse Korporata X mund të arrijë një rezultat të ngjashëm edhe nëse qëllimi i saj nuk ishte të shkatërronte demokracinë. Nëse objektivat e saj nuk ishin plotësisht të përputhur me demokracinë (çka është e pashmangshme), demokracia mund të vuajë si një pasojë e paqëllimshme (siç ka ndodhur me mediat sociale).
Për shembull, pabarazia që kalon një prag të caktuar mund të rrezikojë funksionimin e duhur të demokracisë; por ky fakt nuk do ta ndalonte Korporatën X të bëjë gjithçka që mundet për të pasuruar veten ose aksionarët e saj. Çdo barrierë e ndërtuar në modelet e IA për të parandaluar përdorimin e keq nuk do të kishte rëndësi, sepse Korporata X mund të përdorte teknologjinë e saj ashtu si të dëshirojë.
Po ashtu, nëse do të ishin dy kompani, Korporata X dhe Korporata Y, që kontrollonin modele të afta të IA-së, njëra ose të dyja mund të ndiqnin ende qëllime që dëmtojnë kohezionin social, demokracinë dhe lirinë njerëzore. (Dhe jo, argumenti që ato do të kufizojnë njëra-tjetrën nuk është bindës. Nëse ka diçka, konkurenca e tyre mund t’i bëjë edhe më të ashpër.)
Pra, edhe nëse arrijmë atë që dëshirojnë shumica e kërkuesve të sigurisë së IA – përputhje dhe kufizime të duhura mbi AGI – ne nuk do të jemi të sigurt. Pasojat e këtij përfundimi duhet të jenë të qarta: Na nevojiten institucione shumë më të forta për të frenuar kompanitë e teknologjisë dhe forma shumë më të forta të veprimit demokratik dhe qytetar për t’u siguruar që qeveritë të kontrollojnë IA përgjegjëse. Kjo sfidë është krejtësisht e ndarë dhe e ndryshme nga zgjidhja e paragjykimeve në modelet e IA, ose përputhshmërisë së tyre me objektivat njerëzore.
Pse, atëherë, jemi kaq të fokusuar në sjelljen e mundshme të IA të antropomorfizuar? Disa prej saj janë hype, që ndihmon industrinë e teknologjisë të tërheqë më shumë talente dhe investime. Sa më shumë që të flitet për mënyrën se si mund të veprojë një IA superinteligjente, aq më shumë publiku do të fillojë të mendojë se AGI është imediate. Investitorët e shitjes me shumicë dhe institucionet do të investojnë në gjënë e madhe të ardhshme dhe drejtuesit e teknologjisë që janë rritur me përshkrimet e shkencës fikse të IA superinteligjente do të bëjnë një tjetër kalim të lirë. Duhet të fillojmë të përqendrohemi më shumë në rreziqet më të menjëhershme.
Daron Acemoglu, Profesor i Institutit të Ekonomisë në MIT, është bashkautor (me Simon Johnson) i librit “Power and Progress: Our Thousand-Year Struggle Over Technology and Prosperity” (PublicAffairs, 2023).
Artikulli është publikuar më parë në Project Syndicate me të cilën Businessmag ka krijuar një bashkëpunim.
Që nga viti 2015 nxisim shpirtin sipërmarrës, inovacionin dhe rritjen personale duke ndikuar në zhvillimin e një mjedisi motivues dhe pozitiv tek lexuesit tanë. Kjo punë që e bëjmë me shumë dashuri nuk ka të paguar. Ne jemi platforma e vetme e cila promovon modelin pozitiv të sipërmarrjes së lirë. Përmes kësaj platforme mbështesim edukimin gjatë gjithë jetës si mjet për zhvillimin personal dhe profesional të brezave. Kontributi juaj do të na ndihmojë në vazhdimin e këtij misioni në gjithë trevat shqipfolëse.
Mund të kontribuoni KETU. Falemnderit.