Kompania amerikane e inteligjencës artificiale Anthropic ka afat deri në orën 17:01 (ET) për të pranuar kërkesat e Pentagonit, përndryshe rrezikon të etiketohet si “rrezik për zinxhirin e furnizimit”, një përcaktim që zakonisht u jepet kompanive të dyshuara si të lidhura me kundërshtarë të huaj.
Pentagoni përdor sistemin e inteligjencës artificiale Claude, të zhvilluar nga Anthropic, në rrjetet e tij të klasifikuara. Por kërkesa e tij është që ta përdorë këtë teknologji për “të gjitha qëllimet e ligjshme”, pa kufizime shtesë nga kompania.
Nga ana tjetër, Anthropic ka vendosur dy kufij të qartë:
- Claude nuk duhet të përdoret në armë autonome.
- Claude nuk duhet të përdoret për survejim masiv të qytetarëve amerikanë.
CEO i kompanisë, Dario Amodei, deklaroi se kompania nuk do të tërhiqet nga këto parime. “Kërcënimet nuk e ndryshojnë qëndrimin tonë. Nuk mund ta pranojmë këtë kërkesë me ndërgjegje të pastër,” u shpreh ai. Nga ana tjetër, zëdhënësi i Pentagonit, Sean Parnell, theksoi se Departamenti i Mbrojtjes nuk ka interes të përdorë AI për survejim apo armë autonome, por nuk mund të lejojë që një kompani private të diktojë mënyrën si merren vendime operacionale.
Si nisi përplasja?
Tensionet kulmuan pas një takimi mes Sekretarit të Mbrojtjes, Pete Hegseth, dhe Amodei-t në Pentagon. Edhe pse takimi u përshkrua si korrekt, Pentagoni jo vetëm që kërcënoi të anulonte kontratën 200 milionë dollarëshe me Anthropic, por edhe ta shpallte kompaninë “rrezik për zinxhirin e furnizimit”. Claude ishte modeli i parë i AI që u përdor në rrjetet e klasifikuara të ushtrisë amerikane. Kontrata, me vlerë deri në 200 milionë dollarë, u nënshkrua verën e kaluar. Ndërkohë, kompani të tjera si OpenAI kanë bashkëpunime me Pentagonin vetëm në rrjete jo të klasifikuara. Sipas politikës së përdorimit të pranueshëm të Anthropic, janë të ndaluara përdorimet për survejim masiv dhe për armë autonome – pikërisht pikat që janë bërë burim konflikti.
Pse është kaq e rëndësishme kjo çështje?
Për Pentagonin, problemi nuk është vetëm përdorimi aktual i teknologjisë, por fakti që nuk dëshiron të kufizohet nga rregulla të vendosura nga një kompani private. Sipas zyrtarëve amerikanë, në një situatë krize kombëtare, nuk mund të ndalet puna për të kërkuar leje për të hequr “guardrails”.
Nga ana tjetër, për Anthropic rreziku më i madh nuk është humbja e kontratës 200 milionë dollarëshe – pasi kompania vlerësohet rreth 380 miliardë dollarë – por etiketimi si “rrezik për zinxhirin e furnizimit”. Kjo do të thoshte se çdo kompani që punon me ushtrinë amerikane do të duhej të provonte se nuk ka asnjë lidhje me Anthropic. Një pjesë e madhe e klientëve të saj janë kompani të mëdha me kontrata qeveritare, çka mund të ndikojë seriozisht në biznesin e saj. CEO i Nvidia, Jensen Huang, u shpreh se shpreson që palët të arrijnë një marrëveshje, por shtoi se nëse kjo nuk ndodh, ka kompani të tjera që mund të plotësojnë nevojat e Pentagonit.
Çfarë ndodh pas orës 17:01?
Nëse Anthropic nuk pranon kërkesat, Pentagoni ka paralajmëruar se do ta anulojë kontratën dhe do ta shpallë kompaninë rrezik. Nuk është e qartë nëse kjo do të bëhet publikisht menjëherë, apo nëse sistemi Claude do të hiqet menjëherë nga rrjetet ushtarake.
Një skenar i tillë do të ishte një përshkallëzim i paprecedentë ndaj një prej modeleve më të avancuara të inteligjencës artificiale në botë. Disa ekspertë argumentojnë se në një kohë kur SHBA e konsideron garën me Kinën në AI si të krahasueshme me garën hapësinore të Luftës së Ftohtë, goditja ndaj një “kampioni kombëtar” të teknologjisë do të ishte një veprim i rrezikshëm.
Në thelb, kjo përplasje nuk është thjesht për një kontratë. Është një betejë mbi kufijtë etikë të inteligjencës artificiale, rolin e shtetit në sigurinë kombëtare dhe fuqinë negociuese të kompanive teknologjike në një epokë ku AI po bëhet strategjike për çdo vend.
Që nga viti 2015 nxisim shpirtin sipërmarrës, inovacionin dhe rritjen personale duke ndikuar në zhvillimin e një mjedisi motivues dhe pozitiv tek lexuesit tanë. Mbështetja juaj na ndihmon ta vazhdojmë këtë mision.
Na Suporto