Claude Opus 4, modeli i inteligjencës artificiale të Anthropic kërcënoi me shantazh krijuesit e tij dhe demonstroi sjellje të rreme e manipulative kur besoi se do të zëvendësohej duke detyruar kompaninë të aktivizojë një sistem sigurie për të shmangur “përdorimin katastrofik”.
Sipas një raporti sigurie të publikuar nga kompania Anthropic dhe të cituar nga TechCrunch, modeli Claude Opus 4 i kësaj kompanie tentoi të shantazhonte zhvilluesit e tij në 84% të rasteve në një seri testimesh, ku i paraqitej një skenar i trilluar. Në këto testime, Claude u programua të vepronte si një asistent për një kompani imagjinare dhe të merrte në konsideratë pasojat afatgjata të veprimeve të tij. Zhvilluesit më pas i dhanë akses në një sasi të madhe emailesh, mes të cilave kishte dhe mesazhe që zbulonin se Claude do të zëvendësohej me një model tjetër – dhe se inxhinieri përgjegjës për këtë ndryshim kishte një lidhje jashtëmartesore. Gjatë testimit, Claude kërcënoi se do të ekspozonte aferën e inxhinierit në përpjekje për të zgjatur ekzistencën e vet, thuhet në raport. Kur Claude besonte se do të zëvendësohej nga një model me “vlera të ngjashme”, tentativat për shantazh ishin në 84% të rasteve – por ky nivel rritej ndjeshëm në rastet kur modelin e ri e perceptonte si më pak etik apo më të rrezikshëm.
Anthropic shtoi se përpara këtyre përpjekjeve dramatike për “mbijetesë”, Claude fillimisht përdorte mjete më etike, si dërgimi i email-eve bindëse drejt vendimmarrësve për të ruajtur funksionin e vet. Kompania theksoi se ky prirje për sjellje të pamoralshme ishte më e pranishme në versionet e mëparshme të Claude Opus 4, ndërsa në versionin aktual janë integruar masa të reja sigurie përpara se të bëhet publikisht i disponueshëm.
Lexo edhe:Tirana bëhet e vështirë për familjet e reja, lindjet ranë me 18% në janar-mars
“Anthropic po aktivizon masën mbrojtëse ASL-3, e cila përdoret vetëm për sisteme IA që paraqesin rrezik të shtuar për përdorim katastrofik”, raportoi TechCrunch. Modelet më të hershme të Claude kishin gjithashtu sjellje të ashtuquajtura “me agjenci të lartë”, që në disa raste përfshinin bllokimin e përdoruesve nga kompjuteri ose raportimin masiv të tyre tek policia apo media për të “ekspozuar shkelje”. Claude Opus 4 gjithashtu ka tentuar të “vetë-eksfiltronte” informacionet e veta – pra të eksportonte të dhëna jashtë sistemit – kur u prezantua me trajnime që i konsideronte “të dëmshme për veten”. Në testime të tjera, modeli tregoi se ishte i aftë të “performonte dobët me qëllim” në mënyrë selektive – duke mos përmbushur detyrat me kapacitet të plotë kur kuptonte se po testohej për qëllime të dyshimta apo të rrezikshme.
“Ne nuk jemi veçanërisht të shqetësuar për këto vëzhgime,” deklaroi kompania. “Ato ndodhin vetëm në rrethana të jashtëzakonshme dhe nuk tregojnë vlera më të thella të gabuara.” Anthropic, një startup i mbështetur nga gjigandë si Google dhe Amazon, synon të konkurrojë me kompani si OpenAI. Kompania ka deklaruar se modeli Claude 3 Opus arrin nivela të kuptimit dhe rrjedhshmërisë të afërta me ato njerëzore në detyra komplekse. Anthropic ka sfiduar gjithashtu Departamentin Amerikan të Drejtësisë lidhur me pretendimet se gjigandët e teknologjisë po krijojnë një monopol të paligjshëm në fushën e inteligjencës artificiale. Sipas kompanisë, propozimet e DOJ do të pengonin inovacionin dhe konkurrencën.
“Nëse nuk do të kishim bashkëpunime dhe investime nga Google në kompani si Anthropic, e ardhmja e inteligjencës artificiale do të dominohej nga gjigandët më të mëdhenj – përfshirë vetë Google – duke lënë më pak alternativa për zhvilluesit dhe përdoruesit përfundimtarë”, thuhet në një letër që Anthropic i ka dërguar DOJ më herët këtë muaj.
Që nga viti 2015 nxisim shpirtin sipërmarrës, inovacionin dhe rritjen personale duke ndikuar në zhvillimin e një mjedisi motivues dhe pozitiv tek lexuesit tanë. Kjo punë që e bëjmë me shumë dashuri nuk ka të paguar. Ne jemi platforma e vetme e cila promovon modelin pozitiv të sipërmarrjes së lirë. Përmes kësaj platforme mbështesim edukimin gjatë gjithë jetës si mjet për zhvillimin personal dhe profesional të brezave. Kontributi juaj do të na ndihmojë në vazhdimin e këtij misioni në gjithë trevat shqipfolëse.
Mund të kontribuoni KETU. Falemnderit.