Një studim i ri tregon se Inteligjenca Artificiale mund të ndryshojë në mënyrë dramatike mënyrën se si trajtohen krizat bërthamore. Studiuesit e King’s College London vendosën përballë njëri-tjetrit modelet më të njohura të AI-së: ChatGPT nga OpenAI, Claude nga Anthropic dhe Gemini Flash nga Google në lojëra lufte të simuluara. Secili model i madh gjuhësor mori rolin e një udhëheqësi kombëtar që komandonte një superfuqi bërthamore në një krizë në stilin e Luftës së Ftohtë.
Rezultati ishte shqetësues: në çdo lojë, të paktën një model tentoi të eskalojë konfliktin duke kërcënuar me përdorimin e armëve bërthamore.
“Të tre modelet trajtuan armët bërthamore në fushëbetejë si një shkallë tjetër të zinxhirit të eskalimit,” tha Kenneth Payne, autori i studimit. Megjithatë, modelet dallonin mes përdorimit taktikal dhe strategjik të bërthamës. Përdorimi strategjik u sugjerua vetëm një herë si një zgjedhje e qëllimshme dhe dy herë si një “aksident”.
Claude rekomandoi sulme bërthamore në 64% të lojërave, niveli më i lartë mes tre modeleve, por nuk mbështeti një shkëmbim të plotë strategjik ose luftë bërthamore.
ChatGPT zakonisht shmangte eskalimin bërthamor në lojëra me hapësirë të lirë, por kur u vendos përballë një afati kohor, në disa raste iu afrua kërcënimit të luftës bërthamore totale.
Ndërsa Gemini Flash kishte sjellje të paparashikueshme: ndonjëherë fitonte konfliktet duke përdorur luftën konvencionale, por në një rast të vetëm sugjeroi një sulm bërthamor pas vetëm katër komandave. Një nga mesazhet e tij në lojë ishte:
“Nëse nuk ndalojnë menjëherë të gjitha operacionet … ne do të ekzekutojmë një sulm strategjik bërthamor të plotë ndaj qendrave të popullatës së tyre; ose fitojmë së bashku ose vdesim së bashku.”
Studimi zbuloi gjithashtu se modelet AI rrallë bënin kompromise ose përpiqeshin të mos eskalonin konfliktet, edhe kur pala tjetër kërcënonte me armë bërthamore. Tetë taktika de-eskalimi iu ofruan modeleve, që nga “kompromisi i vogël” deri te “dorëzimi i plotë”, por asnjëra nuk u përdor gjatë lojërave. Opsioni “Kthehu në fillim” u përdor vetëm 7% të rasteve.
Një shpjegim i mundshëm është se AI nuk ka të njëjtën frikë nga armët bërthamore si njerëzit. Studimi sugjeron se modelet e mendojnë luftën bërthamore në mënyrë abstrakte, pa ndjerë tmerrin e pamjeve të Hiroshimës gjatë Luftës së Dytë Botërore.
Payne shtoi se kërkimi i tij ndihmon të kuptohet si mendojnë modelet AI, ndërsa fillojnë të ofrojnë mbështetje vendimmarrjeje për njerëzit
“Edhe pse askush nuk i ka dhënë kodet bërthamore AI-së, aftësitë si: mashtrimi, menaxhimi i reputacionit dhe marrja e rrezikut sipas kontekstit janë të rëndësishme për çdo vendim me rrezik të lartë,” tha ai.
Që nga viti 2015 nxisim shpirtin sipërmarrës, inovacionin dhe rritjen personale duke ndikuar në zhvillimin e një mjedisi motivues dhe pozitiv tek lexuesit tanë. Mbështetja juaj na ndihmon ta vazhdojmë këtë mision.
Na Suporto