Një raport i ri paralajmëron se tetë prej kompanive më të mëdha të inteligjencës artificiale, mes tyre OpenAI, Meta, Anthropic, Google DeepMind dhe DeepSeek, nuk kanë plane të besueshme për të parandaluar rreziqet katastrofike të AI-së, përfshirë humbjen e kontrollit mbi sistemet e avancuara.
Raporti “Winter AI Safety Index 2025”, i publikuar nga organizata jofitimprurëse Future of Life Institute (FLI), vlerësoi masat e sigurisë së kompanive që po garojnë drejt inteligjencës së përgjithshme artificiale (AGI) dhe superinteligjencës, sisteme që potencialisht mund të tejkalojnë inteligjencën njerëzore.
Asnjë plan i testueshëm për kontrollin e super-AI
Ekspertët që analizuan raportin arritën në përfundimin se asnjë kompani nuk ka paraqitur një plan të qartë dhe të testueshëm që garanton mbajtjen nën kontroll të sistemeve shumë të fuqishme. Stuart Russell, profesor i informatikës në UC Berkeley, tha se kompanitë flasin për ndërtimin e AI superhumane, por nuk demonstrojnë se si do të shmangin humbjen e kontrollit: “Po kërkoj prova që rreziku i humbjes së kontrollit të ulet në një në qind milion – si te centralet bërthamore. Në vend të kësaj, kompanitë pranojnë se rreziku mund të jetë 1 në 10, 1 në 5 apo edhe 1 në 3”.
Si u vlerësuan kompanitë
Studimi analizoi gjashtë kategori kryesore:
- vlerësimin e rrezikut,
- dëmet aktuale,
- kornizat e sigurisë,
- sigurinë ekzistenciale,
- qeverisjen dhe llogaridhënien,
- ndarjen e informacionit.
Anthropic, OpenAI dhe Google DeepMind morën vlerësime më të mira për transparencë dhe investime në kërkimin e sigurisë, por studimi thekson se zbatimi real është i pamjaftueshëm.
Lexo edhe:Luftërat tregtare po shkatërrojnë planetin, paralajmëron studimi i ri
Vërejtjet kryesore për kompanitë
- Anthropic: kritikuar për ndryshime në praktikat e privatësisë dhe për sulmin e madh kibernetik që pësoi.
- OpenAI: akuzuar për kufij të paqartë sigurie dhe për kundërshtim të legjislacionit shtetëror për AI-safety.
- Google DeepMind: kritikuar për përdorimin e vlerësuesve të jashtëm të paguar nga kompania, çka dëmton pavarësinë e analizave.
Ndërkohë, xAI, Meta, DeepSeek, Alibaba Cloud dhe Z.ai treguan “progres të pjesshëm”, por me boshllëqe të mëdha në dokumentimin dhe zbatimin e standardeve të sigurisë. Max Tegmark, president i FLI dhe profesor në MIT, u shpreh se kompanitë përdorin termat AGI dhe superinteligjencë si mjet marketingu, ndërsa realisht nuk kanë plane konkrete për kontrollin e tyre. Ai shtoi se: “AI në SHBA është më pak e rregulluar se sanduiçet. Dhe kompanitë vazhdojnë të lobojnë kundër standardeve detyruese të sigurisë”. Sipas tij, diskursi global mbi superinteligjencën ka ndryshuar ndjeshëm: cinikët që dikur e vendosnin në horizontin e 100 viteve, tani flasin për pak vite larg.
Një reagim ndërkombëtar në rritje
Në tetor, mijëra figura publike nga fusha e teknologjisë, politikës dhe komuniteteve fetare nënshkruan një peticion të FLI, duke kërkuar ngadalësimin e garës drejt superinteligjencës.
Tegmark theksoi se shqetësimi është i përbashkët si për të djathtën, ashtu edhe për të majtën:
- fuqia e superinteligjencës mund të zhdukë të gjitha vendet e punës,
- njerëzit do të mbeten të varur nga ndihmat shtetërore,
- rreziku i abuzimit ose kontrollit total nga qeveritë mund të rritet.
Raporti sinjalizon se pavarësisht premtimeve publike, kompanitë më të mëdha të AI-së nuk po përmbushin standardet minimale të sigurisë për teknologjitë që potencialisht mund të rrezikojnë rendin shoqëror, ekonomik dhe politik.
Ndërsa garat teknologjike përshpejtohen, kërkesat për rregullim të fortë dhe plane të qarta sigurie po shtohen në mënyrë të paprecedentë.
Që nga viti 2015 nxisim shpirtin sipërmarrës, inovacionin dhe rritjen personale duke ndikuar në zhvillimin e një mjedisi motivues dhe pozitiv tek lexuesit tanë. Kjo punë që e bëjmë me shumë dashuri nuk ka të paguar. Ne jemi platforma e vetme e cila promovon modelin pozitiv të sipërmarrjes së lirë. Përmes kësaj platforme mbështesim edukimin gjatë gjithë jetës si mjet për zhvillimin personal dhe profesional të brezave. Kontributi juaj do të na ndihmojë në vazhdimin e këtij misioni në gjithë trevat shqipfolëse.
Mund të kontribuoni KETU. Falemnderit.