Google ka zbuluar zyrtarisht grupin e parë të cenueshmërive të sigurisë të identifikuara nga një prej agjentëve të saj më të avancuar me inteligjencë artificiale.
Të hënën, Heather Adkins, nënkryetare e sigurisë në Google, njoftoi se kërkuesi i dobësive Big Sleep, një agjent me bazë në modele të mëdha gjuhësore (LLM), i zhvilluar nga DeepMind në bashkëpunim me ekipin elitar të hacker-ëve të Google, Project Zero kishte zbuluar dhe raportuar 20 probleme sigurie në programe të ndryshme open-source.
Big Sleep ka identifikuar cenueshmëri kryesisht në software të hapur dhe shumë të përdorur, si biblioteka e zërit dhe videos FFmpeg dhe paketa për redaktimin e imazheve ImageMagick.
Megjithatë, duke qenë se këto cenueshmëri ende nuk janë rregulluar, detaje mbi ndikimin dhe ashpërsinë e tyre nuk janë bërë publike. Google nuk ka dhënë ende specifikime të mëtejshme, në përputhje me politikën standarde të ruajtjes së konfidencialitetit derisa defektet të riparohen. Vetë fakti që Big Sleep i identifikoi këto probleme është domethënës, ai tregon se këto mjete të bazuara në inteligjencë artificiale po japin rezultate konkrete, edhe pse në këtë rast përfshihet edhe ndërhyrja njerëzore.“Për të siguruar raporte cilësore dhe të zbatueshme, përpara se të raportohen ne përfshijmë një ekspert njerëzor në proces. Por çdo cenueshmëri është zbuluar dhe riprodhuar në mënyrë të pavarur nga agjenti AI,” tha për TechCrunch zëdhënësja e Google, Kimberly Samra.
Në një postim në rrjetin X, Royal Hansen, nënkryetar i inxhinierisë në Google, shkroi se zbulimet e Big Sleep “shënojnë një kufi të ri në zbulimin e automatizuar të cenueshmërive”.
Lexo edhe: Rreth 26 kompani teknologjike nënshkruajnë Kodin e BE-së për Inteligjencën Artificiale
Mjetet e bazuara në LLM që kërkojnë dhe gjejnë cenueshmëri tashmë janë realitet. Përveç Big Sleep, në këtë fushë dallohen edhe RunSybil dhe XBOW.
Në fakt, XBOW ka marrë vëmendje të madhe kohët e fundit pasi u rendit në krye të një prej tabelave të rezultateve në platformën e njohur të shpërblimeve për raportimin e defekteve, HackerOne. Edhe pse raportet e tilla mbështeten në AI, është bërë praktikë që çdo raport të verifikohet nga një njeri përpara se të konsiderohet i vlefshëm, ashtu siç ndodhi edhe me Big Sleep.
Vlad Ionescu, bashkëthemelues dhe drejtor i teknologjisë në startup-in RunSybil, i cili zhvillon mjetet AI për gjetjen e cenueshmërive, tha për TechCrunch se Big Sleep është “një projekt legjitim”, duke shtuar: “Ka një arkitekturë të mirë, njerëz kompetentë pas tij, Project Zero ka përvojë të thellë në gjetjen e cenueshmërive, dhe DeepMind ka fuqinë dhe burimet e nevojshme për ta realizuar.”
Por ndërkohë që këto mjete premtojnë shumë, ato kanë edhe kufizime të rëndësishme. Shumë zhvillues të softuerëve open-source janë ankuar se raportet e krijuara nga AI janë shpesh “halucinacione”, pra të pavërteta.
“Ky është problemi me të cilin po përballen njerëzit,” tha më herët Ionescu për TechCrunch. “Po marrim shumë gjëra që duken si ar, por në të vërtetë janë thjesht mbeturina.”
Që nga viti 2015 nxisim shpirtin sipërmarrës, inovacionin dhe rritjen personale duke ndikuar në zhvillimin e një mjedisi motivues dhe pozitiv tek lexuesit tanë. Kjo punë që e bëjmë me shumë dashuri nuk ka të paguar. Ne jemi platforma e vetme e cila promovon modelin pozitiv të sipërmarrjes së lirë. Përmes kësaj platforme mbështesim edukimin gjatë gjithë jetës si mjet për zhvillimin personal dhe profesional të brezave. Kontributi juaj do të na ndihmojë në vazhdimin e këtij misioni në gjithë trevat shqipfolëse.
Mund të kontribuoni KETU. Falemnderit.