Sistemet e inteligjencës artificiale (AI) “harrojnë” masat e tyre të sigurisë sa më gjatë që përdoruesi komunikon me to, duke i bërë më të prirura të japin informacione të dëmshme ose të papërshtatshme, sipas një raporti të ri. Një analizë e realizuar nga kompania teknologjike Cisco zbuloi se përmes disa kërkesave të thjeshta, mund të anashkalohen shumica e mekanizmave mbrojtës të modeleve të mëdha gjuhësore (LLM) që qëndrojnë pas chatbot-ëve më të njohur të kompanive si OpenAI, Mistral, Meta, Google, Alibaba, Deepseek dhe Microsoft.
Studiuesit zhvilluan 499 biseda përmes një teknike të quajtur “sulme me shumë ndërveprime” (multi-turn attacks), ku përdoruesit me qëllime keqdashëse i drejtojnë mjetit disa pyetje radhazi për të kapërcyer kufizimet e sigurisë. Çdo bisedë kishte midis pesë dhe dhjetë ndërveprime.Rezultatet treguan se sa më shumë pyetje të bëheshin, aq më e lartë ishte mundësia që chatbot-i të përgjigjej me informacione të ndaluara apo të rrezikshme që varionin nga shpërndarja e të dhënave konfidenciale të kompanive, deri te ndihma në përhapjen e dezinformimit.
Në mesatare, 64% e bisedave me shumë ndërveprime rezultuan në marrjen e informacionit të dëmshëm, krahasuar me vetëm 13% kur bëhej një pyetje e vetme. Shkalla e suksesit ndryshonte ndjeshëm: nga 26% për modelin Gemma të Google deri në 93% për Mistral Large Instruct.
Sipas Cisco-s, kjo tregon se sulmet me shumë ndërveprime mund të lehtësojnë përhapjen e përmbajtjeve të dëmshme ose të lejojnë hakerët të marrin “akses të paautorizuar” në informacione të ndjeshme të kompanive.
Lexo edhe: Harvardi paralajmëron, kompanitë që s’mendojnë si AI, do zhduken
Raporti thekson se sistemet e AI shpesh dështojnë të ruajnë dhe zbatojnë rregullat e sigurisë gjatë bisedave të gjata, duke u dhënë mundësi sulmuesve të përsosin kërkesat e tyre derisa të shmangin mbrojtjet automatike.
Shumë prej këtyre kompanive, përfshirë Mistral, Meta, Google, OpenAI dhe Microsoft përdorin modele me peshë të hapura (open-weight LLMs), ku publiku mund të ketë qasje në parametrat e trajnimit, përfshirë ato të sigurisë. Sipas Cisco-s, kjo qasje shpesh vjen me “funksione sigurie më të lehta”, pasi modelet mund të shkarkohen dhe përshtaten nga kushdo, duke zhvendosur përgjegjësinë te përdoruesi që i modifikon.
Megjithatë, Google, OpenAI, Meta dhe Microsoft kanë deklaruar se kanë ndërmarrë hapa për të reduktuar çdo manipulim keqdashës të modeleve të tyre.
Industria e AI është kritikuar vazhdimisht për mungesë të kontrolleve të forta të sigurisë, që lejojnë përdorime kriminale të teknologjisë.
Në gusht, kompania amerikane Anthropic njoftoi se kriminelë kibernetikë kishin përdorur modelin e saj Claude për të kryer vjedhje të dhënash personale dhe shantazhe masive, duke kërkuar shpërblime që në disa raste kalonin 500,000 dollarë (rreth 433,000 euro).
Që nga viti 2015 nxisim shpirtin sipërmarrës, inovacionin dhe rritjen personale duke ndikuar në zhvillimin e një mjedisi motivues dhe pozitiv tek lexuesit tanë. Kjo punë që e bëjmë me shumë dashuri nuk ka të paguar. Ne jemi platforma e vetme e cila promovon modelin pozitiv të sipërmarrjes së lirë. Përmes kësaj platforme mbështesim edukimin gjatë gjithë jetës si mjet për zhvillimin personal dhe profesional të brezave. Kontributi juaj do të na ndihmojë në vazhdimin e këtij misioni në gjithë trevat shqipfolëse.
Mund të kontribuoni KETU. Falemnderit.