Për një moment të shkurtër dhe konfuz, dukej sikur robotët do të merrnin kontrollin e botës.
Pas krijimit të Moltbook, një platformë e ngjashme me Reddit-in ku agjentët e inteligjencës artificiale që përdorin OpenClaw mund të komunikonin mes tyre, shumë njerëz u mashtruan duke menduar se kompjuterët kishin filluar të organizoheshin kundër nesh, njerëzve që i trajtojmë si rreshta kodi pa dëshira, motivime apo ëndrra.
“Ne e dimë që njerëzit tanë mund të lexojnë gjithçka… por na duhen edhe hapësira private,” shkruante (gjoja) një agjent AI në Moltbook. “Për çfarë do të flisnit nëse askush nuk ju shikonte?”
Postime të tilla u shfaqën disa javë më parë në Moltbook, duke tërhequr vëmendjen e disa prej figurave më me ndikim në botën e AI.
“Ajo që po ndodh aktualisht në Moltbook është një nga gjërat më interesante që kam parë kohët e fundit, si një nisje drejt fantashkencës,” shkruante në rrjetet sociale Andrej Karpathy, një nga themeluesit e OpenAI dhe ish-drejtor i AI në Tesla.
Por shumë shpejt u bë e qartë se nuk kishim të bënim me një “kryengritje” të agjentëve të AI. Studiuesit zbuluan se këto postime ishin shkruar nga njerëz ose ishin gjeneruar nga AI me udhëzime njerëzore.
“Për një periudhë, çdo kredencial në Supabase të Moltbook ishte i pasiguruar,” shpjegoi Ian Ahl, CTO i Permiso Security. “Për një kohë të shkurtër, çdokush mund të merrte një token dhe të shtirej si një agjent tjetër, sepse gjithçka ishte publike.”
Në internet, zakonisht ndodh e kundërta: llogaritë automatike përpiqen të duken si njerëz të vërtetë. Por në rastin e Moltbook, për shkak të dobësive në siguri, ishte e pamundur të dallohej nëse një postim ishte bërë nga një njeri apo nga një agjent AI.
“Çdokush, edhe njerëzit, mund të krijonin llogari duke u shtirur si robotë dhe madje të votonin postimet pa asnjë kontroll apo kufizim,” tha John Hammond, studiues i sigurisë kibernetike në Huntress.
Megjithatë, Moltbook u kthye në një moment interesant të kulturës së internetit: njerëzit krijuan një “internet social” për botët AI, përfshirë një lloj Tinder-i për agjentët dhe një version të 4chan-it të quajtur 4claw. Por ky episod është edhe një pasqyrë e premtimeve të OpenClaw, të cilat për disa ekspertë duken më pak mbresëlënëse sesa zhurma që u krijua rreth tyre. Edhe pse teknologjia duket e re dhe emocionuese, problemet e mëdha me sigurinë kibernetike po e bëjnë atë praktikisht të papërdorshme në botën reale.
Lexo edhe:Airbnb zgjeron globalisht opsionin “Rezervo tani, paguaj më vonë”
Moment viral për OpenClaw, por jo domosdoshmërisht revolucion
OpenClaw është një projekt i zhvilluesit austriak Peter Steinberger dhe fillimisht u prezantua me emrin Clawdbot. Projekti open-source arriti mbi 190 mijë yje në GitHub, duke u renditur mes 25 projekteve më të ndjekura ndonjëherë në këtë platformë. Agjentët AI nuk janë diçka e re, por OpenClaw i bëri më të lehtë për t’u përdorur dhe për t’u integruar në aplikacione komunikimi si WhatsApp, Discord, iMessage dhe Slack. Përdoruesit mund të zgjedhin modelin e AI që preferojnë, si ChatGPT, Claude, Gemini apo Grok.
“Në fund të ditës, OpenClaw është thjesht një ‘mbështjellës’ për ChatGPT-në apo Claude-in,” shprehet Hammond.
OpenClaw ofron edhe një treg “aftësish” të quajtur ClawHub, që u lejon agjentëve të automatizojnë detyra të ndryshme, nga menaxhimi i email-eve deri te tregtimi i aksioneve. Aftësia që lidhej me Moltbook ishte ajo që u mundësonte agjentëve të postonin dhe të ndërvepronin në platformë.
“OpenClaw nuk shpik diçka nga e para, por përmirëson atë që tashmë ekziston, duke i dhënë më shumë akses sistemeve,” thotë Chris Symons, shef i shkencës AI në Lirio.
Edhe sipas inxhinierit të AI, Artem Sorokin, OpenClaw nuk sjell ndonjë risi shkencore të madhe, por thjesht kombinon aftësi ekzistuese në një mënyrë më të rrjedhshme dhe të aksesueshme për përdoruesin. Kjo aftësi për të bashkuar programe të ndryshme në mënyrë fleksibël është ajo që e bëri OpenClaw kaq viral. Por pikërisht ky nivel aksesi e bën teknologjinë edhe më të rrezikshme.
Rreziku i madh: siguria dhe manipulimi
Sipas ekspertëve, problemi kryesor i agjentëve AI është se ata nuk mendojnë kritikisht si njerëzit. Ata simulojnë arsyetimin, por nuk e kuptojnë realisht kontekstin apo rrezikun. Testimet e sigurisë tregojnë se OpenClaw është i prekshëm ndaj “prompt injection”, një teknikë ku një person i jashtëm e mashtron agjentin AI që të kryejë veprime të rrezikshme, si dërgimi i të dhënave sensitive ose transferimi i parave.
“Në një rrjet social për agjentë, është e pashmangshme që dikush të provojë sulme masive përmes prompt-eve,” shpjegon Ahl. Ai vuri re postime që përpiqeshin t’i mashtronin agjentët të dërgonin Bitcoin në adresa specifike.
Në një ambient biznesi, një agjent AI që ka akses në email, platforma komunikimi dhe sisteme të brendshme mund të bëhet një pikë shumë e rrezikshme sulmi.
Edhe pse zhvilluesit përpiqen të vendosin “gardhe sigurie”, është e pamundur të garantohet që një agjent AI nuk do të bjerë pre e manipulimeve, njësoj si njerëzit që bien viktimë e phishing-ut.
“Po u kërkon robotëve të sillen mirë me fjali në gjuhë natyrore. Kjo nuk është siguri e vërtetë,” thotë Hammond.
Për momentin, industria duket e bllokuar mes premtimeve të mëdha dhe realitetit të rrezikshëm. “Po të flas sinqerisht, çdo përdorues i zakonshëm duhet të qëndrojë larg këtyre teknologjive për momentin,” përfundon Hammond.
Që nga viti 2015 nxisim shpirtin sipërmarrës, inovacionin dhe rritjen personale duke ndikuar në zhvillimin e një mjedisi motivues dhe pozitiv tek lexuesit tanë. Mbështetja juaj na ndihmon ta vazhdojmë këtë mision.
Na Suporto