Këtë muaj, Jeremy Howard, një studiues i inteligjencës artificiale, prezantoi një bisedues virtual(chatbot) në internet të quajtur ChatGPT për vajzën e tij 7-vjeçare. Ai ishte lëshuar disa ditë më parë nga OpenAI, një nga laboratorët më ambicioz në botë sa i pëkret Inteligjencës Artificiale.
Ai i tha asaj që të pyeste biseduesin virtual (chatbotin) çfarëdo që t’i vinte në mendje. Ajo pyeti se për çfarë ishte e mirë trigonometria, nga vinin vrimat e zeza dhe pse pulat ngrohnin vezët e tyre. Çdo herë, ai përgjigjej me paragrafe të qartë dhe të strukturuar mirë. Kur ajo kërkoi një program kompjuterik që mund të parashikonte rrugën e një topi të hedhur në ajër, ai ia dha asaj.
Gjatë ditëve në vijim, z. Howard – një shkencëtar i të dhënave dhe profesor, puna e të cilit frymëzoi krijimin e ChatGPT dhe teknologjive të ngjashme – erdhi për ta parë chatbot-in në këndvështrimin e një mësuesi personal. Ajo mund t’i mësojë vajzës së tij matematikë, shkenca natyrore dhe anglisht, për të mos përmendur disa mësime të tjera të rëndësishme, më kryesorja: Mos besoni gjithçka që ju thuhet.
“Është emocionuese ta shohësh atë të mësojë kështu,” tha ai. “Por i thashë gjithashtu: Mos i beso gjithçkaje që të jep. Mund të bëjë gabime.”
OpenAI është ndër shumë kompani, laboratorë akademikë dhe studiues të pavarur që punojnë për të ndërtuar bisedues virtualë (chatbot) më të avancuar. Këto sisteme nuk mund të bisedojnë saktësisht si një njeri, por shpesh duket se po. Ata gjithashtu mund të marrin dhe ripërpunojnë informacionin me një shpejtësi që njerëzit nuk mundën kurrë. Ata mund të mendohen si asistentë dixhitalë – si Siri ose Alexa – që e kuptojnë se ccfarë dëshironi dhe jua japin atë.
Pas publikimit të ChatGPT – i cili është përdorur nga më shumë se një milion njerëz – shumë ekspertë besojnë se këto bisedues virtualë (chatbot) të rinj janë gati të rikrijojnë apo edhe zëvendësojnë motorët e kërkimit në internet si Google dhe Bing.
Ata mund të japin informacion në fjali të ngushta, në vend të listave të gjata me linqet blu ku mund të klikoni. Ata shpjegojnë konceptet në mënyra që njerëzit mund t’i kuptojnë. Dhe ata mund të japin fakte, duke gjeneruar gjithashtu plane biznesi, tema termike dhe ide të tjera të reja nga e para.
Lexo edhe: Një inxhinier i Google pretendon se IA e krijuar ishte gjallë
“Tani keni një kompjuter që mund t’i përgjigjet çdo pyetjeje në një mënyrë që ka kuptim për njeriun,” tha Aaron Levie, shefi ekzekutiv i një kompanie Silicon Valley, Box, dhe një nga shumë drejtuesit që eksplorojnë mënyrat se si këto chatbot do të ndryshojnë peizazhin teknologjik. “Ai mund të ekstrapolojë dhe të marrë ide nga kontekste të ndryshme dhe t’i bashkojë ato së bashku.”
Biseduesit e rinj virtualë (Chatbotët) e bëjnë këtë me atë që në fillim duekt si një siguri e plotë mbi të vërtetën. Por jo gjithmonë e thonë atë Ndonjëherë, ata madje dështojnë në aritmetikë të thjeshtë. Ata përziejnë faktin me trillimin. Dhe ndërsa ato vazhdojnë të përmirësohen, njerëzit mund t’i përdorin ato për të gjeneruar dhe përhapur të pavërteta.
Google së fundmi ndërtoi një sistem posaçërisht për biseda, të quajtur LaMDA, ose Modeli i Gjuhës për Aplikacionet e Dialogut. Këtë pranverë, një inxhinier i Google pretendoi se Biseduesi Virtual që kishte krijuar mund të ndjente emocione. Nuk ndjente, por tërhoqi imagjinatën e publikut.
Aaron Margolis, një shkencëtar i të dhënave në Arlington, Va., ishte në mesin e numrit të kufizuar të njerëzve jashtë Google që u lejuan të përdorin LaMDA përmes një aplikacioni eksperimental të Google, AI Test Kitchen. Ai ishte vazhdimisht i mahnitur nga talenti i tij për biseda të hapura. Kjo e mbajti atë të argëtuar. Por ai paralajmëroi se mund të ishte pak fabulist – siç pritej nga një sistem i trajnuar nga sasi të mëdha informacioni të postuar në internet.
Shkencëtarët e quajnë këtë problem “halucination”. Ashtu si një tregimtar i mirë, chatbot-ët kanë një mënyrë për të marrë atë që kanë mësuar dhe për ta riformësuar atë në diçka të re – pa marrë parasysh nëse është e vërtetë.
LaMDA është ajo që studiuesit e inteligjencës artificiale e quajnë një rrjet nervor, një sistem matematikor i modeluar lirshëm në rrjetin e neuroneve në tru. Kjo është e njëjta teknologji që përdoret për të përkthyer midis frëngjishtes dhe anglishtes në shërbime si Google Translate dhe identifikon këmbësorët pasi makinat me vetëdrejtim vozisin në rrugët e qytetit.
Një rrjet nervor mëson aftësitë duke analizuar të dhënat. Për shembull, duke identifikuar modelet në mijëra foto macesh, ajo mund të mësojë të njohë një mace.
Pesë vjet më parë, studiuesit në Google dhe laboratorë si OpenAI filluan të dizajnonin rrjete nervore që analizonin sasi të mëdha teksti dixhital, duke përfshirë libra, artikuj të Ëikipedia-s, lajme dhe regjistrat e bisedave në internet. Shkencëtarët i quajnë “modele të mëdha gjuhësore”. Duke identifikuar miliarda modele të dallueshme në mënyrën se si njerëzit lidhin fjalët, numrat dhe simbolet, këto sisteme mësuan të gjenerojnë tekst vetë.
Aftësia e tyre për të gjeneruar gjuhë befasoi shumë studiues në këtë fushë, duke përfshirë shumë nga studiuesit që i ndërtuan ato. Teknologjia mund të imitojë atë që njerëzit kishin shkruar dhe të kombinonte koncepte të ndryshme.
Me ChatGPT, OpenAI ka punuar për të përmirësuar teknologjinë. Ai nuk bën bisedë me rrjedhë të lirë si LaMDA e Google. Ai u krijua për të funksionuar më shumë si Siri, Alexa dhe asistentë të tjerë dixhitalë.
Ndërsa njerëzit testuan sistemin, ai u kërkoi atyre të vlerësonin përgjigjet e tij. A ishin bindës? A ishin të dobishme? A ishin të vërtetë? Më pas, përmes një teknike të quajtur të mësuarit përforcues, ai përdori vlerësimet për të përmirësuar sistemin dhe për të përcaktuar më me kujdes se çfarë do të bënte dhe çfarë nuk do të bënte.
“Kjo na lejon të arrijmë në pikën ku modeli mund të ndërveprojë me ju dhe të pranojë kur është gabim,” tha Mira Murati, shefe e teknologjisë e OpenAI. “Ai mund të refuzojë diçka që është e papërshtatshme dhe mund të sfidojë një pyetje ose një premisë që është e pasaktë.”
Metoda nuk ishte perfekte. OpenAI paralajmëroi ata që përdorin ChatGPT se “mund të gjenerojë herë pas here informacion të pasaktë” dhe “të prodhojë udhëzime të dëmshme ose përmbajtje të njëanshme”. Por kompania planifikon të vazhdojë të përpunojë teknologjinë dhe u kujton njerëzve që e përdorin atë se është ende një projekt kërkimor.
Google, Meta dhe kompani të tjera po trajtojnë gjithashtu çështje të saktësisë. Meta së fundi hoqi një vrojtim në internet të chatbot-it të saj, Galactica, sepse gjeneronte vazhdimisht informacione të pasakta dhe të njëanshme.
Ekspertët kanë paralajmëruar se kompanitë nuk kontrollojnë fatin e këtyre teknologjive. Sistemet si ChatGPT, LaMDA dhe Galactica bazohen në ide, dokumente kërkimore dhe kode kompjuterike që kanë qarkulluar lirshëm prej vitesh.
Kompanitë si Google dhe OpenAI mund ta shtyjnë teknologjinë përpara me një ritëm më të shpejtë se të tjerët. Por teknologjitë e tyre më të fundit janë riprodhuar dhe shpërndarë gjerësisht. Ata nuk mund t’i pengojnë njerëzit të përdorin këto sisteme për të përhapur dezinformata.
Ashtu si z. Howard shpresonte që vajza e tij të mësonte të mos i besonte gjithçka që lexonte në internet, ai shpresonte që shoqëria të mësonte të njëjtin mësim./ New York Times
Që nga viti 2015 nxisim shpirtin sipërmarrës, inovacionin dhe rritjen personale duke ndikuar në zhvillimin e një mjedisi motivues dhe pozitiv tek lexuesit tanë. Kjo punë që e bëjmë me shumë dashuri nuk ka të paguar. Ne jemi platforma e vetme e cila promovon modelin pozitiv të sipërmarrjes së lirë. Përmes kësaj platforme mbështesim edukimin gjatë gjithë jetës si mjet për zhvillimin personal dhe profesional të brezave. Kontributi juaj do të na ndihmojë në vazhdimin e këtij misioni në gjithë trevat shqipfolëse.
Mund të kontribuoni KETU. Falemnderit.