Algoritmet nuk janë neutrale ndaj vlerave. Megjithatë, për më shumë se një dekadë, kemi lejuar kompanitë e mëdha të teknologjisë t’i përdorin ato si burimet kryesore të informacionit që konsumojmë çdo ditë, pa kërkuar transparencë apo llogaridhënie të mjaftueshme. Pasojat i kemi parë tashmë: përhapje e përmbajtjeve polarizuese, reklama të personalizuara të fshehta, sjellje monopoliste dhe forma të ndikimit në diskursin publik që shpesh bien ndesh me debatin demokratik.
Edhe pse kemi mësuar me vështirësi se çfarë ndodh kur infrastruktura kritike e informacionit u lihet në dorë interesave private pa mbikëqyrje, sot po përsërisim të njëjtin gabim, këtë herë me chatbot-et e inteligjencës artificiale, ku rreziku mund të jetë edhe më i madh. Ndryshe nga rrjetet sociale apo motorët e kërkimit që thjesht përzgjedhin informacionin ekzistues, chatbot-et e krijojnë dhe e strukturojnë atë. Facebook apo Google vendosin cilat artikuj lajmesh t’ju shfaqin; ndërsa mjete si ChatGPT, Claude apo Gemini e sintetizojnë atë informacion dhe e paraqesin si përgjigje të qarta dhe autoritative. Ky ndryshim është thelbësor. Kalimi nga roli i kuratorit të informacionit në rolin e redaktorit të tij e bën ndikimin shumë më pak të dukshëm dhe potencialisht më problematik. Praktikisht, një numër i vogël kompanish po fitojnë një fuqi të madhe mbi mënyrën se si njerëzit informohen. Rreziku më i madh nuk është që këto sisteme të dalin jashtë kontrollit, por që një grup i kufizuar aktorësh privatë të bëhen portierët kryesorë të informacionit për një pjesë gjithnjë e më të madhe të shoqërisë.
Si mund të ndikohet një chatbot?
Chatbot-et nuk janë vetëm modele të mëdha gjuhësore (LLM). Ato ndërtohen mbi disa shtresa algoritmike të ndërlikuara, ku secila mund të ndikojë në mënyrën se si prodhohet informacioni. Sipas studiuesve, ekzistojnë të paktën pesë shtresa të këtij “stack-u të ndikimit algoritmik”.
1. Përzgjedhja e të dhënave të trajnimit
Në fazën e trajnimit vendoset se cilat burime informacioni përfshihen dhe cilat përjashtohen. Këto vendime janë shpesh të paqarta dhe ndikojnë drejtpërdrejt në mënyrën se si një model “kupton botën”. Për shembull, në vitin 2025 Elon Musk prezantoi Grokipedia, një enciklopedi e kontrolluar nga kompania e tij për të furnizuar me të dhëna chatbot-in Grok. Ideja ishte të krijohej një alternativë “anti-woke” ndaj Wikipedia-s, e cila funksionon me një model të hapur dhe komunitar.
2. Trajnimi përmes reagimit njerëzor dhe AI
Pas trajnimit fillestar, chatbot-et përmirësohen përmes një procesi të quajtur reinforcement learning, ku njerëz ose sisteme të tjera AI vlerësojnë përgjigjet dhe e udhëzojnë modelin drejt sjelljeve të dëshiruara, si ndihma apo korrektësia. Ky proces është një pjesë e madhe, por pothuajse e padukshme, e industrisë së AI. Gjithnjë e më shpesh, vlerësuesit njerëzorë po zëvendësohen nga sisteme AI që ndjekin një “kushtetutë” të paracaktuar me parime të koduara.
3. Kërkimi në internet
Shumë chatbot-e përdorin sisteme të quajtura retrieval-augmented generation (RAG), që kërkojnë informacion në internet dhe vendosin cilat burime t’i japin modelit për të ndërtuar përgjigjen. Ky proces është shumë i ngjashëm me motorët e kërkimit: disa burime prioritizohen mbi të tjerat. Nëse në të ardhmen chatbot-et përfshijnë reklama në përgjigje (siç është paralajmëruar për vitin 2026), lindin edhe më shumë pyetje për objektivitetin.
4. System prompts
Këto janë udhëzime të brendshme që përcaktojnë se si duhet të sillet chatbot-i gjatë një përgjigjeje. Ato mund të ndryshohen pa e ritrajnuar modelin. Për shembull, prompt-i i brendshëm i Grok përfshin udhëzimin: “Mos shmang pretendimet që mund të konsiderohen politikisht jokorrekte.” Prompt-et e sistemeve të tjera si ChatGPT, Claude apo Gemini ekzistojnë gjithashtu, por zakonisht nuk bëhen publike.
5. Filtrat e sigurisë
Para se një pyetje të arrijë te modeli dhe para se përgjigja të shfaqet, ekzistojnë filtra që mund të bllokojnë, modifikojnë ose censurojnë përmbajtjen. Shumë prej tyre janë të justifikuar, për shembull për të ndaluar kërkesat për udhëzime mbi armë apo dhunë. Por për shkak se këta filtra janë të fshehtë, është e vështirë të dihet se ku përfundon mbrojtja dhe ku fillon censura. Një shembull i qartë janë chatbot-et kineze, të cilat bllokojnë çdo referencë ndaj masakrës së Tiananmen Square.
Ndikimi politik dhe korporativ
Ndërhyrjet në këto shtresa nuk janë teorike, ato po ndodhin tashmë. Pas inaugurimit të dytë të Donald Trump, Apple ndryshoi udhëzimet e trajnimit të AI për të shmangur përshkrimin e mbështetësve të MAGA si “radikalë” apo “ekstremistë”. Në vitin 2025, Reuters raportoi se Meta kishte zbutur disa nga rregullat e brendshme të AI, duke ulur kufizimet për deklarata raciste ose ndërveprime flirtuese me të mitur. Po ashtu, chatbot-i Grok filloi të amplifikonte pretendime të pabazuara për “gjenocid të bardhë” në Afrikën e Jugut, një narrativë e lidhur me pikëpamjet personale të Elon Musk.
A mund të ndikojnë chatbot-et në zgjedhje? Po. Një studim i botuar në revistën Nature në vitin 2025 tregoi se chatbot-et e trajnuara për të mbrojtur një kandidat politik mund të ndikojnë në mënyrë të konsiderueshme votuesit e moderuar dhe të pavendosur, pikërisht ata që shpesh vendosin rezultatin e zgjedhjeve.
Ndryshe nga sistemet autoritare që kontrollojnë informacionin në mënyrë të drejtpërdrejtë, demokracitë mbështeten në pluralizëm dhe transparencë. Nëse infrastruktura e AI përqendrohet në duart e disa kompanive pa mbikëqyrje, ekziston rreziku i një rrëshqitjeje drejt një forme të re teknologjike të autoritarizmit, ku disa ide amplifikohen ndërsa të tjerat zbehen pa u kuptuar nga publiku. Dhjetorin e kaluar, Komisioni Europian gjobiti platformën X me 120 milionë euro, për shkelje të detyrimeve të transparencës sipas Aktit të Shërbimeve Digjitale. Mbështetësit e platformës e interpretuan këtë si një sulm ndaj lirisë së shprehjes. Por në realitet, transparenca është pikërisht ajo që e mbron lirinë e shprehjes. Pa të, nuk mund të dimë kush po censurohet, cilat interesa ndikojnë informacionin dhe si formohet realiteti që shohim online.
Mësimi nga epoka e rrjeteve sociale
Rritja e rrjeteve sociale na tregoi se çfarë ndodh kur teknologjia përhapet shumë më shpejt se mekanizmat e përgjegjësisë. Me inteligjencën artificiale, nuk mund ta përsërisim të njëjtin gabim. Sepse këtë herë nuk bëhet fjalë vetëm për mënyrën se si shpërndahet informacioni, por për mënyrën se si ai krijohet.
Që nga viti 2015 nxisim shpirtin sipërmarrës, inovacionin dhe rritjen personale duke ndikuar në zhvillimin e një mjedisi motivues dhe pozitiv tek lexuesit tanë. Mbështetja juaj na ndihmon ta vazhdojmë këtë mision.
Na Suporto