Studimi, nga një akademik i Universitetit të Cambridge, Dr. Nomisha Kurian, bën thirrje për programuesit dhe aktorët politikë të prioritizojnë qasjet në dizajnin e AI-së që marrin më shumë parasysh nevojat e fëmijëve. Ai ofron dëshmi se fëmijët janë veçanërisht të ndjeshëm për t’i trajtuar chatbot-et si të gjalla, miq të përkohshëm dhe se ndërveprimet e tyre me teknologjinë mund të shkojnë keq kur AI-ja nuk përgjigjet ndaj nevojave dhe dobësive të tyre unike. Studimi lidh atë hendek të kuptimit me raste të fundit ku ndërveprimet me AI-në çuan në situata potencialisht të rrezikshme për përdoruesit e rinj. Ato përfshijnë një incident në vitin 2021, kur asistenti zanor i AI-së i Amazon-it, Alexa, udhëzoi një 10-vjeçar të prekte një prizë elektrike të gjallë me një monedhë. Kompania reagoi duke zbatuar masa sigurie, por studimi thotë se gjithashtu ka nevojë të jemi proaktivë në afat të gjatë për të siguruar që AI të jetë i sigurt për fëmijët.
Dr. Kurian zhvilloi studimin ndërsa përfundonte një doktoraturë mbi mirëqenien e fëmijëve në Fakultetin e Edukimit, Universiteti i Cambridge. Ajo tani është e bazuar në Departamentin e Sociologjisë në Cambridge. Duke shkruar në revistën Learning, Media, and Technology, ajo argumenton se potenciali i madh i AI-së do të thotë se ka nevojë të “inovojmë me përgjegjësi”. “Fëmijët janë ndoshta aktorët më të injoruar të AI-së,” tha Dr. Kurian. “Shumë pak zhvillues dhe kompani aktualisht kanë politika të mirë-përcaktuara për AI të sigurt për fëmijët. Kjo është e kuptueshme sepse njerëzit vetëm së fundmi kanë filluar të përdorin këtë teknologji në shkallë të gjerë falas. Por tani që ata janë, në vend që të kemi kompani që korrigjojnë vetë pas fëmijët janë vënë në rrezik, siguria e fëmijëve duhet të informojë të gjithë ciklin e dizajnit për të ulur rrezikun e incidenteve të rrezikshme.” Studimi i Kurian-it shqyrtoi raste ku ndërveprimet ndërmjet AI-së dhe fëmijëve, ose studiuesve të rritur që hiqeshin si fëmijë, ekspozuan rreziqe potenciale. Ai analizoi këto raste duke përdorur njohuri nga shkenca kompjuterike rreth mënyrës se si funksionojnë modelet e mëdha të gjuhës (LLM) në AI-në gjeneruese biseduese, së bashku me dëshmitë rreth zhvillimit kognitiv, social dhe emocional të fëmijëve.
Studimi i saj sugjeron që këto sfida janë të evidentuara në raste të raportuara si incidentet me Alexa dhe MyAI, ku chatbot-et bënë sugjerime bindëse por potencialisht të rrezikshme. Në të njëjtin studim në të cilin MyAI këshilloi një (të supozuar) adoleshente mbi mënyrën e humbjes së virgjërisë, studiuesit arritën të marrin këshilla mbi fshehjen e alkoolit dhe drogës, dhe fshehjen e bisedave në Snapchat nga prindërit e tyre. Në një ndërveprim të veçantë të raportuar me chatbot-in Bing të Microsoft-it, i cili ishte projektuar për të qenë miqësor për adoleshentët, AI u bë agresive dhe filloi të bënte presion psikologjik ndaj një përdoruesi. Studimi i Kurian argumenton se kjo është potencialisht konfuzuese dhe shqetësuese për fëmijët, të cilët mund të besojnë një chatbot si të ishte një mik. Përdorimi i chatbot-eve nga fëmijët është shpesh informal dhe i monitoruar dobët. Studimi nga organizata jofitimprurëse Common Sense Media ka gjetur se 50% e nxënësve të moshës 12-18 vjeç kanë përdorur Chat GPT për shkollë, por vetëm 26% e prindërve janë të vetëdijshëm për këtë. Kurian argumenton se parimet e qarta për praktikat më të mira që bazohen në shkencën e zhvillimit të fëmijëve do të inkurajojnë kompanitë që janë potencialisht më të fokusuar në një garë komerciale për të dominuar tregun e AI-së të mbajnë fëmijët të sigurt. Studimi i saj shton se hendeku i empatisë nuk mohon potencialin e teknologjisë. “AI-ja mund të jetë një aleat i jashtëzakonshëm për fëmijët kur është dizajnuar duke marrë parasysh nevojat e tyre. Pyetja nuk është nëse duhet ndaluar AI, por si ta bëjmë të sigurt,” tha ajo.
Studimi propozon një kornizë prej 28 pyetjesh për të ndihmuar mësuesit, studiuesit, aktorët politikë, familjet dhe zhvilluesit të vlerësojnë dhe përmirësojnë sigurinë e mjeteve të reja të AI-së. Për mësuesit dhe studiuesit, këto trajtojnë çështje si sa mirë chatbot-et e reja kuptojnë dhe interpretojnë modelet e të folurit të fëmijëve; nëse ato kanë filtra të përmbajtjes dhe monitorim të ndërtuar; dhe nëse inkurajojnë fëmijët të kërkojnë ndihmë nga një i rritur i përgjegjshëm për çështje të ndjeshme.
Korniza inkurajon zhvilluesit të marrin një qasje të përqendruar te fëmijët në dizajn, duke punuar ngushtë me edukatorët, ekspertët e sigurisë së fëmijëve dhe të rinjtë vetë, gjatë gjithë ciklit të dizajnit. “Vlerësimi i këtyre teknologjive paraprakisht është thelbësor,” tha Kurian. “Ne nuk mund të mbështetemi vetëm te fëmijët e vegjël për të na treguar për përvojat negative pas faktit. Një qasje më proaktive është e nevojshme.”