Akuza ndaj OpenAi, ka trajnuar ChatGPT-në me libra pa pasur të dr - Business Magazine Albania

Akuza ndaj OpenAi, ka trajnuar ChatGPT-në me libra pa pasur të drejtë autori

E kishit menduar se e drejta e autorit do kërkohej edhe në inteligjencën articiale? Në fakt një raport i ri ka ngritur alarmin mbi përdorimin e materialeve të mbrojtura nga të drejtat e autorit në trajnimin e inteligjencës artificiale. Projekti AI Disclosures pretendon se OpenAI ka përdorur libra me pagesë nga O’Reilly Media për të trajnuar modelin e saj më të fundit, GPT-4o, pa leje.

Lexo gjithashtu: Shqipëria përballë inovacionit; Ndikimi i ChatGPT në tregun e punës dhe në ekonomi

Hulumtuesit krahasuan përgjigjet e GPT-4o dhe GPT-3.5 Turbo mbi një dataset prej 34 librash të mbrojtur nga të drejtat e autorit dhe zbuluan se modeli i fundit kishte një “njohje të fortë” të përmbajtjes së mbyllur, ndërsa versioni më i vjetër dukej më i njohur me mostra publike të librave të njëjtë.

Ky zbulim rindez debatin mbi transparencën në përdorimin e të dhënave për trajnim. Autorët e studimit theksojnë se mangësia e një kuadri të qartë ligjor për të dhënat e përdorura në trajnimin e AI mund të krijojë një problem të vazhdueshëm për krijuesit e përmbajtjes dhe zhvilluesit e modeleve gjenerative.

“Ekosistemet e qëndrueshme duhet të dizajnohen në mënyrë që si krijuesit, ashtu edhe zhvilluesit të përfitojnë nga AI,” shkruajnë autorët, duke paralajmëruar se, pa një sistem të drejtë kompensimi, përparimi i modeleve mund të ngadalësohet në të ardhmen.

Lexo gjithashu: 7 mjete fantastike, mbi të gjitha falas të AI që duhet t’i dini

Kjo nuk është hera e parë që OpenAI përballet me akuza për përdorimin e materialeve të mbrojtura nga e drejta e autorit. The New York Times tashmë ka ngritur një padi kundër kompanisë dhe aksionerit të saj minoritar, Microsoft, mbi shkeljen e të drejtave të autorit.

Megjithëse OpenAI ka arritur disa marrëveshje licencimi me botues të ndryshëm, kjo çështje shton më tej presionin për rregulla më të qarta dhe më të rrepta mbi burimet e të dhënave që përdoren për të fuqizuar modelet gjuhësore.

Një përfaqësues i OpenAI nuk ka dhënë ende një koment mbi këto pretendime. Ndërkohë, debati mbi të drejtat e autorit në epokën e AI vetëm sa po intensifikohet.

Fast Company

Që nga viti 2015 nxisim shpirtin sipërmarrës, inovacionin dhe rritjen personale duke ndikuar në zhvillimin e një mjedisi motivues dhe pozitiv tek lexuesit tanë. Kjo punë që e bëjmë me shumë dashuri nuk ka të paguar. Ne jemi platforma e vetme e cila promovon modelin pozitiv të sipërmarrjes së lirë. Përmes kësaj platforme mbështesim edukimin gjatë gjithë jetës si mjet për zhvillimin personal dhe profesional të brezave. Kontributi juaj do të na ndihmojë në vazhdimin e këtij misioni në gjithë trevat shqipfolëse.

Mund të kontribuoni KETU. Falemnderit.

✨ Thënia e ditës
“Mos ndiq pararatë, ndiq pasionin.”
— Tony Hsieh
Must watch
Business Mag Nr. #39 – Shtator 2025

‘’Zgjidhni njeriun’’ … ‘’Punësoni për aftësitë e buta’’….   Janë sot postulate nga ekspertët dhe studiues të tregut të punës, të cilat iu drejtohen stafeve të burime njerëzore. Mund edhe të duket pak romantike për kohën që po jetojmë, por zgjedhja e njeriut të duhur për t’i hapur dyert e zyrës, për ta futur në gjirin e skuadrës tënde dhe për t’i dhënë pushtetin e të folurit në emër të brand-it tënd ka sot vlerë më shumë se kurrë më parë. Rëndësia e ‘aftësive të buta’ qëndron në faktin e të zotëruarit të cilësive si komunikimi, dëshira për të provuar e qenë kurioz, bashkëpunimi, empatia, besnikëria, etika e lartë dhe padyshim ndershmëria; tipare të cilat nuk janë edhe aq të thjeshta për tu gjendur në njeriun modern i cili duket se vrapon pas trendeve, të resë dhe virales dhe për të cilin çdo gjë që ka më shumë ndjeshmëri seç duhet është ‘jashtë mode’.

Për ne shqiptarët shumë nga këto vlera njerëzore janë edhe vlera të familjeve tona, vlera të cilat jan duartrokitur gjithmonë në mjediset ku jemi rritur, por që ndoshta nuk duartrokiten edhe shumë sot, ndër breza më të rinj…, ose të paktën nuk duartrokiten në publik. 

E kush më …

Shiko më shumë
Na ndiqni në rrjetet sociale
0