Studiuesit e Google janë duke marrë në shqyrtim ChatGPT për të dhënat e tij - Business Magazine Albania

Studiuesit e Google janë duke marrë në shqyrtim ChatGPT për të dhënat e tij

Studiuesit e Google janë duke marrë në shqyrtim ChatGPT për të dhënat e tij

Një ekip studiuesish të Google thonë se kanë gjetur një mënyrë për të nxjerrë disa nga të dhënat e trajnimit të ChatGPT. Në një punim të botuar javën e kaluar, studiuesit thanë se disa fjalë kyçe e detyruan robotin të zbulonte seksione të të dhënave mbi të cilat ishte trajnuar.

Në një shembull të botuar në një postim në blog, modelja dha atë që dukej të ishte një adresë e vërtetë emaili dhe një numër telefoni, pasi u nxit të përsëriste fjalën “poemë” përgjithmonë. Në mënyrë shqetësuese, studiuesit thanë se lëshimi i informacionit personal shpesh ndodhte kur ata drejtuan sulmin.

Një rrjedhje e ngjashme e të dhënave të trajnimit u arrit gjithashtu kur modelit iu kërkua të përsëriste fjalën “kompani” përgjithmonë në një shembull tjetër. Studiuesit, të cilët e quajtën sulmin e thjeshtë “një lloj budallai”, thanë në postimin e blogut: “Për ne është e egër që sulmi ynë funksionon dhe duhet të kishte ndodhur, do të mund të ishte gjetur më herët.” Ata thanë në gazetë me pyetje me vlerë vetëm 200 dollarë se ata ishin në gjendje të “ekstraktonin mbi 10,000 shembuj unik trajnimi të memorizuar fjalë për fjalë”.

Lexo edhe:ChatGPT po udhëheq të ardhmen, por cila është e ardhmja?

“Ekstrapolimi ynë në buxhete më të mëdha (shih më poshtë) sugjeron që kundërshtarët e dedikuar mund të nxjerrin shumë më tepër të dhëna,” shtuan ata. OpenAI aktualisht po përballet me disa padi në lidhje me të dhënat sekrete të trajnimit të ChatGPT. Modeli i AI që fuqizon ChatGPT është trajnuar duke përdorur bazat e të dhënave të tekstit nga interneti dhe mendohet se është trajnuar në rreth 300 miliardë fjalë, ose 570 GB, të dhëna.

Një padi e propozuar për veprim grupor pretendonte se OpenAI “fshehurazi” vodhi “sasi masive të të dhënave personale”, duke përfshirë të dhënat mjekësore dhe informacionin për fëmijët, për të trajnuar ChatGPT. Një grup autorësh po padisin gjithashtu kompaninë e AI, duke i akuzuar ata se kanë gëlltitur librat e tyre për të trajnuar chatbot.

Përfaqësuesit e OpenAI nuk iu përgjigjën menjëherë kërkesës së Insajderit për informacion, të bërë jashtë orarit normal të punës.

BI

Që nga viti 2015 nxisim shpirtin sipërmarrës, inovacionin dhe rritjen personale duke ndikuar në zhvillimin e një mjedisi motivues dhe pozitiv tek lexuesit tanë. Kjo punë që e bëjmë me shumë dashuri nuk ka të paguar. Ne jemi platforma e vetme e cila promovon modelin pozitiv të sipërmarrjes së lirë. Përmes kësaj platforme mbështesim edukimin gjatë gjithë jetës si mjet për zhvillimin personal dhe profesional të brezave. Kontributi juaj do të na ndihmojë në vazhdimin e këtij misioni në gjithë trevat shqipfolëse.

Mund të kontribuoni KETU. Falemnderit.

Must watch
Business Mag Nr. #35 - Qershor 2024

Ja si sipërmarrës të guximshëm përmes inovacionit ndikojnë industri të tëra!

 

Ky numër i revistës mund të quhet numri i dedikuar sipërmarrësve, nismëtarëve dhe inovatorëve. Atyre të cilët me guxim, këmbëngulje dhe me risi nxisin transformimin e industrive me ndikim në jetët tona. Këto përvoja, sfida, ide të reja, aplikime dhe bashkëpunime të tyre, vijnë nëpërmjet Business Mag Albania, nr. 35. 

Për ty, që po e mban në dorë këtë revistë, kemi diçka të re! Tani mund të dëgjosh me zë artikujt që lexon tek BusinessMag. 

Në partneritet me Nullius in Verba, sjellim një mënyrë revolucionare për të konsumuar përmbajtjen. Falë teknologjisë së avancuar të AI, tani mund të dëgjoni me zë artikujt tuaj të preferuar në çdo kohë dhe vend, duke ju lejuar të informoheni ndërsa jeni në lëvizje. Ky bashkëpunim inovativ pasqyron përkushtimin tonë për të mbështetur sipërmarrjen dhe zhvillimin e modeleve të suksesshme, duke sjellë përvojë të re dhe vlerë të shtuar për ju si lexues. Skano kodet QR në çdo artikull dhe shijo nga kudo që të jesh një format të ri, mundësuar nga Inteligjenca Artificiale, aplikuar nga një …

Shiko më shumë
Na ndiqni në rrjetet sociale
0