Kompania e Inteligjencës Artificiale Anthropic dhe Pentagoni ndodhen në një situatë të tensionuar mbi përdorimin e teknologjisë AI për nevoja ushtarake. Qeveria amerikane kërcënon të ndërpresë kontratat ushtarake me Anthropic nëse kompania nuk ofron teknologjinë e saj për përdorim të pakufizuar ushtarak.
Anthropic është krijuesi i chatbot-it Claude dhe është kompania e fundit mes liderëve të AI-së që nuk ka integruar teknologjinë e saj në një rrjet të brendshëm të Pentagonit. CEO i kompanisë, Dario Amodei, ka shprehur vazhdimisht shqetësimet etike lidhur me përdorimin e pakontrolluar të AI-së, duke përfshirë rreziqet e dronëve autonomë të armatosur dhe mbikëqyrjen masive të asistuar nga AI që mund të ndjekë disidentët.
Anthropic kishte fituar një kontratë prej 200 milionë dollarësh nga Departamenti i Mbrojtjes në korrik 2025 për të “prototipizuar kapacitete të avancuara AI që përparojnë sigurinë kombëtare të SHBA-së.” Për më tepër, kompania kishte bashkëpunuar me Palantir Technologies në 2024 për të integruar Claude në softuerin e inteligjencës amerikane.
Megjithatë, sekretari amerikan i Mbrojtjes, Pete Hegseth, sipas raportimeve, paralajmëroi se do ta ndërpresë kontratën dhe do ta etiketojë Anthropic si “rrezik për zinxhirin e furnizimit” nëse kompania nuk pranon kërkesat e Pentagonit. Një vendim i tillë do të mundësonte qeverisë amerikane të përjashtojë Anthropic nga kontratat e ardhshme, të largojë produktet e saj nga konsiderimi dhe të detyrojë kontraktorët kryesorë të mos përdorin këtë furnizues.
Hegseth gjithashtu kërcënoi përdorimin e Defense Production Act, një ligj që i jep Presidentit të SHBA-së autoritet të gjerë për të kërkuar nga kompanitë private prioritet për nevojat e sigurisë kombëtare, përfshirë aksesin në teknologjinë e tyre.
Anthropic rishikon politikat e sigurisë
Anthropic ka qenë prej themelimit të saj në VITIN 2021 një nga kompanitë më të përqendruara tek siguria dhe përgjegjësia në zhvillimin e AI-së. Megjithatë, së fundmi kompania lajmëroi një ndryshim në politikat e saj të sigurisë.
Në një intervistë për Time Magazine, kompania deklaroi se nuk do të përmbahet më në premtimin për të mos lëshuar një sistem AI pa garantuar plotësisht masat e sigurisë. Në vend të tij, Anthropic prezantoi një politikë të re të zhvillimit të përgjegjshëm, duke përshkruar kornizën për minimizimin e rreziqeve katastrofike të AI-së.
Siç tha Jared Kaplan, shef shkencor i Anthropic, ndalimi i trajnimit të modeleve të reja për shkak të masave të sigurisë do ta LINTE kompaninë pas konkurrentëve që zhvillonin sisteme pa kufizime të forta. Politika e re parashikon krijimin e udhëzimeve ambicioze për sigurinë dhe publikimin e raporteve mbi rreziqet e pritura për çdo model, duke treguar nëse lëshimi i tij është i justifikuar.
Ky konflikt reflekton tensionin midis inovacionit në AI dhe përdorimit të saj në fushën ushtarake, duke ngritur pyetje të mëdha etike dhe strategjike për industrinë dhe qeveritë që kërkojnë kontroll mbi teknologjitë më të avancuara.
Që nga viti 2015 nxisim shpirtin sipërmarrës, inovacionin dhe rritjen personale duke ndikuar në zhvillimin e një mjedisi motivues dhe pozitiv tek lexuesit tanë. Mbështetja juaj na ndihmon ta vazhdojmë këtë mision.
Na Suporto