OpenAI dhe Anduril njoftuan të mërkurën një partneritet që lejon kompaninë e teknologjisë së mbrojtjes të vendosë sisteme të avancuara të inteligjencës artificiale për “misionet e sigurisë kombëtare”.
Muajin e kaluar, Anthropic, Amazon, startup i mbështetur nga AI i themeluar nga ish-drejtues të kërkimit OpenAI dhe kontraktori i mbrojtjes Palantir njoftoi një partneritet me Amazon Web Services për t’u “siguruar agjencive të inteligjencës dhe mbrojtjes amerikane akses në familjen e modeleve Claude 3 dhe 3.5 të [Anthropic’s] në AWS”. Këtë vjeshtë, Palantir nënshkroi një kontratë të re pesëvjeçare, deri në 100 milionë dollarë për të zgjeruar aksesin ushtarak amerikan në programin e saj të luftës Maven AI.
Partneriteti OpenAI-Anduril i njoftuar të mërkurën do të “përqendrohet në përmirësimin e sistemeve të avionëve pa pilot (CUAS) dhe aftësinë e tyre për të zbuluar, vlerësuar dhe përgjigjur kërcënimeve ajrore potencialisht vdekjeprurëse në kohë reale”, sipas një njoftimi, i cili shtoi se “Anduril dhe OpenAI do të eksplorojnë se si modelet kryesore të AI mund të përdoren për të sintetizuar me shpejtësi të dhëna të ndjeshme ndaj kohës, për të zvogëluar barrën mbi operatorët njerëzorë dhe të përmirësojë ndërgjegjësimin për situatën.”
Anduril, i bashkëthemeluar nga Palmer Luckey, nuk iu përgjigj një pyetjeje nëse ulja e barrës mbi operatorët njerëzorë do të përkthehet në më pak njerëz në ciklin e vendimeve të luftës me aksione të larta. Luckey themeloi Oculus VR, të cilin ia shiti Facebook-ut në vitin 2014.
OpenAI tha se po punonte me Anduril për të ndihmuar operatorët njerëzorë të marrin vendime “për të mbrojtur personelin ushtarak amerikan në terren nga sulmet me dron pa pilot”. Kompania tha se i qëndron politikës në deklaratën e misionit të saj për ndalimin e përdorimit të sistemeve të saj të AI për të dëmtuar të tjerët.
Deri në fillim të janarit, faqja e politikave të OpenAI specifikonte se kompania nuk lejonte përdorimin e modeleve të saj për “aktivitete që kanë rrezik të lartë të dëmtimit fizik” si zhvillimi i armëve ose ushtria dhe lufta. Në mesin e janarit, OpenAI hoqi referencën specifike për ushtrinë, megjithëse politika e saj ende thotë se përdoruesit nuk duhet të “përdorin shërbimin tonë për të dëmtuar veten ose të tjerët”, duke përfshirë “zhvillimin ose përdorimin e armëve”.
Lajmi vjen pas vitesh polemikash rreth kompanive të teknologjisë që zhvillojnë teknologji për përdorim ushtarak, të theksuar nga shqetësimet publike të punonjësve të teknologjisë, veçanërisht atyre që punojnë në AI.
Punonjësit në pothuajse çdo gjigand teknologjik të përfshirë me kontrata ushtarake kanë shprehur shqetësime pasi mijëra punonjës të Google protestuan për Project Maven, një projekt i Pentagonit që do të përdorte Google AI për të analizuar pamjet e vëzhgimit të dronëve.
Punonjësit e Microsoft protestuan kundër një kontrate ushtarake prej 480 milionë dollarësh që do t’u siguronte ushtarëve kufje të realitetit të shtuar dhe më shumë se 1500 punonjës të Amazon dhe Google nënshkruan një letër duke protestuar kundër një kontrate të përbashkët shumëvjeçare prej 1.2 miliardë dollarësh me qeverinë dhe ushtrinë izraelite, sipas së cilës gjigantët e teknologjisë do të ofrojnë shërbime kompjuterike cloud, mjete AI dhe qendra të dhënash.