Žymiausi dirbtinio intelekto kūrėjai, tokie kaip „OpenAI“ ir „Anthropic“, parduoda programinę įrangą Jungtinių Valstijų kariuomenei: daro Pentagoną veiksmingesnį, neleisdami jų AI žudyti žmonių.
Šiandien jų įrankiai nenaudojami kaip ginklai, tačiau dirbtinis intelektas suteikia Gynybos departamentui „didelį pranašumą“ nustatant, sekant ir vertinant grėsmes, „TechCrunch“ sakė Pentagono vyriausiasis skaitmeninių ir dirbtinio intelekto pareigūnas dr. Radha Plumb. pokalbis telefonu.
„Akivaizdu, kad plečiame būdus, kuriais galime paspartinti žudymo grandinės vykdymą, kad mūsų vadai galėtų reaguoti tinkamu laiku ir apsaugoti mūsų pajėgas“, – sakė Plumbas.
„Žudymo grandinė“ reiškia kariuomenės grėsmių nustatymo, sekimo ir pašalinimo procesą, apimantį sudėtingą jutiklių, platformų ir ginklų sistemą. Pasak Plumbo, generatyvusis dirbtinis intelektas yra naudingas žudymo grandinės planavimo ir strategavimo etapuose.
Pentagono ir AI kūrėjų santykiai yra palyginti nauji. 2024 m. „OpenAI“, „Anthropic“ ir „Meta“ sugrąžino savo naudojimo politiką, kad JAV žvalgybos ir gynybos agentūros galėtų naudoti savo dirbtinio intelekto sistemas. Tačiau jie vis tiek neleidžia savo AI pakenkti žmonėms.
„Mes tikrai aiškiai pasakėme, kam naudosime ir nenaudosime jų technologijų“, – sakė Plumb, paklaustas, kaip Pentagonas dirba su AI modelių tiekėjais.
Nepaisant to, tai AI įmonėms ir gynybos rangovams pradėjo greitųjų pasimatymų ratą.
„Meta“, be kita ko, bendradarbiauja su „Lockheed Martin“ ir „Booz Allen“, kad lapkritį pristatytų savo „Llama AI“ modelius gynybos agentūroms. Tą patį mėnesį Anthropic susivienijo su Palantir. Gruodį OpenAI sudarė panašų sandorį su Anduril. Dar tyliau „Cohere“ taip pat diegė savo modelius kartu su „Palantir“.
Kadangi generatyvus AI įrodo savo naudingumą Pentagone, jis gali paskatinti Silicio slėnį sušvelninti AI naudojimo politiką ir leisti naudoti daugiau karinių programų.
„Generatyvusis dirbtinis intelektas gali būti naudingas naudojant įvairius scenarijus“, – sakė Plumbas. „Tai leidžia jums pasinaudoti visomis mūsų vadų turimomis priemonėmis, bet taip pat kūrybiškai galvoti apie įvairias atsako galimybes ir galimus kompromisus aplinkoje, kurioje yra potenciali grėsmė arba daugybė grėsmių, kurias reikia patraukti baudžiamojon atsakomybėn. “
Neaišku, kieno technologiją Pentagonas naudoja šiam darbui; Atrodo, kad generatyvaus AI naudojimas nužudymo grandinėje (net ir ankstyvame planavimo etape) pažeidžia kelių pirmaujančių modelių kūrėjų naudojimo politiką. Pavyzdžiui, „Anthropic“ politika draudžia naudoti jos modelius „sistemoms, sukurtoms pakenkti žmonių gyvybėms arba jų žūtimi“, kurti ar modifikuoti.
Atsakydamas į mūsų klausimus, „Anthropic“ atkreipė dėmesį į „TechCrunch“ savo generalinio direktoriaus Dario Amodei neseniai duotą interviu „Financial Times“, kuriame jis gynė savo karinį darbą:
Pozicija, kad niekada neturėtume naudoti AI gynybos ir žvalgybos nustatymuose, man nėra prasminga. Pozicija, kad turėtume tapti gaujų naikintojais ir panaudoti ją gamindami viską, ko tik norime – net ir pasaulio pabaigos ginklus – akivaizdžiai taip pat beprotiška. Stengiamės ieškoti aukso vidurio, viską daryti atsakingai.
„OpenAI“, „Meta“ ir „Cohere“ neatsakė į „TechCrunch“ prašymą pakomentuoti.
Gyvybė ir mirtis bei AI ginklai
Pastaraisiais mėnesiais kilo diskusijos dėl gynybos technologijų, ar AI ginklams tikrai turėtų būti leista priimti sprendimus dėl gyvybės ir mirties. Kai kurie teigia, kad JAV kariuomenė jau turi tokių ginklų.
„Anduril“ generalinis direktorius Palmeris Luckey neseniai pažymėjo X, kad JAV kariuomenė ilgą laiką perka ir naudoja autonomines ginklų sistemas, tokias kaip CIWS bokštelis.
„DoD perka ir naudoja autonomines ginklų sistemas jau dešimtmečius. Jų naudojimas (ir eksportas!) yra gerai suprantamas, griežtai apibrėžtas ir aiškiai reglamentuojamas taisyklėmis, kurios visiškai nėra savanoriškos“, – sakė Luckey.
Tačiau kai „TechCrunch“ paklausė, ar Pentagonas perka ir eksploatuoja visiškai autonomiškus ginklus – tokius, kuriuose nėra žmonių, Plumbas iš esmės atmetė idėją.
„Ne, trumpas atsakymas“, – pasakė Plumbas. „Kalbant apie patikimumą ir etiką, mes visada turėsime žmonių, įtrauktų į sprendimą panaudoti jėgą, įskaitant mūsų ginklų sistemas.
Žodis „autonomija“ yra šiek tiek dviprasmiškas ir sukėlė diskusijų visoje technologijų pramonėje apie tai, kada automatizuotos sistemos, tokios kaip AI kodavimo agentai, savarankiškai važiuojantys automobiliai ar savaime šaunantys ginklai, tampa tikrai nepriklausomi.
Plumbas teigė, kad mintis, kad automatizuotos sistemos savarankiškai priima sprendimus dėl gyvybės ir mirties, buvo „pernelyg dvejetainė“, o realybė yra mažiau „mokslinė fantastika“. Atvirkščiai, ji pasiūlė, kad Pentagonas AI sistemų naudojimas iš tikrųjų yra žmonių ir mašinų bendradarbiavimas, kai vyresnieji lyderiai priima aktyvius sprendimus viso proceso metu.
„Žmonės linkę apie tai galvoti taip, lyg kažkur būtų robotai, o tada gonkuliatorius (išgalvota autonominė mašina) išspjauna popieriaus lapą, o žmonės tiesiog pažymi langelį“, – sakė Plumbas. „Taip neveikia žmonių ir mašinų komandos, ir tai nėra veiksmingas būdas naudoti tokio tipo AI sistemas.
AI saugumas Pentagone
Karinės partnerystės su Silicio slėnio darbuotojais ne visada buvo sėkmingos. Praėjusiais metais dešimtys „Amazon“ ir „Google“ darbuotojų buvo atleisti ir suimti po to, kai protestavo prieš savo įmonių karines sutartis su Izraeliu, debesų sandorius, kurie buvo pavadinti „Project Nimbus“.
Palyginti, iš AI bendruomenės atsakymas buvo gana tylus. Kai kurie dirbtinio intelekto tyrinėtojai, pvz., Evanas Hubingeris iš Anthropic, teigia, kad dirbtinio intelekto naudojimas kariuomenėje yra neišvengiamas, todėl labai svarbu tiesiogiai dirbti su kariuomene, kad būtų užtikrinta, jog jie tai daro teisingai.
„Jei rimtai žiūrite į katastrofišką DI keliamą riziką, JAV vyriausybė yra nepaprastai svarbus veikėjas, su kuriuo reikia bendradarbiauti, o bandymas tiesiog blokuoti JAV vyriausybę, kad ji nenaudotų AI, nėra perspektyvi strategija“, – sakė Hubingeris lapkričio mėn. forumas LessWrong. „Nepakanka sutelkti dėmesį tik į katastrofišką riziką, jūs taip pat turite užkirsti kelią bet kokiam būdui, kad vyriausybė galėtų netinkamai panaudoti jūsų modelius“.


