Az Infovilág cikke.

Forrás. nyt.com. Az AI-t már használják a harcokban Iránban és Ukrajnában. Az Egyesült Államok alkalmazta, amikor elfogta Venezuela vezetőjét, Izrael pedig használta a gázai háborúban, és az AI harctéri alkalmazása még csak most kezdődik. Ezért is fontos az a vita, amely a múlt héten zajlott a Trump-adminisztráció és az Anthropic amerikai AI-vállalat között. A New York Times hosszú cikket szentelt a vitának, amely egyszerre politikai és elvi konfliktus.

Az Anthropic a világ egyik vezető AI-cége. Claude nevű modelljét a Pentagon már széles körben használta: hírszerzési információk gyűjtésére, célpontok azonosítására, műveletek megtervezésére, stratégiai elemzésekre.
A vita azonban nem a jelenlegi felhasználásról szólt, hanem arról, hogyan lehetne a jövőben használni az AI-t. Az Anthropic szerződésében két korlátozás szerepelt. Az első, hogy az amerikai kormány nem használhatja a technológiát tömeges megfigyelésre amerikai állampolgárok ellen, a második, hogy nem alkalmazhatja autonóm fegyverekben, amelyek emberi beavatkozás nélkül ölnek.
A Pentagon ezt nem fogadta el. Bár azt mondta, hogy nem tervezi az AI használatát belföldi megfigyelésre vagy autonóm gyilkos robotokra, nem akarta elfogadni, hogy egy magáncég korlátozza a hadsereg felhasználását. A vita végül politikai és kulturális konfliktussá is vált, és ráirányította a figyelmet az AI-val kapcsolatos félelmekre és az USA–Kína technológiai versenyre.
Miután a tárgyalások kudarcot vallottak, Trump elrendelte, hogy minden szövetségi intézmény állítsa le az Anthropic használatát, a Pentagon pedig nemzetbiztonsági kockázatnak minősítette a céget.

Mennyire van jelen az AI a háborúban?

Julian Barnes, a New York Times munkatársa szerint szerint jelenleg ugyan még nem használják a nagy nyelvi modelleket közvetlenül fegyverek irányítására, de az AI kulcsszerepet játszik a hírszerzési adatok feldolgozásában, a stratégiai döntések támogatásában és a célpontok elemzésében

Mitől tart az Anthropic?

Az egyik fő aggodalom az, hogy a kormány kereskedelmi adatokat elemezhet AI segítségével amerikai állampolgárokról. böngészési előzményeit, a telefonos metaadatokat, és a vásárlási adatok is megszerezhetik. Ezeket ma már kereskedelmi cégek gyűjtik, és AI segítségével pontosan rekonstruálható egy ember mozgása és viselkedése. A másik félelem az autonóm gyilkos drónok megjelenése.

Miért ellenzi a Pentagon a korlátozásokat?

Az amerikai hadsereg szerint mindig lesz ember a döntési láncban, amikor az AI halálos döntésekben vesz részt. A probléma azonban az, hogy a modern hadviselésben a sebesség döntő, mert aki gyorsabban lát, gyorsabban értelmez, az gyorsabban képes dönteni, és végül az fog nyerni. Az ember viszont lassíthatja ezt a folyamatot… A Pentagon szerint a meglévő háborús jog elegendő. Érvelésük szerint ugyanazok az etikai szabályok érvényesek, akár bombát dobunk, akár szoftverrel választjuk ki a célpontot.

Az Anthropic viszont azt állítja, hogy az AI alapvetően más technológia. Egy hagyományos fegyver meghatározott célra készül, és fizikai korlátai vannak. Egy AI-rendszer viszont: adatokat elemezhet , célpontokat javasolhat, kibertámadást tervezhet, dezinformációt generálhat, és s a felhasználása folyamatosan változik.

A vita egyszerre politikai és elvi konfliktus. Az Anthropic vezetése azt képviseli, hogy: a vállalat felelős, biztonságközpontú ,etikus AI-cég. A Pentagon viszont azt mondja: hogy az állam határozza meg a felhasználás szabályait, nem a magáncégek.

Az USA–Kína AI-verseny

Kínában ezzel szemben a törvény kötelezi a cégeket, hogy technológiájukat átadják az államnak. Így a kínai kormány már használ AI-t: tömeges megfigyelésre, ellenzékiek azonosítására, dezinformációs kampányokra.
Ez az a forgatókönyv, amelytől az Anthropic tart. Az amerikai stratégák szerint viszont egy Tajvan körüli konfliktus első csatája valószínűleg a drónok harca lenne. És ott az nyer, aki gyorsabban gondolkodó AI-val rendelkezik...