Directorul tehnic al Pentagonului, Emil Michael, a declarat joi că modelele de inteligență artificială Claude de la Anthropic ar „polua” lanțul de aprovizionare al agenției, deoarece au „o preferință politică diferită” care este integrată, scrie CNBC.
„Nu putem avea o companie care are o preferință politică diferită, integrată în model prin constituție, sufletul, preferințele sale politice, să polueze lanțul de aprovizionare, astfel încât luptătorii noștri să primească arme ineficiente, vestă antiglonț ineficientă, protecție ineficientă”, a declarat Michael pentru CNBC. „De aici provine, de fapt, desemnarea ca risc în lanțul de aprovizionare.”
Anthropic este prima companie americană care a fost etichetată public ca risc în lanțul de aprovizionare, o mișcare extraordinară care a fost rezervată în mod tradițional adversarilor străini. Desemnarea va impune contractorilor și furnizorilor de apărare să certifice că nu folosesc pe Claude, în munca lor cu Pentagonul.
Startup-ul a dat în judecată administrația Trump luni, numind acțiunile guvernului „fără precedent și ilegale”. Anthropic a declarat într-un document că firma este prejudiciată „iremediabil” și că tranzacții în valoare de sute de milioane de dolari sunt în pericol.
„Acest lucru nu este menit să fie punitiv”, a declarat Michael joi.