Pentagonul ia în considerare încetarea relației cu compania de inteligență artificială Anthropic din cauza insistenței acesteia de a menține anumite restricții privind modul în care armata SUA utilizează modelele sale, a raportat Axios sâmbătă, citând un oficial al administrației.
Pentagonul presează patru companii de IA să permită armatei să utilizeze instrumentele lor în „toate scopurile legale”, inclusiv în domeniile dezvoltării de arme, colectării de informații și operațiunilor pe câmpul de luptă, dar Anthropic nu a acceptat aceste condiții, iar Pentagonul s-a săturat după luni de negocieri, potrivit raportului Axios.
Celelalte companii includ OpenAI, Google și xAI.
Un purtător de cuvânt al Anthropic a declarat că compania nu a discutat cu Pentagonul despre utilizarea modelului său de IA Claude pentru operațiuni specifice.
Purtătorul de cuvânt a spus că discuțiile cu guvernul SUA s-au concentrat până acum pe o serie de întrebări specifice privind politica de utilizare, inclusiv limite stricte în ceea ce privește armele complet autonome și supravegherea internă în masă, niciuna dintre acestea nefiind legată de operațiunile actuale.
Pentagonul nu a răspuns imediat la solicitarea Reuters de a comenta, potrivit CNBC.
Modelul de IA Claude al Anthropic a fost utilizat în operațiunea militară americană de capturare a fostului președinte venezuelean Nicolas Maduro, Claude fiind implementat prin parteneriatul Anthropic cu firma de date Palantir, a raportat vineri Wall Street Journal.
Reuters a raportat miercuri că Pentagonul a presat companiile de top din domeniul IA, inclusiv OpenAI și Anthropic, să pună la dispoziție instrumentele lor de inteligență artificială pe rețelele clasificate, fără multe dintre restricțiile standard pe care companiile le aplică utilizatorilor.