Secretarul american al Apărării, Pete Hegseth, l-a convocat pentru marţi pe Dario Amodei, CEO al start-up-ului de inteligenţă artificială Anthropic, a declarat luni un oficial pentru AFP, compania refuzând pentru moment anumite utilizări ale AI-ului său în scopuri militare şi de supraveghere, relatează AFP.
Şeful Pentagonului le-a cerut furnizorilor săi de AI să ridice restricţiile privind utilizarea modelelor lor implicite, pentru a lărgi posibilele cazuri de folosire, atât timp cât acestea rămân în limitele legalităţii, a declarat pentru AFP o sursă apropiată situaţiei, confirmând o relatare a site-ului Axios.
Toţi furnizorii au fost de acord, inclusiv Anthropic, dar tânăra companie cu sediul în California a vrut să împiedice utilizarea modelului său de AI Claude în două scenarii: supravegherea în masă a populaţiilor şi automatizarea unui atac letal.
Departamentul Apărării pune presiune pe ei şi, conform mai multor instituţii media americane, a ameninţat că va rezilia contractul care îi leagă sau chiar că va include Anthropic pe lista companiilor care prezintă “un risc pentru aprovizionare” (“supply chain risk”).
Companiile de pe această listă se confruntă cu restricţii drastice asupra contractelor lor cu administraţia SUA.
Ea se aplică, în general, companiilor ale căror produse autorităţile americane se tem că ar putea fi utilizate pentru activităţi susceptibile să ameninţe securitatea naţională a SUA.
În prezent, pe listă se află doar companii străine, inclusiv producătorul chinez de echipamente Huawei şi specialistul rus în software antivirus Kaspersky.
“Anthropic se angajează să sprijine securitatea naţională a SUA prin intermediul inteligenţei artificiale”, a declarat un purtător de cuvânt pentru AFP, menţionând “discuţii productive şi de bună-credinţă” cu secretarul Apărării.
Conform Axios, care citează un oficial al Departamentului Apărării, Pete Hegseth intenţionează să-i transmită lui Dario Amodei un ultimatum.
O ruptură ar avea consecinţe grave pentru Anthropic, care ar pierde contractul de 200 de milioane de dolari semnat în iunie, precum şi potenţial altele, dar şi pentru Departamentul Apărării, deoarece Claude este singurul model de AI utilizat pentru operaţiuni de apărare clasificate.
Fondată în 2021 de foşti angajaţi OpenAI, Anthropic a susţinut întotdeauna o abordare etică a AI.
La începutul anului 2026, start-up-ul a publicat un document numit statutul său, care detaliază o serie de instrucţiuni date AI-ului Claude pentru a-i controla producţia. Aceste instrucţiuni vizează, în special, “prevenirea acţiunilor care prezintă pericol necorespunzător”.