Utilizarea modelului AI Claude în atacurile din Iran
Forțele armate americane au folosit modelul AI Claude, dezvoltat de Anthropic, pentru a informa atacurile asupra Iranului, în ciuda deciziei anunțate de Donald Trump de a întrerupe toate legăturile cu compania și instrumentele sale de inteligență artificială. Utilizarea lui Claude în cadrul bombardamentului masiv comun americano-israelian asupra Iranului, care a început sâmbătă, a fost raportată de Wall Street Journal și Axios.
Contextul deciziei lui Trump
Decizia lui Trump de a interzice utilizarea lui Claude a fost anunțată vineri, cu câteva ore înainte de începutul atacului asupra Iranului. El a denunțat Anthropic pe platforma Truth Social, descriind compania ca fiind una de stânga radicală, condusă de persoane care nu înțeleg realitatea lumii. Această polemică a fost generată de utilizarea lui Claude de către armata americană în tentativa de capturare a președintelui Venezuelei, Nicolás Maduro, în ianuarie.
Reacțiile Pentagonului și ale Anthropic
În urma incidentului, relațiile dintre Trump, Pentagon și Anthropic s-au deteriorat constant. Secretarul apărării, Pete Hegseth, a acuzat compania de „aroganță și trădare” și a subliniat că „luptătorii americani nu vor fi niciodată ținuți ostatici de capriciile ideologice ale Big Tech”. Hegseth a cerut acces complet și neîngrădit la toate modelele AI ale Anthropic pentru orice scop legal.
Dificultatea de a detașa sistemele militare de AI
Secretarul apărării a recunoscut, de asemenea, dificultatea de a detașa rapid sistemele militare de acest instrument AI, având în vedere utilizarea extinsă a acestuia. El a menționat că Anthropic va continua să ofere servicii pentru o perioadă de maxim șase luni pentru a permite o tranziție fluidă către un serviciu mai patriotic.
Compania rivală OpenAI
În urma ruperii relațiilor cu Anthropic, compania rivală OpenAI a intervenit pentru a umple golul. Sam Altman, CEO-ul OpenAI, a anunțat că a ajuns la un acord cu Pentagonul pentru utilizarea instrumentelor companiei, inclusiv ChatGPT, în rețeaua sa clasificată.
Concluzie
Utilizarea modelului AI Claude de către forțele armate americane subliniază complexitatea integrării tehnologiilor avansate în operațiunile militare și provocările întâmpinate în gestionarea relațiilor cu companiile de tehnologie, în contextul deciziilor politice și ideologice.


Nu cred că ar trebui să ne surprindă utilizarea tehnologiei avansate în astfel de conflicte. Totuși, este alarmant să vedem cum deciziile politice sunt ignorate. Ce va urma?
Mă întreb cât de etic este să folosești un model AI pentru a planifica atacuri militare. Mi se pare o linie foarte subțire între inovație și moralitate.
E fascinant cum tehnologia evoluează rapid și se integrează în strategii militare! Dar oare nu am depășit o limită periculoasă?
Este incredibil cât de mult poate influența un algoritm soarta unor oameni. Poate că ar trebui să ne gândim serios la reglementările care guvernează aceste tehnologii.
Sincer, cred că utilizarea AI-ului în război deschide o cutie a Pandorei. Unde ne îndreptăm cu toate acestea? E nevoie urgentă de discuții pe această temă.
Îmi place ideea progresului tehnologic, dar folosirea lui în război mă îngrijorează profund. Oare vom ajunge într-o zi să luptăm doar cu roboți și computere?
Acest articol ridică multe semne de întrebare despre responsabilitatea militarilor față de deciziile luate cu ajutorul AI-ului. Ar fi interesant să aflăm mai multe despre modul în care funcționează Claude!