joi, februarie 26, 2026
4.4 C
București

Vitalik Buterin le cere celor de la Anthropic să nu cedeze presiunilor Pentagonului; un raport despre IA agită Wall Street

Publicat pe:

O dispută care, până nu demult, părea de domeniul scenariilor de film pune acum presiune directă pe una dintre cele mai cunoscute companii de inteligență artificială.

Anthropic, firma din spatele modelului Claude, este împinsă să accepte condiții dure pentru colaborarea cu armata americană, iar refuzul ar putea veni cu urmări serioase. În acest peisaj tensionat, Vitalik Buterin, cofondatorul Ethereum, a ales să intervină public și să ia partea companiei, fără ocolișuri.

Informația, așa cum a fost urmărită și sintetizată pentru publicul din România de Cryptology.ro, site de știri și analize crypto în limba română, arată cât de repede pot ajunge principiile etice ale IA în centrul unei negocieri de securitate națională.

Ultimatumul și ora exactă a termenului-limită

Relatările din presa americană vorbesc despre un termen-limită foarte precis, stabilit de Departamentul Apărării al SUA. Secretarul american al apărării, Pete Hegseth, i-ar fi transmis lui Dario Amodei, directorul general al Anthropic, că decizia trebuie luată până vineri, la ora 17:01, ora Coastei de Est. Esența cererii este simplă și brutală: Pentagonul vrea să poată folosi Claude în orice scop considerat legal, fără restricții impuse de companie.

Întâlnirea ar fi avut loc la sediul Departamentului Apărării, într-un registru mai degrabă ultimativ decât diplomatic. Anthropic a păstrat în public un ton prudent, vorbind despre discuții purtate cu bună credință, formulare care, în context, sună ca o încercare de a câștiga timp fără a închide ușa.

De ce contează atât de mult un „da” sau un „nu”

Anthropic are o reputație construită tocmai pe ideea de control și limitare a riscurilor. Claude ar urma să fie folosit și pe rețele clasificate, printr-un parteneriat cu Palantir, companie cu o prezență puternică în zona securității naționale și a analizei de date. În joc se află și un contract estimat la până la 200 de milioane de dolari, adică un prag simbolic, suficient de mare cât să transforme o colaborare tehnică într-un precedent.

Ruptura nu pare să fie despre bani, ci despre condiții. Anthropic insistă că nu vrea ca modelul să fie folosit pentru arme complet autonome și nici pentru supravegherea în masă a cetățenilor americani. Compania acceptă cooperarea cu instituții ale statului, dar refuză să semneze un cec în alb atunci când miza devine decizia letală delegată unui algoritm sau normalizarea monitorizării generalizate.

Ce pârghii are Pentagonul dacă Anthropic refuză

Dinspre partea militară, argumentul invocat ar fi că o companie privată nu ar trebui să dicteze reguli operaționale forțelor armate atunci când produsul este cumpărat din bani publici. În cazul unui refuz, presiunile luate în calcul ar merge dincolo de un simplu contract pierdut.

Una dintre amenințările vehiculate ar fi etichetarea Anthropic drept risc pentru lanțul de aprovizionare, o clasificare care poate complica relațiile cu contractorii și partenerii din ecosistemul apărării. O altă pârghie, mult mai grea, este invocarea Defense Production Act, o lege americană care permite guvernului să impună companiilor private furnizarea de bunuri și servicii considerate critice pentru securitatea națională. Tradus în limbaj simplu, ar însemna că statul își rezervă dreptul de a forța accesul la tehnologie, chiar și atunci când firma ezită sau refuză.

Mesajul lui Vitalik Buterin: „Nu cedați”

Pe fondul acestui blocaj, Vitalik Buterin a publicat pe X un mesaj scurt către Dario Amodei: „Nu cedați”. A adăugat că și-ar îmbunătăți semnificativ părerea despre Anthropic dacă firma își menține poziția, chiar cu prețul consecințelor.

Buterin a descris limitele propuse de companie drept restrictive în sensul bun, nu ca pe un gest anti-militar. Logica lui pornește de la un punct pe care îl poți accepta sau respinge, dar e greu să-l ignori: armele complet autonome și supravegherea în masă sunt zone în care riscul moral și social crește mai repede decât capacitatea noastră de a repara pagubele. În viziunea lui, tocmai acolo ar trebui să existe frâne, nu acceleratoare.

În ultimele luni, Buterin a vorbit tot mai des despre pericolul supravegherii digitale și despre felul în care puterea se poate concentra în jurul unor sisteme tehnice opace, greu de auditat și aproape imposibil de contestat de cetățeanul obișnuit. Contextul de acum îi oferă, pentru prima dată, o scenă globală în care această preocupare se ciocnește direct de logica securității.

Episodul Venezuela și acuzația care ar fi inflamat discuția

Criza nu ar fi apărut din nimic. Conform unor relatări apărute în media, Claude ar fi fost folosit într-un raid al forțelor speciale americane în Venezuela, operațiune în care ar fi fost capturat fostul președinte Nicolás Maduro, în luna ianuarie, împreună cu sisteme Palantir. Acest episod ar fi fost invocat în discuțiile de la Pentagon ca exemplu concret, pe fondul ideii că Anthropic ar fi ridicat obiecții privind modul de utilizare al modelului.

Dario Amodei a respins acuzația și a susținut că Anthropic nu a discutat niciodată cu Palantir despre operațiuni specifice, în afara unor interacțiuni tehnice obișnuite. A reiterat și poziția-cheie a companiei: liniile roșii nu ar fi blocat activitatea armatei și nu ar fi creat probleme în teren.

Aici apare un detaliu pe care mulți îl trec cu vederea, dar care cântărește enorm într-un context militar. Chiar și susținătorii utilizării IA recunosc că modelele pot „halucina”, adică pot genera informații greșite prezentate cu un aer de certitudine. În situații în care o eroare se traduce în vieți omenești, tocmai această vulnerabilitate face ca discuția despre control uman să nu fie un moft, ci o cerință de siguranță.

Raportul Citrini și valul de neliniște de pe bursă

Disputa dintre Anthropic și Pentagon s-a suprapus cu o altă undă de șoc, venită dinspre piețele financiare. Un text publicat pe Substack de Citrini Research, sub forma unui test de stres narativ plasat în iunie 2028, a circulat rapid și a alimentat temeri legate de impactul IA asupra economiei.

Scenariul propune o lume în care automatizarea muncii intelectuale împinge șomajul din SUA peste 10%, iar indicele S&P 500 ar coborî cu 38% față de vârful atins în octombrie 2026. Autorii insistă că nu e o predicție, ci o simulare menită să arate cum ar arăta un șoc extrem într-o economie în care productivitatea crește, dar beneficiile nu ajung suficient de repede la oameni.

Un concept central este ceea ce ei numesc „PIB fantomă”, adică o economie în care outputul urcă pe hârtie, însă o parte mare din populație pierde venituri, iar consumul se contractă. Companiile pot raporta profituri, dar concedierile reduc cererea. Cererea redusă împinge alte firme să automatizeze, iar spirala se autoalimentează.

Chiar dacă textul este ipotetic, reacția a fost una vizibilă. În aceeași zi, au fost raportate scăderi puternice pe mai multe acțiuni și indicele Dow Jones ar fi pierdut peste 800 de puncte. Raportul a fost redistribuit și de Michael Burry, investitorul cunoscut pentru pariul său împotriva pieței imobiliare înainte de criza din 2008, care a ironizat temerile stârnite spunând că, până la urmă, nu el ar fi cel mai pesimist.

Neliniștea are și o explicație foarte concretă: aproape simultan cu viralizarea raportului, Anthropic a anunțat un instrument numit Claude Code, capabil să automatizeze explorarea și analiza codului COBOL, reducând proiecte care durau ani la câteva luni. O mișcare de acest tip nu rămâne niciodată doar în zona tehnică, pentru că lovește direct în industrii întregi, inclusiv în mentenanța COBOL, un segment evaluat la zeci de miliarde de dolari anual. În acest context, a fost menționată și o scădere abruptă a acțiunilor IBM, semn că piața ia în serios ideea că anumite servicii pot fi comprimate rapid de automatizare.

Anthropic, între expansiune și presiune politică

În paralel, Anthropic continuă să crească, cu un accent tot mai pronunțat pe clienți din zona companiilor mari. În spațiul public au apărut informații despre runde de finanțare substanțiale și despre planuri de listare la bursă în acest an. În biografia financiară a companiei mai apare și o asociere incomodă: Sam Bankman-Fried ar fi investit sume mari în Anthropic înainte de prăbușirea FTX. Legătura nu mai are relevanță operațională, dar rămâne un detaliu pe care criticii îl aduc periodic în discuție.

Jensen Huang, CEO Nvidia și partener strategic al Anthropic printr-un acord care include un angajament de investiții de ordinul miliardelor de dolari, a comentat pragmatic situația. A sugerat că disputa nu reprezintă un capăt de lume, că Pentagonul va căuta soluții și că piața IA nu se reduce la un singur jucător. Mesajul lui, dincolo de calm, indică un adevăr simplu: atât companiile, cât și instituțiile statului au alternative, iar tocmai asta face negocierile mai dure.

O miză care depășește cazul Anthropic

Dincolo de cifre, contracte și postări virale, rămâne întrebarea grea: când inteligența artificială devine infrastructură strategică, cine decide limitele și cine răspunde când lucrurile o iau razna? Pentagonul insistă că o firmă privată nu ar trebui să impună restricții armatei asupra unei tehnologii plătite din bani publici. Anthropic susține că există praguri etice și praguri tehnice care nu pot fi depășite fără a deschide uși periculoase. Iar Buterin, de pe margine, apasă exact pe punctul sensibil: autonomia letală și supravegherea în masă sunt domenii în care o societate își poate pierde reperele fără să-și dea seama.

Așa cum punctează Mihai Popa, jurnalist, editorialist și analist la Cryptology.ro, discuția nu mai este despre un contract, ci despre cine are ultimul cuvânt atunci când un algoritm ajunge să fie parte din aparatul de putere al unui stat.

Termenul-limită rămâne vineri, la ora anunțată. Anthropic nu dă semne că ar renunța ușor la condițiile sale, iar Pentagonul pare hotărât să nu accepte jumătăți de măsură. Între timp, piețele urmăresc fiecare nuanță, pentru că, în epoca IA, o dispută de principiu se poate transforma, de la o săptămână la alta, într-o schimbare de regulă pentru toată industria.

Postari fresh: