Știri
Știri din categoria Inteligență artificială

Anthropic refuză să elimine filtrele de siguranță ale inteligenței artificiale Claude, potrivit The Guardian, după ce Pentagonul a amenințat că va anula un contract de până la 200 de milioane de dolari și va declara firma „risc pentru lanțul de aprovizionare” dacă nu oferă armatei americane acces neîngrădit la modelul său.
Conflictul îl opune pe secretarul apărării, Pete Hegseth, conducerii Anthropic, în frunte cu directorul general Dario Amodei. Departamentul Apărării a cerut dezactivarea mecanismelor de protecție ale modelului Claude și permisiunea pentru „orice utilizare legală”, inclusiv în sisteme sensibile. Compania a refuzat, invocând două linii roșii: utilizarea pentru supraveghere internă în masă și integrarea în arme autonome capabile să ucidă fără intervenție umană.
Amodei a transmis că firma „nu poate, în mod responsabil”, să accepte aceste condiții, susținând că tehnologia actuală nu este suficient de sigură pentru asemenea aplicații. El a precizat totuși că Anthropic dorește continuarea colaborării cu armata SUA, dar cu garanțiile de siguranță menținute.
În paralel, compania xAI, fondată de Elon Musk, a obținut în această săptămână aprobarea de a-și integra propriul model în sisteme clasificate ale armatei, ceea ce amplifică presiunea asupra Anthropic.
Disputa evidențiază tensiunile tot mai mari dintre industria inteligenței artificiale și autoritățile militare privind utilizarea tehnologiei în conflicte. Potrivit The Washington Post, tehnologia Anthropic ar fi fost deja folosită în aplicații militare, inclusiv într-o operațiune legată de capturarea liderului venezuelean Nicolás Maduro luna trecută, semn al extinderii rapide a acestor instrumente. Dacă Pentagonul va aplica sancțiunea anunțată, Anthropic ar putea pierde accesul la o parte semnificativă a pieței de apărare, întrucât alți furnizori ai armatei nu ar mai putea utiliza produsele sale.
Recomandate

Anthropic a primit oferte de evaluare de circa 800 miliarde dolari (aprox. 3.680 miliarde lei), pe fondul unei accelerări explozive a veniturilor , potrivit The Next Web . Miza pentru investitori este dacă ritmul de creștere – care a dus compania la o rată anualizată a veniturilor de 30 miliarde dolari (aprox. 138 miliarde lei) – poate susține multipli de evaluare rar întâlniți chiar și în sectorul AI. Ofertele, atribuite de publicație unei informații Bloomberg, ar dubla peste nivelul de 380 miliarde dolari la care Anthropic a închis o rundă de finanțare de 30 miliarde dolari (aprox. 138 miliarde lei) cu doar două luni în urmă. Compania ar fi refuzat până acum să accepte propunerile. Ce susține evaluarea: veniturile au urcat de la 1 la 30 miliarde dolari anualizat Elementul central din spatele discuțiilor de evaluare este dinamica veniturilor. Anthropic ar fi încheiat 2024 la aproximativ 1 miliard dolari rată anualizată, ar fi ajuns la 9 miliarde dolari la final de 2025, apoi la 14 miliarde dolari în februarie 2026 și la 19–20 miliarde dolari în martie. La începutul lui aprilie 2026, compania ar fi depășit 30 miliarde dolari rată anualizată, ceea ce materialul descrie ca aproximativ 1.400% creștere de la an la an. În acest context, o evaluare de 800 miliarde dolari ar însemna un multiplu de circa 27 ori veniturile, nivel ridicat în termeni tradiționali, dar pe care analiza îl leagă de faptul că veniturile s-ar fi dublat la intervale de câteva luni. Întrebarea rămasă deschisă este cât timp poate continua această traiectorie. Scara finanțărilor și câștigurile investitorilor strategici Publicația trece în revistă escaladarea evaluărilor: în martie 2025, Anthropic ar fi atras 3,5 miliarde dolari la o evaluare de 61,5 miliarde dolari; în septembrie 2025 (Seria F), evaluarea implicită ar fi urcat la 183 miliarde dolari; iar în februarie 2026 a urmat runda de 30 miliarde dolari la 380 miliarde dolari, descrisă ca a doua cea mai mare tranzacție de capital de risc din istorie. În paralel, investitorii existenți ar fi marcat câștiguri contabile semnificative: Google ar deține 14% din Anthropic, după investiții totale de circa 3 miliarde dolari, și ar fi raportat 10,7 miliarde dolari câștig net din aceste dețineri. Amazon ar fi investit o sumă estimată la 8 miliarde dolari și ar fi raportat un câștig înainte de impozitare de 9,5 miliarde dolari asociat creșterii evaluării; compania este menționată și ca partener principal pentru cloud și antrenarea modelelor. IPO posibil din octombrie 2026, cu o țintă de peste 60 miliarde dolari Anthropic ar fi în discuții preliminare cu Goldman Sachs, JPMorgan și Morgan Stanley pentru o posibilă listare, care „ar putea veni” chiar din octombrie 2026, cu o atragere de capital așteptată de peste 60 miliarde dolari (aprox. 276 miliarde lei). La o evaluare pre-IPO de 800 miliarde dolari, o astfel de tranzacție ar intra în categoria celor mai mari listări din istoria tehnologiei, potrivit materialului. De ce contează: piața începe să prețuiască „platforme”, nu startup-uri Analiza argumentează că la acest nivel „cadrele” clasice de evaluare din capitalul de risc devin insuficiente: investitorii ar prețui un potențial „jucător de platformă” – o companie care ar putea deveni infrastructură de bază pentru economie, similar cu cloud-ul sau sistemele de operare mobile. În același timp, materialul punctează riscurile: multiplii mari presupun hipercreștere susținută, competiția pentru bugete corporate este dură (OpenAI, Google, Meta și alternative open-source), iar costurile de antrenare a modelelor de vârf, infrastructura și talentul pot eroda drumul către profitabilitate la scara cerută de o valoare de întreprindere de 800 miliarde dolari. Ce s-a schimbat recent: accelerarea veniturilor și modelul Claude Mythos Publicația indică două motive pentru schimbarea percepției față de februarie: accelerarea veniturilor și lansarea Claude Mythos (7 aprilie), prin inițiativa Project Glasswing. Materialul susține că Mythos Preview ar fi descoperit mii de vulnerabilități „zero-day” (breșe necunoscute anterior) în sisteme de operare și browsere majore și că a fost pus la dispoziția a doar 11 organizații, inclusiv Apple, Google, Microsoft și AWS, într-o inițiativă defensivă de 100 milioane dolari (aprox. 460 milioane lei). Decizia de a nu-l lansa public este prezentată ca un semnal către investitori privind capabilități considerate prea puternice pentru acces larg. Anthropic nu ar fi acceptat încă ofertele de 800 miliarde dolari, ceea ce poate indica fie așteptări de preț mai mare, fie negocierea unor termeni care să îi ofere mai mult control înaintea unei eventuale listări, potrivit materialului. [...]

Companiile care tratează AI ca „accelerator plug-and-play” în proiectare riscă să rămână blocate în faza de pilot , iar avantajul competitiv se va muta către organizațiile care integrează AI ca „strat de inteligență” peste instrumentele existente și își schimbă efectiv procesul de inginerie, potrivit unei analize publicate de TechRadar . Miza, în special pentru producătorii de echipamente și echipele de dezvoltare de produs, este capacitatea de a livra produse mai complexe mai repede, într-un context în care procesele tradiționale nu au fost gândite pentru ritmul și scara actuale. Autorul indică trei factori care vor decide competitivitatea: viteza de iterare a designului, detectarea timpurie a punctelor de fricțiune la nivel de sistem și capacitatea de a „codifica” și scala know-how-ul intern de inginerie. De ce multe inițiative de AI în design se opresc la pilot Analiza susține că o cauză frecventă este așteptarea greșită că AI poate înlocui complet instrumentele existente de proiectare și simulare. Această abordare duce la obiective nerealiste și poate adânci diferențele de competențe dintre echipe și tehnologiile pe care încearcă să le adopte. În schimb, AI este prezentată ca o extensie a tehnologiilor CAD și CAE (proiectare asistată de calculator și inginerie asistată de calculator), care poate crește eficiența și scala, fără a elimina nevoia de instrumente consacrate sau de judecată inginerească. „Noul manual”: design cantitativ și iterație continuă Modelul descris mută accentul de la perfecționarea unui singur model 3D, pe parcursul a săptămâni, către definirea unui „spațiu de design” (set de constrângeri și ținte de performanță) în care AI poate genera rapid variante viabile în paralel. Inginerii formulează intenția și condițiile, AI propune opțiuni, iar oamenii aleg direcțiile promițătoare și rafinează cerințele. Consecința operațională urmărită este comprimarea ciclurilor de decizie și aducerea mai devreme în proiect a compromisurilor (de tip cost–performanță–siguranță), înainte ca echipele să investească masiv în o singură soluție. Copiloții de design și „stratul de inteligență” peste toolchain Pentru ca acest mod de lucru să funcționeze „zi de zi”, textul descrie apariția unui „strat de inteligență” care se conectează la lanțul de instrumente deja folosit (CAD, simulare, sisteme de management al ciclului de viață al produsului) și îl completează cu copiloți AI capabili să: genereze geometrii „gata de CAD”; anticipeze comportamentul fizic; scoată la suprafață compromisuri între echipe. Ideea centrală este că organizațiile pot obține viteză și vizibilitate mai bună asupra deciziilor fără să-și reconstruiască fluxurile de lucru „de la zero” pentru proiectele aflate în derulare. Implicații pentru echipe: roluri noi, dar responsabilitatea rămâne la oameni Pe măsură ce AI se integrează, apar roluri precum „designerul cantitativ” (care explorează spații de design și encodează expertiza în fluxuri compatibile cu AI) și „constructorul AI” (care face legătura între IT, date și inginerie pentru integrare sigură și la scară). În același timp, analiza insistă că AI nu înlocuiește cunoașterea tacită acumulată prin experiență și nici evaluarea compromisurilor „dezordonate” dintre confort, siguranță, cost și performanță. AI reduce mai degrabă fricțiunea dintre judecata umană și instrumentele digitale care transformă ideile în produse. Ce urmează: de la pilot la implementări țintite În termen scurt, reușita ar veni din selectarea câtorva fluxuri de lucru „strategic importante”, demonstrarea rezultatelor designului cantitativ asistat de AI și investiții în oameni, astfel încât echipele să devină utilizatori competenți și să poată modela aceste instrumente. Pe termen mai lung, capacitatea de a combina creativitatea umană cu explorarea accelerată de AI ar urma să influențeze cât de repede ajung pe piață produse mai bune. [...]

O hotărâre a unui judecător federal din New York ridică riscuri juridice directe pentru utilizarea chatbot-urilor în dosare penale și civile, după ce instanța a decis că un fost director nu poate ascunde conversațiile cu un asistent AI de procurori, potrivit Digi24 . Decizia a amplificat avertismentele venite din partea avocaților americani: discuțiile cu chatboți precum Claude (Anthropic) și ChatGPT (OpenAI) pot fi cerute ca probe, fie de procurori în anchete penale, fie de părțile adverse în litigii civile. Miza este pierderea „privilegiului avocat-client” – protecția care, în mod obișnuit, face confidențiale comunicările dintre avocat și client – atunci când informațiile ajung la o terță parte, iar un chatbot nu este considerat avocat. Hotărârea care a declanșat semnalele de alarmă Cazul îl vizează pe Bradley Heppner , fost președinte al companiei de servicii financiare falimentare GWG Holdings și fondator al Beneficent, acuzat de procurori federali (în noiembrie anul trecut) de fraudă în domeniul valorilor mobiliare și fraudă electronică; acesta a pledat nevinovat. Heppner a folosit Claude pentru a pregăti rapoarte despre cazul său și le-a împărtășit avocaților. Apărarea a susținut că schimburile cu AI ar trebui protejate, deoarece includeau detalii primite de la avocați. Procurorii au argumentat însă că avocații nu au fost implicați direct în acele comunicări și că privilegiul avocat-client nu se aplică chatbot-urilor. În februarie, judecătorul districtual american Jed Rakoff (Manhattan) a decis că Heppner trebuie să predea 31 de documente generate cu ajutorul lui Claude, legate de caz. „Nu există «și nici nu ar putea exista o relație avocat-client între un utilizator de IA și o platformă precum Claude»”, a scris Rakoff. De ce contează pentru companii și persoane: confidențialitatea devine incertă Pe fondul utilizării tot mai frecvente a inteligenței artificiale pentru „sfaturi” și redactări, peste o duzină de firme de avocatură importante din SUA au început să trimită clienților e-mailuri și să publice avize cu recomandări pentru reducerea riscului ca discuțiile cu AI să ajungă în instanță. Printre ideile vehiculate de avocați se numără: alegerea atentă a platformelor de AI și a condițiilor de utilizare; preferința pentru sisteme „închise”, destinate uzului corporativ, despre care unele firme spun că ar putea oferi protecții mai solide (dar subliniază că zona rămâne, în mare parte, netestată); folosirea AI pentru cercetare juridică mai ales la indicația unui avocat, ceea ce ar putea crește șansele de protecție prin privilegiul avocat-client. Firma Debevoise & Plimpton a sugerat inclusiv o formulare pe care utilizatorii să o introducă în solicitarea către chatbot atunci când lucrează la indicația avocatului: „Efectuez această cercetare la indicația avocatului în cadrul litigiului X.” Două instanțe, două abordări în aceeași zi În aceeași zi cu hotărârea lui Rakoff, un alt judecător – magistratul american Anthony Patti (Michigan) – a decis că o femeie care se reprezenta singură într-un proces împotriva fostei companii nu era obligată să predea conversațiile cu ChatGPT despre pretențiile din dosar. Patti a tratat discuțiile cu AI ca parte a propriului „produs al muncii” (material pregătit pentru caz), nu ca pe conversații cu o persoană care ar putea fi folosită de angajator în apărare. „ChatGPT și alte programe generative de AI sunt instrumente, nu persoane”, a scris Patti. Ce urmează: mai multe litigii și reguli de prudență Potrivit avocaților citați, sunt așteptate noi hotărâri care să lămurească în ce condiții conversațiile cu AI pot deveni probe. Până atunci, recomandarea de bază rămâne una conservatoare: dacă ai un caz cu miză juridică, nu discuta detalii sensibile cu nimeni în afara avocatului – inclusiv cu un chatbot. [...]

BCE pregătește avertismente către bănci privind riscurile cibernetice asociate noului model de inteligență artificială al Anthropic , pe fondul temerilor că tehnologia ar putea amplifica atacurile informatice și ar pune presiune pe infrastructura IT existentă din sector, potrivit Agerpres . Modelul „Mythos ”, dezvoltat de start-up-ul de inteligență artificială Anthropic, este văzut de experți în securitate cibernetică drept o provocare semnificativă pentru industria bancară și pentru sistemele sale tehnologice actuale. Îngrijorările au ajuns și la autoritățile de reglementare din Marea Britanie și Statele Unite, conform informațiilor citate. Ce face BCE, concret Supervizorii BCE strâng informații despre model și ar urma să discute cu băncile pe care le supraveghează această posibilă nouă sursă de risc, au declarat pentru Reuters surse care au dorit să își păstreze anonimatul. În Europa, abordarea ar urma să fie integrată în dialogul regulat al BCE cu personalul băncilor, nu printr-o întâlnire specială cu șefii instituțiilor de credit. Deocamdată, nu ar fi fost programată nicio reuniune ad-hoc. Un purtător de cuvânt al BCE a refuzat să comenteze. [...]

Agențiile federale americane continuă să testeze și să ceară briefinguri despre modelul AI „Mythos” al Anthropic , în pofida unei interdicții impuse de președintele Donald Trump , potrivit informațiilor relatate de HotNews . Miza este una operațională și de securitate: guvernul pare să caute acces la capabilități avansate de „scanare” și testare cibernetică, chiar dacă relația oficială cu compania este blocată. Centrul pentru Standarde și Inovație în domeniul inteligenței artificiale din cadrul Departamentului Comerțului testează activ capacitățile de „hacking” ale celui mai nou model Anthropic, numit Mythos, notează publicația, citând Politico și Reuters. În paralel, personalul din cel puțin trei comisii ale Congresului a organizat sau a solicitat, în ultima săptămână, briefinguri de la companie pentru a înțelege mai bine capacitățile de scanare cibernetică ale modelului. Ce se știe despre „ocolirea” interdicției Din informațiile disponibile, contactele cu Anthropic nu s-au oprit complet, deși există o interdicție prezidențială privind colaborarea: Departamentul Comerțului, prin centrul său dedicat standardelor și inovației în AI, ar testa activ modelul Mythos. Cel puțin trei comisii ale Congresului au cerut sau au ținut briefinguri cu Anthropic pe tema capabilităților de securitate cibernetică. Co-fondatorul Anthropic, Jack Clark , a declarat că firma discută despre Mythos cu administrația Trump, chiar și după ce Pentagonul a întrerupt colaborarea cu compania în urma unui litigiu contractual. În același timp, natura și detaliile discuțiilor dintre Anthropic și guvernul SUA – inclusiv ce agenții sunt implicate – „nu sunt foarte clare la acest moment”, potrivit materialului. De ce contează: un model ținut departe de public, dar util pentru securitate Mythos a fost anunțat pe 7 aprilie și este descris de companie drept „cel mai capabil model al Anthropic până în prezent” pentru sarcini de programare și sarcini „agentice” (adică poate acționa autonom). HotNews amintește că Anthropic a prezentat săptămâna trecută „Claude Mythos Preview”, un model pe care compania nu intenționează să îl lanseze public, urmând să fie accesibil doar unui grup restrâns de organizații – în principal companii mari de tehnologie și actori din securitate cibernetică. Motivul invocat este riscul: compania susține că modelul ar putea depăși aproape toți experții umani în descoperirea și chiar exploatarea vulnerabilităților software, inclusiv a unor breșe foarte subtile, care ar rămâne în mod normal nedetectate. Reacții și necunoscute Potrivit Reuters, Anthropic, Casa Albă și Departamentul Comerțului nu au răspuns imediat solicitărilor de declarații. În lipsa unor clarificări oficiale, rămâne neprecizat în ce măsură activitățile descrise (testare, briefinguri, discuții) se încadrează sau nu în interdicția menționată și ce consecințe administrative ar putea urma. [...]

Agențiile federale americane continuă să lucreze cu Anthropic , în pofida unei interdicții impuse de președintele Donald Trump , prin testări și briefinguri care sugerează că restricția este ocolită „discret”, potrivit HotNews . Miza este una operațională și de reglementare: guvernul pare să caute acces la un model de inteligență artificială cu potențial major în securitate cibernetică, chiar în absența unei linii publice coerente privind colaborarea. Centrul pentru Standarde și Inovație în domeniul inteligenței artificiale din cadrul Departamentului Comerțului testează activ capacitățile de hacking ale noului model Anthropic, numit Mythos , conform materialului citat de HotNews (care menționează Politico și Reuters). În paralel, personalul din cel puțin trei comisii ale Congresului a organizat sau a solicitat, în ultima săptămână, briefinguri din partea companiei pentru a înțelege mai bine capacitățile de „scanare cibernetică” ale modelului. Ce se știe despre discuțiile cu administrația Trump Co-fondatorul Anthropic, Jack Clark, a declarat luni, la evenimentul Semafor World Economy, că firma discută despre Mythos cu administrația Trump, chiar și după ce Pentagonul ar fi întrerupt colaborarea cu compania în urma unui litigiu contractual. Totuși, natura și detaliile discuțiilor dintre Anthropic și guvernul SUA – inclusiv ce agenții sunt implicate și în ce cadru – „nu sunt foarte clare” în acest moment, potrivit informațiilor prezentate. Reuters mai notează că Anthropic, Casa Albă și Departamentul Comerțului nu au răspuns imediat solicitărilor de declarații. De ce contează: un model cu utilizări sensibile, ținut departe de public Mythos a fost anunțat pe 7 aprilie și este descris de companie drept „cel mai capabil” model al său pentru sarcini de codare și „agentice” (adică poate acționa autonom). HotNews amintește că Anthropic a prezentat recent „Claude Mythos Preview”, pe care nu intenționează să îl lanseze public, urmând să îl ofere doar unui grup restrâns de organizații, în special companii mari de tehnologie și actori din securitate cibernetică. Decizia este legată de riscuri de siguranță publică, detaliate într-un material separat al publicației, inclusiv posibilitatea ca modelul să depășească aproape toți experții umani în descoperirea și chiar exploatarea vulnerabilităților software (context în HotNews ). În acest context, faptul că agenții federale și structuri din Congres continuă interacțiunile cu Anthropic, în pofida unei interdicții prezidențiale, ridică întrebări despre cum este aplicată restricția și ce excepții sau canale alternative sunt folosite în practică. [...]