Știri
Știri din categoria Inteligență artificială

Goldman Sachs își intensifică investițiile în securitate cibernetică după ce CEO-ul David Solomon a spus că urmărește „cu vigilență ridicată” modelul Mythos al Anthropic, despre care compania afirmă că poate identifica vulnerabilități în sisteme IT la un nivel peste aproape toți experții umani, potrivit IT Home.
Declarațiile au fost făcute luni, în cadrul teleconferinței pe rezultate financiare a băncii, iar materialul citează o relatare publicată anterior de The Guardian. Solomon a indicat că modelele de tip „large language model” (modele lingvistice mari) evoluează rapid și că, „cu ajutorul guvernului SUA și al dezvoltatorilor de modele”, instituția rămâne atentă la capacitățile noi pe care acestea le aduc.
Anthropic a susținut săptămâna trecută că Mythos poate descoperi vulnerabilități în sisteme IT, ceea ce ar introduce „riscuri fără precedent”. Într-o postare pe blog, compania a argumentat că modelele AI au ajuns la un nivel ridicat în programare, iar capacitatea de a găsi și exploata vulnerabilități software ar fi depășit-o pe cea a tuturor oamenilor, cu excepția celor mai buni specialiști.
Potrivit aceleiași poziții a Anthropic, consecințele potențiale ar putea fi serioase pentru:
Solomon a mai spus că Goldman Sachs înțelege capacitățile reale ale modelului Mythos și că l-a folosit deja. În paralel, banca lucrează îndeaproape cu furnizori precum Anthropic pentru a valorifica aceste capabilități „de vârf”, menținând în același timp monitorizarea evoluțiilor din industrie.
În plan operațional, CEO-ul a indicat că instituția „își consolidează puternic” capabilitățile de securitate cibernetică și infrastructură și că își crește în continuare investițiile în aceste zone. Materialul nu oferă detalii despre buget, calendar sau proiecte specifice.
Recomandate

Administrația Trump împinge marile bănci americane spre testarea AI-ului Anthropic , deși Pentagonul a încercat să blocheze compania , într-un episod care riscă să creeze incertitudine de reglementare și operațională pentru instituțiile financiare care adoptă rapid tehnologia, potrivit The Next Web . Secretarul Trezoreriei, Scott Bessent, și președintele Rezervei Federale, Jerome Powell, au chemat în această săptămână executivi de la JPMorgan Chase, Goldman Sachs, Citigroup, Bank of America și Morgan Stanley și i-au îndemnat să folosească modelul „Mythos” al Anthropic pentru a identifica vulnerabilități de securitate cibernetică în propriile sisteme, conform Bloomberg, citat de publicație. Recomandarea vine în timp ce Departamentul Apărării se află în litigiu cu Anthropic, după ce a etichetat compania drept „risc pentru lanțul de aprovizionare”, ceea ce o exclude de la contracte militare. De ce contează: semnale contradictorii de la același guvern Contradicția este una de politică publică cu efect direct asupra pieței: aceeași administrație care a încercat să scoată Anthropic din zona de apărare încurajează acum sistemul financiar să se bazeze pe tehnologia sa pentru securitate. În centrul disputei cu Pentagonul se află refuzul Anthropic de a elimina două restricții de siguranță din modelele sale: interdicția utilizării în arme complet autonome și interdicția folosirii pentru supravegherea în masă a cetățenilor americani. Potrivit articolului, conflictul a escaladat în februarie, când secretarul Apărării Pete Hegseth i-ar fi dat CEO-ului Anthropic, Dario Amodei, un termen limită pentru a renunța la aceste restricții, în caz contrar compania riscând pierderea unui contract de apărare de 200 milioane de dolari (aprox. 920 milioane lei). Amodei a refuzat, iar ulterior a urmat desemnarea ca „risc pentru lanțul de aprovizionare” și un ordin al președintelui Trump ca agențiile federale să nu mai folosească tehnologia Anthropic. În instanță, situația a rămas mixtă: un judecător federal din California a emis o ordonanță preliminară care blochează desemnarea, însă o curte de apel din Washington, D.C. a respins cererea Anthropic de a opri temporar „blacklisting”-ul pe durata procesului. Efectul practic descris de publicație: Anthropic este exclusă din contractele Departamentului Apărării, dar poate lucra în continuare cu alte agenții guvernamentale. Ce este Mythos și de ce nu e disponibil public „Claude Mythos Preview” este prezentat ca un model de vârf („frontier model”), pe care Anthropic spune că nu l-a antrenat explicit pentru securitate cibernetică; capacitatea de a găsi vulnerabilități ar fi apărut ca efect al îmbunătățirilor generale în raționamentul pe cod și operare autonomă. În testare, modelul ar fi identificat „mii” de vulnerabilități „zero-day” (defecte necunoscute anterior dezvoltatorilor) în principalele sisteme de operare și browsere. Anthropic nu a lansat public modelul, ci l-a inclus într-un program restricționat, „ Project Glasswing ”, care oferă acces către aproximativ 50 de organizații. Lista menționată include, între altele, Amazon Web Services, Apple, Google, Microsoft, Nvidia, Cisco, CrowdStrike, Palo Alto Networks și JPMorgan Chase. Ca parte a inițiativei, Anthropic ar fi angajat până la 100 milioane de dolari (aprox. 460 milioane lei) în credite de utilizare și 4 milioane de dolari (aprox. 18,4 milioane lei) în donații către organizații de securitate open-source. Publicația notează însă și scepticismul din piață: Tom’s Hardware a pus sub semnul întrebării afirmațiile despre „mii” de descoperiri severe, arătând că acestea s-ar baza pe 198 de evaluări manuale și că multe vulnerabilități semnalate ar fi în software mai vechi sau greu de exploatat. În plus, o parte a comunității de securitate ar vedea lansarea restricționată și ca o tactică comercială de tip „scarcity” (crearea artificială a rarității) pentru clienți mari. Ce testează băncile și ce urmează pe partea de supraveghere JPMorgan Chase este menționată ca partener oficial în Project Glasswing, iar Bloomberg (citat de articol) susține că Goldman Sachs, Citigroup, Bank of America și Morgan Stanley testează intern Mythos. Cazurile de utilizare raportate includ: detectarea vulnerabilităților; semnalarea riscurilor de fraudă; automatizarea fluxurilor de lucru de conformitate (compliance) în sistemele financiare. Pe partea de reglementare, reacția descrisă nu se limitează la SUA. Financial Times, citat de The Next Web, relatează că autorități din Marea Britanie – Bank of England, Financial Conduct Authority și HM Treasury – discută cu National Cyber Security Centre pentru a evalua riscurile și vulnerabilitățile evidențiate de Mythos, iar reprezentanți ai unor bănci, asigurători și burse ar urma să fie informați în următoarele două săptămâni. În ansamblu, episodul arată cum adoptarea accelerată a AI-ului în infrastructura financiară poate avansa mai repede decât coerența deciziilor guvernamentale: pentru bănci, recomandarea venită simultan de la Trezorerie și Fed cântărește operațional, chiar dacă o altă ramură a administrației încearcă să limiteze aceeași companie. [...]

Anthropic discută cu administrația Trump despre modelul său AI de vârf, Mythos, chiar dacă Pentagonul i-a tăiat accesul la contracte pe fondul unui litigiu privind condițiile de utilizare militară , potrivit Reuters . Miza este una de reglementare și guvernanță: cum ajunge un model „de frontieră” (frontier AI) în dialog cu statul, în timp ce o agenție-cheie îl tratează drept risc de securitate în lanțul de aprovizionare. Cofondatorul Anthropic, Jack Clark , a spus luni, la evenimentul Semafor World Economy din Washington, că firma discută cu administrația despre Mythos și că va discuta și despre modelele viitoare, în pofida disputei contractuale cu Pentagonul. El a descris conflictul drept unul „îngust”, dar a insistat că nu ar trebui să blocheze cooperarea pe teme de securitate națională. „Avem o dispută contractuală îngustă, dar nu vreau ca asta să stea în calea faptului că ne pasă profund de securitatea națională.” De ce contează: „gardurile de protecție” pentru utilizarea militară Reuters arată că disputa dintre Anthropic și Pentagon a pornit de la „guardrails” – condiții și limitări privind modul în care armata ar putea folosi instrumentele de inteligență artificială ale companiei. În urma conflictului, agenția a etichetat Anthropic luna trecută drept „risc în lanțul de aprovizionare”, interzicând utilizarea produselor sale atât în Pentagon, cât și la contractori. În paralel, natura și detaliile discuțiilor dintre Anthropic și guvernul SUA – inclusiv ce agenții sunt implicate – nu erau clare imediat, potrivit aceleiași surse. Context: ce este Mythos și de ce ridică probleme de securitate cibernetică Mythos a fost anunțat pe 7 aprilie și este prezentat de companie drept cel mai capabil model al său pentru programare și „sarcini agentice” – adică activități pe care modelul le poate executa autonom. Experți citați de Reuters spun că abilitatea de a scrie cod la nivel înalt ar putea oferi modelului o capacitate potențial fără precedent de a identifica vulnerabilități de securitate cibernetică și de a găsi modalități de exploatare a acestora. Ce urmează: bătălia juridică rămâne deschisă Un complet federal de apel din Washington, D.C., a refuzat săptămâna trecută să blocheze, deocamdată, decizia Pentagonului de a trece Anthropic pe lista de „blacklisting” pe criterii de securitate națională, o victorie pentru administrația Trump. Reuters notează că decizia vine după ce o altă instanță de apel a ajuns la concluzia opusă într-o contestație separată inițiată de Anthropic. [...]

Un sondaj citat de TechRadar indică sabotaj intern la implementările AI , pe fondul temerilor legate de pierderea locurilor de muncă și al unei tensiuni tot mai vizibile între management și angajați: 29% dintre salariați ar „sabotaja activ” introducerea instrumentelor de inteligență artificială în companie, procentul urcând la 44% în rândul Generației Z. Ce arată raportul despre adopția AI în companii Datele provin dintr-un raport (PDF) realizat de Writer (firmă de „agenți AI” pentru companii) și Workplace Intelligence. Conform materialului, formele de „sabotaj” menționate includ: refuzul de a folosi instrumente AI impuse de companie; introducerea de informații proprietare ale companiei în sisteme AI publice, ca metodă de a compromite implementarea. TechRadar notează că o parte dintre angajații care se simt amenințați de AI aleg să nu utilizeze aceste instrumente, chiar și atunci când sunt cerute explicit. Riscul operațional: conflictul cu managementul și costul în carieră Raportul indică și o reacție dură din partea conducerii: 77% dintre executivi spun că ar fi mai puțin dispuși să ofere promovări sau roluri de leadership angajaților care evită instrumentele AI. În termeni operaționali, asta sugerează că adopția AI nu mai este doar o decizie tehnologică, ci devine un criteriu de evaluare și selecție internă, cu potențial de a amplifica tensiunile în organizații. Context: avertismente despre joburi și percepția publică În ianuarie 2026, la World Economic Forum, CEO-ul și cofondatorul Palantir, Alex Karp, a spus că AI „va distruge locurile de muncă din umaniste”, dar va avantaja piața pentru persoane cu pregătire vocațională și creativă. În același registru, CEO-ul Anthropic, Dario Amodei, a avertizat (potrivit TechRadar) că AI ar putea distruge jumătate dintre joburile „entry level” de tip white-collar. Materialul mai citează: un sondaj NBC News potrivit căruia 46% dintre alegătorii înregistrați din SUA au o opinie negativă despre AI, față de 26% cu opinie pozitivă; un studiu Anthropic (martie) care arată că modelul Claude poate realiza majoritatea sarcinilor asociate unor joburi din informatică, drept, business și finanțe. Într-un interviu pentru Axios , Karp este citat astfel: „Dacă ești genul de persoană care ar fi mers la Yale, clasic cu IQ mare, și ai cunoștințe generaliste, dar nu specifice, ești terminat.” De ce contează pentru companii Dincolo de dezbaterea despre piața muncii, datele din raport indică un risc imediat pentru implementările AI: rezistența internă poate lua forme care afectează direct proiectele (adopție scăzută, utilizare neconformă) și poate crea probleme de guvernanță a datelor, atunci când informații ale companiei ajung în sisteme publice. TechRadar sugerează că mesajul transmis de lideri și executivi este unul de adaptare forțată: angajații care nu folosesc AI pot fi penalizați în evoluția profesională, în timp ce o parte dintre cei mai tineri angajați încearcă să blocheze sau să încetinească schimbarea. [...]

Anthropic își împinge Claude direct în fluxul de lucru din Microsoft Word, vizând în primul rând revizuirea contractelor legale , într-o mișcare care poate muta valoare dinspre furnizorii specializați de tehnologie juridică către platformele de inteligență artificială integrate nativ în aplicațiile folosite zilnic de profesioniști, potrivit The Next Web . Anthropic a lansat pe 10 aprilie 2026 o versiune beta publică a „ Claude for Word ”, un add-in tip bară laterală pentru Microsoft Word pe Mac și Windows, disponibil prin Microsoft AppSource. Ideea centrală: utilizatorii nu mai trebuie să iasă din Word sau să copieze textul într-un instrument separat, iar fiecare modificare propusă de Claude apare ca „tracked change” (modificare urmărită) nativă, vizibilă în panoul de revizii, ca și cum ar fi intervenția unui coleg. De ce contează: AI-ul intră în „coloana vertebrală” a revizuirii juridice Anthropic poziționează explicit produsul pentru profesioniști care lucrează intens cu documente, „în special” pentru revizuire juridică, redactare de memorii financiare și editare iterativă. În lista de exemple, revizuirea contractelor legale este prima, cu solicitări sugerate precum: rezumarea termenilor comerciali cheie (părți, durată, lege aplicabilă, elemente „off-market”); semnalarea clauzelor care se abat de la standardele pieței, ordonate după severitate; transformarea clauzei de despăgubire (indemnizație) în una reciprocă și introducerea unui limbaj de rezervă standard; parcurgerea comentariilor din document și tratarea lor ca sarcini, cu modificări urmărite. Instrumentul este conceput să „înțeleagă” structuri complexe de document (numerotări juridice pe mai multe niveluri, termeni definiți, trimiteri interne, ierarhii de titluri) și să editeze clauze punctuale fără să strice formatarea din jur. Integrare în suita Office și acces: doar abonamentele de echipă și enterprise Claude for Word se conectează cu Claude pentru Excel și Claude pentru PowerPoint, astfel încât o singură conversație să poată continua între documente, foi de calcul și prezentări. Accesul este limitat, deocamdată, la: planul Claude Team, la 25 dolari/loc/lună (aprox. 115 lei); planurile Enterprise. În paralel, Anthropic este în discuții pentru o investiție de 200 milioane de dolari (aprox. 920 milioane lei) într-un joint venture susținut de private equity, menit să accelereze adopția în companii prin integrarea Claude în fluxurile de lucru ale firmelor din portofoliile fondurilor de investiții. Semnal pentru piață: presiune pe furnizorii de tehnologie juridică Materialul plasează lansarea în contextul intrării accelerate a Anthropic în zona juridică, după un plugin legal pentru platforma „Claude Cowork” lansat pe 2 februarie 2026. Reacția bursieră de atunci a fost abruptă: Thomson Reuters a scăzut cu 16%, RELX cu 14%, iar Wolters Kluwer cu 13% într-o singură sesiune (3 februarie), pe fondul unei pierderi estimate de 285 miliarde de dolari din capitalizarea companiilor din software și tehnologie juridică. În același timp, The Next Web notează că nu toată lumea a considerat vânzarea drept proporțională: publicația Artificial Lawyer a argumentat că arhivele proprietare de jurisprudență ale Thomson Reuters și LexisNexis rămân un avantaj competitiv greu de replicat de un add-in generalist. Mai mult, LexisNexis a integrat ulterior pluginul legal al Anthropic în suita sa Protégé de AI generativ, sugerând o strategie de „absorbție” a tehnologiei, nu doar competiție frontală. Limitări și risc operațional: verificarea rămâne pe umerii avocatului O problemă nerezolvată este răspunderea profesională. Claude for Word nu are acces la o bază de date de cercetare juridică în timp real și nu poate verifica dacă spețele citate există. The Next Web amintește un episod din mai 2025, când un document depus de avocații Anthropic într-un litigiu de copyright din California de Nord a inclus o trimitere „halucinată” (o citare inventată), după ce un avocat a folosit Claude pentru formatarea unei referințe. Judecătorul magistrat american a numit situația: „o problemă foarte serioasă și gravă”. Documentația pentru Claude for Word precizează că toate rezultatele trebuie revizuite de un avocat, însă rămâne de văzut dacă această condiție este suficientă pentru a limita riscul și dacă economiile de timp obținute depășesc costul suplimentar al verificării. [...]

Instrumentele de programare cu AI ridică rapid pragul calității software-ului, iar companiile cu produse slabe și fără date proprii riscă să fie eliminate , potrivit unei analize publicate de IT Home , care redă declarațiile lui Max Levchin (CEO Affirm și co-fondator PayPal) din podcastul Sourcery. Levchin susține că, pe măsură ce scrierea de cod devine mai accesibilă cu ajutorul AI, „software-ul prost” va fi lovit primul: aplicații cu interfețe rudimentare, funcționalitate limitată și fără date proprietare sau servicii cu valoare adăugată. În această logică, avantajul competitiv nu mai stă în a „avea un produs care funcționează cât de cât”, ci în calitate, diferențiere și active greu de replicat. Un punct central al argumentului său este că vechea justificare operațională — „e prea scump să angajăm ingineri ca să îmbunătățim produsul” — își pierde relevanța odată cu apariția instrumentelor de programare asistată de AI. În consecință, firmele care amână îmbunătățirile pe motiv de cost al forței de muncă ar putea rămâne rapid în urmă, iar înlocuirea lor devine „doar o chestiune de timp” dacă nu au date exclusive sau servicii suplimentare care să le apere poziția. Cine este mai expus și cine are „șanț de apărare” Levchin delimitează riscul în funcție de natura avantajului competitiv: Vulnerabile : companiile a căror ofertă este în esență „cod + o interfață simplă”, fără date proprietare și fără servicii cu valoare adăugată ; acestea pot fi replicate mai ușor într-un context în care AI accelerează dezvoltarea. Mai protejate : companiile cu operațiuni offline , relații comerciale și infrastructură greu de construit doar prin generare de cod. Ca exemplu, el invocă DoorDash pentru a respinge ideea că „AI poate copia ușor companiile de tip platformă”. Argumentul este că bariera reală nu este codul, ci rețeaua operațională: negocieri cu numeroase restaurante, instalarea de terminale dedicate, colectarea datelor de meniu și construirea unei infrastructuri de operare în teren. AI poate genera cod, dar nu poate automatiza, în același mod, negocierea comercială și implementarea infrastructurii. De ce contează pentru industrie Mesajul are o implicație directă pentru piața software: dacă dezvoltarea devine mai ieftină și mai rapidă, toleranța pentru produse mediocre scade , iar presiunea se mută pe diferențiatori greu de copiat — date, servicii, relații comerciale și execuție operațională. În această dinamică, „curățarea” pieței de produse slabe, pe care Levchin spune că „ar fi trebuit să se întâmple demult”, ar putea accelera. [...]

China a început să folosească un robot umanoid cu AI în operațiuni industriale cu risc ridicat , într-un semnal că automatizarea intră tot mai direct în activități unde, până acum, prezența umană era greu de înlocuit din motive de siguranță și acces. Potrivit Antena 3 , robotul a fost implementat într-o instalație de stocare a substanțelor chimice și este proiectat să preia sarcini periculoase, precum lucrul la construcția rezervoarelor. Robotul cântărește 90 kg și poate urca pe suprafețe metalice verticale, folosind un șasiu magnetic care îl fixează de pereți. Astfel, partea superioară „umanoidă” poate opera în zone greu accesibile pentru oameni. Ce se schimbă operațional: sarcini industriale executate de un sistem „multifuncțional” Conform informațiilor din articol, robotul este gândit pentru activități industriale esențiale, între care: sudură de precizie; îndepărtarea ruginii; inspecții de rutină. Diferența față de roboții anteriori care urcau pe pereți este că noul sistem este prezentat ca fiind capabil de multitasking, nu doar de o singură funcție repetitivă. „Creierul” cu AI și funcționarea 24/7 Robotul are 15 grade de libertate și două brațe, pentru a imita flexibilitatea umană în lucrul pe schele și în operațiuni simultane precum sudură și șlefuire. Potrivit CGTN, citat de Antena 3, componenta de inteligență artificială a fost antrenată pe 100.000 de ore de date, pentru a naviga în medii complexe și a se adapta la scenarii reale. În plus, robotul folosește un sistem de cablu conectat pentru alimentare, ceea ce ar elimina limitările de energie specifice unităților mobile și ar permite funcționarea non-stop, 24/7, fără pauze pentru reîncărcare. Context: extinderea roboților umanoizi în industrie, susținută de stat Articolul mai notează că, anterior, China a integrat un robot umanoid numit „ Nengzai No. 1 ” pe linia de asamblare a bateriilor pentru modelul Buick Electra E7 la SAIC Motor , ca parte a combinării roboților „asemănători oamenilor” cu echipamente industriale existente. Dominanța Chinei în zona roboților umanoizi este pusă pe seama sprijinului statului: peste 140 de companii ar fi active în domeniu, iar investițiile dedicate ar ajunge la 26 de miliarde de dolari (aprox. 117 miliarde lei), conform articolului. Antena 3 menționează și o estimare potrivit căreia, până în 2050, piața globală a acestor roboți ar putea ajunge la 7,5 trilioane de dolari (aprox. 34,5 trilioane lei), în condițiile extinderii utilizării în fabrici și locuințe. [...]