Știri
Știri din categoria Inteligență artificială

Evaluarea de 852 mld. dolari (aprox. 3.900 mld. lei) a OpenAI este pusă sub semnul întrebării de unii dintre propriii investitori, pe fondul schimbărilor repetate de strategie și al pivotării către clienți corporate, potrivit The Next Web, care citează Financial Times.
Îngrijorările vizează „turbulența” strategică din ultimele luni: OpenAI și-a revizuit de două ori foaia de parcurs a produselor în șase luni, mai întâi sub presiunea competiției cu Google, apoi cu Anthropic, și a renunțat între timp la mai multe inițiative, inclusiv lansarea Sora pentru generare video și un chatbot „adult”. Unii investitori au spus pentru Financial Times că aceste schimbări rapide pot lăsa compania vulnerabilă în fața Anthropic și a unui Google aflat în revenire, în timp ce OpenAI se pregătește pentru o posibilă listare la bursă chiar din trimestrul IV 2026.
Un investitor timpuriu a criticat direcția companiei, invocând creșterea ChatGPT și întrebând de ce OpenAI „vorbește despre enterprise și cod”, concluzionând că este „o companie profund nefocusată”. Separat, Jai Das, președintele Sapphire Ventures (care nu investește în OpenAI sau Anthropic), a comparat OpenAI cu „Netscape of AI”, sugerând riscul de a fi depășită într-o piață care se consolidează rapid. Un alt investitor, care a finanțat ambele companii, a spus că pentru a justifica ultima rundă de finanțare ar trebui presupusă o evaluare la IPO de cel puțin 1,2 trilioane de dolari (aprox. 5.500 mld. lei).
Conducerea OpenAI a respins criticile. Directoarea financiară Sarah Friar a indicat runda de finanțare de 122 mld. dolari (aprox. 560 mld. lei) închisă luna trecută — descrisă drept cea mai mare rundă privată din istoria Silicon Valley — ca dovadă a încrederii investitorilor, între care sunt menționați SoftBank, Amazon, Nvidia, Andreessen Horowitz, Sequoia Capital și Thrive Capital, alături de peste 25 de investitori.
„Sugestia că investitorii nu susțin strategia noastră contrazice faptele”, a spus Friar. „Runda noastră, cea mai mare din istorie, a fost suprasubscrisă, închisă în timp record și susținută de un set larg de investitori globali.”
Friar a mai declarat pentru CNBC că segmentul enterprise reprezintă acum 40% din veniturile totale ale OpenAI și este pe cale să ajungă la nivelul business-ului de consum până la finalul lui 2026.
În centrul tensiunilor se află ritmul de creștere al veniturilor Anthropic. Potrivit materialului, venitul annualizat (run rate) al companiei care dezvoltă Claude ar fi urcat de la aproximativ 9 mld. dolari la final de 2025 la 30 mld. dolari la final de martie 2026, pe fondul cererii pentru instrumente de programare. OpenAI susține că a atins 25 mld. dolari venit annualizat în februarie.
Diferența a declanșat o reacție dură din partea noului director comercial (CRO) al OpenAI, Denise Dresser (angajată în decembrie 2025, venind din rolul de CEO al Slack). Într-un memo intern, Dresser a acuzat Anthropic că și-ar supraevalua run rate-ul cu circa 8 mld. dolari, din cauza unei diferențe de raportare: Anthropic ar înregistra „brut” (gross) veniturile generate prin parteneri de distribuție în cloud (Amazon Web Services și Google Cloud), în timp ce OpenAI ar raporta „net” (după deducerea părții partenerului) veniturile din parteneriatul cu Microsoft. Articolul precizează că ambele abordări sunt permise de standardele contabile americane (US GAAP).
Dacă analiza OpenAI ar fi corectă, run rate-ul comparabil al Anthropic ar fi mai aproape de 22 mld. dolari, nu de 30 mld. dolari. Anthropic a contestat interpretarea, iar o persoană apropiată companiei a spus pentru Financial Times că recunoaște veniturile „brut” prin parteneri deoarece este „principalul” în tranzacție, iar partenerii cloud sunt canalul de distribuție.
OpenAI vizează 30 gigawați de capacitate de calcul până în 2030 și le-a spus investitorilor că a securizat deja 8 gigawați, susținând că Anthropic nu ar ajunge la acest nivel până la finalul lui 2027.
În memo-ul intern, Dresser a recunoscut că focusul Anthropic pe programare i-a oferit un avantaj inițial în enterprise, dar a argumentat că o poziționare îngustă, centrată pe dezvoltatori, poate deveni o vulnerabilitate pe măsură ce utilizarea AI se extinde dincolo de echipele de inginerie. Documentul a enumerat și priorități pentru trimestrul al doilea, inclusiv un nou model cu nume de cod „Spud”, dezvoltarea platformei de agenți „Frontier”, extinderea printr-un parteneriat anunțat cu Amazon și construirea unui „motor de implementare” numit DeployCo.
Recomandate

Atacul cu cocktail Molotov asupra locuinței lui Sam Altman ridică miza de securitate pentru industria AI , după ce suspectul ar fi vizat explicit uciderea CEO-ului OpenAI și ar fi amenințat ulterior sediul companiei, potrivit Adevărul . Incidentul a avut loc vineri, 10 aprilie, la casa lui Altman din California. O purtătoare de cuvânt a OpenAI a confirmat atacul și a spus că aceeași persoană „a făcut și amenințări la sediul nostru din San Francisco”, conform BBC. Nu au existat răniți, iar compania a mulțumit poliției pentru intervenție. După atac, suspectul ar fi fugit și, aproximativ o oră mai târziu, a apărut în fața unui birou OpenAI, unde ar fi amenințat că „va da foc clădirii”, potrivit autorităților. Atunci a fost arestat. Ce știu autoritățile despre suspect și acuzații Poliția a transmis că suspectul este un texan în vârstă de 20 de ani, Daniel Moreno-Gama , informație relatată de News.ro. El a fost inculpat pentru tentativă de distrugere cu ajutorul unor explozivi și deținerea unei arme neînregistrate. Autoritățile mai susțin că, după atacul asupra locuinței, tânărul a ajuns la sediul OpenAI și a încercat să pătrundă forțat. La intervenția poliției, avea asupra sa combustibil, o brichetă și un document intitulat „Ultimul tău avertisment”. „Manifest” împotriva AI și țintirea conducerii companiilor Documentul găsit asupra suspectului „promova lupta împotriva AI şi încuraja la omor şi alte infracţiuni penale” împotriva patronilor şi investitorilor din sectorul inteligenței artificiale, potrivit Departamentului Justiției. Conform autorităților, tânărul ar fi scris că a încercat să-l omoare pe Sam Altman: „Dacă supravieţuieşti printr-o minune, voi lua asta drept un semn divin al răscumpărării tale”. Într-o postare pe blog, la scurt timp după incident, Sam Altman a cerut o „dezescaladare a retoricii şi metodelor”, interpretată ca o aluzie la criticile tot mai dure la adresa industriei AI. Context: o companie de sute de miliarde, într-un sector sub presiune Locuința lui Altman se află în cartierul Russian Hill din San Francisco, iar averea sa este estimată de Forbes la circa 3,4 miliarde de dolari (aprox. 15,3 miliarde lei). OpenAI, fondată în 2015 și cunoscută pentru ChatGPT, este evaluată la aproximativ 852 de miliarde de dolari (aprox. 3.834 miliarde lei), conform informațiilor din articol. [...]

Goldman Sachs își intensifică investițiile în securitate cibernetică după ce CEO-ul David Solomon a spus că urmărește „cu vigilență ridicată” modelul Mythos al Anthropic , despre care compania afirmă că poate identifica vulnerabilități în sisteme IT la un nivel peste aproape toți experții umani, potrivit IT Home . Declarațiile au fost făcute luni, în cadrul teleconferinței pe rezultate financiare a băncii, iar materialul citează o relatare publicată anterior de The Guardian. Solomon a indicat că modelele de tip „large language model” (modele lingvistice mari) evoluează rapid și că, „cu ajutorul guvernului SUA și al dezvoltatorilor de modele”, instituția rămâne atentă la capacitățile noi pe care acestea le aduc. De ce contează: capabilitățile de găsire a „breșelor” pot schimba balanța riscului Anthropic a susținut săptămâna trecută că Mythos poate descoperi vulnerabilități în sisteme IT, ceea ce ar introduce „riscuri fără precedent”. Într-o postare pe blog, compania a argumentat că modelele AI au ajuns la un nivel ridicat în programare, iar capacitatea de a găsi și exploata vulnerabilități software ar fi depășit-o pe cea a tuturor oamenilor, cu excepția celor mai buni specialiști. Potrivit aceleiași poziții a Anthropic, consecințele potențiale ar putea fi serioase pentru: economie, siguranța publică, securitatea națională. Ce face Goldman Sachs: utilizare, colaborare cu furnizori și investiții mai mari Solomon a mai spus că Goldman Sachs înțelege capacitățile reale ale modelului Mythos și că l-a folosit deja. În paralel, banca lucrează îndeaproape cu furnizori precum Anthropic pentru a valorifica aceste capabilități „de vârf”, menținând în același timp monitorizarea evoluțiilor din industrie. În plan operațional, CEO-ul a indicat că instituția „își consolidează puternic” capabilitățile de securitate cibernetică și infrastructură și că își crește în continuare investițiile în aceste zone. Materialul nu oferă detalii despre buget, calendar sau proiecte specifice. [...]

Raportul anual al Stanford arată că percepția publicului despre AI se îndepărtează rapid de cea a experților , un decalaj care riscă să alimenteze presiuni de reglementare și costuri operaționale pentru companiile care dezvoltă și implementează tehnologia, potrivit TechCrunch . Documentul notează o creștere a anxietății legate de AI și, în SUA, îngrijorări privind efectele asupra locurilor de muncă, îngrijirii medicale și economiei. În timp ce liderii din industrie își concentrează discursul pe riscuri de tip AGI (inteligență artificială generală – o formă teoretică de „superinteligență” capabilă să facă orice sarcină umană), publicul se uită mai degrabă la impactul imediat: salarii, stabilitatea joburilor și posibile scumpiri ale energiei pe fondul construirii de centre de date mari consumatoare de electricitate. Diferențe mari între experți și public pe joburi, economie și sănătate Raportul Stanford sintetizează mai multe seturi de date despre sentimentul public, inclusiv rezultate din cercetări Pew Research citate în raport. Un exemplu: doar 10% dintre americani au spus că sunt mai entuziasmați decât îngrijorați de utilizarea tot mai mare a AI în viața de zi cu zi, în timp ce 56% dintre experții în AI consideră că tehnologia va avea un impact pozitiv asupra SUA în următorii 20 de ani. Pe domenii, diferențele sunt și mai pronunțate: Îngrijire medicală: 84% dintre experți anticipează un impact în mare parte pozitiv, față de 44% din publicul general din SUA. Modul în care oamenii își fac munca: 73% dintre experți sunt optimiști, comparativ cu 23% din public. Economie: 69% dintre experți văd un efect pozitiv, dar doar 21% dintre respondenții din public sunt de acord, pe fondul temerilor legate de concedieri și perturbări la locul de muncă. Piața muncii: aproape două treimi dintre americani (64%) cred că AI va duce la mai puține locuri de muncă în următorii 20 de ani. Încrederea în reglementare rămâne un punct sensibil Raportul indică și o problemă de guvernanță: SUA ar avea cel mai scăzut nivel de încredere în capacitatea guvernului de a reglementa responsabil AI, la 31%, în comparație cu alte țări. Singapore apare cu cel mai ridicat nivel, 81%, pe baza datelor Ipsos incluse în raport. Separat, o altă sursă citată în raport arată că, la nivel național în SUA, 41% dintre respondenți cred că reglementarea federală a AI nu va merge suficient de departe , în timp ce 27% spun că ar merge „prea departe”. Context: reacții online și o generație mai furioasă, deși folosește AI TechCrunch notează că raportul vine pe fondul unei intensificări a sentimentului negativ față de AI, cu Gen Z „în avangardă”, potrivit unui sondaj Gallup citat de publicație: tinerii ar fi mai puțin optimiști și mai furioși, deși aproximativ jumătate folosesc AI zilnic sau săptămânal. Diviziunea dintre „insideri” și public a devenit vizibilă și în reacțiile online la atacurile recente asupra locuinței CEO-ului OpenAI, Sam Altman , unde unele comentarii au părut să laude incidentul, în timp ce persoane din industrie s-au declarat surprinse de tonul acestor reacții. Un semnal mixt: beneficii percepute în creștere, dar și nervozitate mai mare La nivel global, ponderea celor care cred că produsele și serviciile AI aduc mai multe beneficii decât dezavantaje a crescut ușor, de la 55% în 2024 la 59% în 2025. În același timp, a crescut și ponderea celor care spun că AI îi face „nervoși”, de la 50% la 52%. Pentru companii, mesajul implicit al raportului este că acceptarea socială și încrederea în reglementare pot deveni la fel de importante ca performanța tehnică: dacă publicul rămâne concentrat pe efectele asupra veniturilor și costurilor (inclusiv energie), presiunea pentru reguli mai stricte și pentru limitarea unor proiecte de infrastructură ar putea crește. [...]

Administrația Trump împinge marile bănci americane spre testarea AI-ului Anthropic , deși Pentagonul a încercat să blocheze compania , într-un episod care riscă să creeze incertitudine de reglementare și operațională pentru instituțiile financiare care adoptă rapid tehnologia, potrivit The Next Web . Secretarul Trezoreriei, Scott Bessent, și președintele Rezervei Federale, Jerome Powell, au chemat în această săptămână executivi de la JPMorgan Chase, Goldman Sachs, Citigroup, Bank of America și Morgan Stanley și i-au îndemnat să folosească modelul „Mythos” al Anthropic pentru a identifica vulnerabilități de securitate cibernetică în propriile sisteme, conform Bloomberg, citat de publicație. Recomandarea vine în timp ce Departamentul Apărării se află în litigiu cu Anthropic, după ce a etichetat compania drept „risc pentru lanțul de aprovizionare”, ceea ce o exclude de la contracte militare. De ce contează: semnale contradictorii de la același guvern Contradicția este una de politică publică cu efect direct asupra pieței: aceeași administrație care a încercat să scoată Anthropic din zona de apărare încurajează acum sistemul financiar să se bazeze pe tehnologia sa pentru securitate. În centrul disputei cu Pentagonul se află refuzul Anthropic de a elimina două restricții de siguranță din modelele sale: interdicția utilizării în arme complet autonome și interdicția folosirii pentru supravegherea în masă a cetățenilor americani. Potrivit articolului, conflictul a escaladat în februarie, când secretarul Apărării Pete Hegseth i-ar fi dat CEO-ului Anthropic, Dario Amodei, un termen limită pentru a renunța la aceste restricții, în caz contrar compania riscând pierderea unui contract de apărare de 200 milioane de dolari (aprox. 920 milioane lei). Amodei a refuzat, iar ulterior a urmat desemnarea ca „risc pentru lanțul de aprovizionare” și un ordin al președintelui Trump ca agențiile federale să nu mai folosească tehnologia Anthropic. În instanță, situația a rămas mixtă: un judecător federal din California a emis o ordonanță preliminară care blochează desemnarea, însă o curte de apel din Washington, D.C. a respins cererea Anthropic de a opri temporar „blacklisting”-ul pe durata procesului. Efectul practic descris de publicație: Anthropic este exclusă din contractele Departamentului Apărării, dar poate lucra în continuare cu alte agenții guvernamentale. Ce este Mythos și de ce nu e disponibil public „Claude Mythos Preview” este prezentat ca un model de vârf („frontier model”), pe care Anthropic spune că nu l-a antrenat explicit pentru securitate cibernetică; capacitatea de a găsi vulnerabilități ar fi apărut ca efect al îmbunătățirilor generale în raționamentul pe cod și operare autonomă. În testare, modelul ar fi identificat „mii” de vulnerabilități „zero-day” (defecte necunoscute anterior dezvoltatorilor) în principalele sisteme de operare și browsere. Anthropic nu a lansat public modelul, ci l-a inclus într-un program restricționat, „ Project Glasswing ”, care oferă acces către aproximativ 50 de organizații. Lista menționată include, între altele, Amazon Web Services, Apple, Google, Microsoft, Nvidia, Cisco, CrowdStrike, Palo Alto Networks și JPMorgan Chase. Ca parte a inițiativei, Anthropic ar fi angajat până la 100 milioane de dolari (aprox. 460 milioane lei) în credite de utilizare și 4 milioane de dolari (aprox. 18,4 milioane lei) în donații către organizații de securitate open-source. Publicația notează însă și scepticismul din piață: Tom’s Hardware a pus sub semnul întrebării afirmațiile despre „mii” de descoperiri severe, arătând că acestea s-ar baza pe 198 de evaluări manuale și că multe vulnerabilități semnalate ar fi în software mai vechi sau greu de exploatat. În plus, o parte a comunității de securitate ar vedea lansarea restricționată și ca o tactică comercială de tip „scarcity” (crearea artificială a rarității) pentru clienți mari. Ce testează băncile și ce urmează pe partea de supraveghere JPMorgan Chase este menționată ca partener oficial în Project Glasswing, iar Bloomberg (citat de articol) susține că Goldman Sachs, Citigroup, Bank of America și Morgan Stanley testează intern Mythos. Cazurile de utilizare raportate includ: detectarea vulnerabilităților; semnalarea riscurilor de fraudă; automatizarea fluxurilor de lucru de conformitate (compliance) în sistemele financiare. Pe partea de reglementare, reacția descrisă nu se limitează la SUA. Financial Times, citat de The Next Web, relatează că autorități din Marea Britanie – Bank of England, Financial Conduct Authority și HM Treasury – discută cu National Cyber Security Centre pentru a evalua riscurile și vulnerabilitățile evidențiate de Mythos, iar reprezentanți ai unor bănci, asigurători și burse ar urma să fie informați în următoarele două săptămâni. În ansamblu, episodul arată cum adoptarea accelerată a AI-ului în infrastructura financiară poate avansa mai repede decât coerența deciziilor guvernamentale: pentru bănci, recomandarea venită simultan de la Trezorerie și Fed cântărește operațional, chiar dacă o altă ramură a administrației încearcă să limiteze aceeași companie. [...]

Anthropic discută cu administrația Trump despre modelul său AI de vârf, Mythos, chiar dacă Pentagonul i-a tăiat accesul la contracte pe fondul unui litigiu privind condițiile de utilizare militară , potrivit Reuters . Miza este una de reglementare și guvernanță: cum ajunge un model „de frontieră” (frontier AI) în dialog cu statul, în timp ce o agenție-cheie îl tratează drept risc de securitate în lanțul de aprovizionare. Cofondatorul Anthropic, Jack Clark , a spus luni, la evenimentul Semafor World Economy din Washington, că firma discută cu administrația despre Mythos și că va discuta și despre modelele viitoare, în pofida disputei contractuale cu Pentagonul. El a descris conflictul drept unul „îngust”, dar a insistat că nu ar trebui să blocheze cooperarea pe teme de securitate națională. „Avem o dispută contractuală îngustă, dar nu vreau ca asta să stea în calea faptului că ne pasă profund de securitatea națională.” De ce contează: „gardurile de protecție” pentru utilizarea militară Reuters arată că disputa dintre Anthropic și Pentagon a pornit de la „guardrails” – condiții și limitări privind modul în care armata ar putea folosi instrumentele de inteligență artificială ale companiei. În urma conflictului, agenția a etichetat Anthropic luna trecută drept „risc în lanțul de aprovizionare”, interzicând utilizarea produselor sale atât în Pentagon, cât și la contractori. În paralel, natura și detaliile discuțiilor dintre Anthropic și guvernul SUA – inclusiv ce agenții sunt implicate – nu erau clare imediat, potrivit aceleiași surse. Context: ce este Mythos și de ce ridică probleme de securitate cibernetică Mythos a fost anunțat pe 7 aprilie și este prezentat de companie drept cel mai capabil model al său pentru programare și „sarcini agentice” – adică activități pe care modelul le poate executa autonom. Experți citați de Reuters spun că abilitatea de a scrie cod la nivel înalt ar putea oferi modelului o capacitate potențial fără precedent de a identifica vulnerabilități de securitate cibernetică și de a găsi modalități de exploatare a acestora. Ce urmează: bătălia juridică rămâne deschisă Un complet federal de apel din Washington, D.C., a refuzat săptămâna trecută să blocheze, deocamdată, decizia Pentagonului de a trece Anthropic pe lista de „blacklisting” pe criterii de securitate națională, o victorie pentru administrația Trump. Reuters notează că decizia vine după ce o altă instanță de apel a ajuns la concluzia opusă într-o contestație separată inițiată de Anthropic. [...]

Un sondaj citat de TechRadar indică sabotaj intern la implementările AI , pe fondul temerilor legate de pierderea locurilor de muncă și al unei tensiuni tot mai vizibile între management și angajați: 29% dintre salariați ar „sabotaja activ” introducerea instrumentelor de inteligență artificială în companie, procentul urcând la 44% în rândul Generației Z. Ce arată raportul despre adopția AI în companii Datele provin dintr-un raport (PDF) realizat de Writer (firmă de „agenți AI” pentru companii) și Workplace Intelligence. Conform materialului, formele de „sabotaj” menționate includ: refuzul de a folosi instrumente AI impuse de companie; introducerea de informații proprietare ale companiei în sisteme AI publice, ca metodă de a compromite implementarea. TechRadar notează că o parte dintre angajații care se simt amenințați de AI aleg să nu utilizeze aceste instrumente, chiar și atunci când sunt cerute explicit. Riscul operațional: conflictul cu managementul și costul în carieră Raportul indică și o reacție dură din partea conducerii: 77% dintre executivi spun că ar fi mai puțin dispuși să ofere promovări sau roluri de leadership angajaților care evită instrumentele AI. În termeni operaționali, asta sugerează că adopția AI nu mai este doar o decizie tehnologică, ci devine un criteriu de evaluare și selecție internă, cu potențial de a amplifica tensiunile în organizații. Context: avertismente despre joburi și percepția publică În ianuarie 2026, la World Economic Forum, CEO-ul și cofondatorul Palantir, Alex Karp, a spus că AI „va distruge locurile de muncă din umaniste”, dar va avantaja piața pentru persoane cu pregătire vocațională și creativă. În același registru, CEO-ul Anthropic, Dario Amodei, a avertizat (potrivit TechRadar) că AI ar putea distruge jumătate dintre joburile „entry level” de tip white-collar. Materialul mai citează: un sondaj NBC News potrivit căruia 46% dintre alegătorii înregistrați din SUA au o opinie negativă despre AI, față de 26% cu opinie pozitivă; un studiu Anthropic (martie) care arată că modelul Claude poate realiza majoritatea sarcinilor asociate unor joburi din informatică, drept, business și finanțe. Într-un interviu pentru Axios , Karp este citat astfel: „Dacă ești genul de persoană care ar fi mers la Yale, clasic cu IQ mare, și ai cunoștințe generaliste, dar nu specifice, ești terminat.” De ce contează pentru companii Dincolo de dezbaterea despre piața muncii, datele din raport indică un risc imediat pentru implementările AI: rezistența internă poate lua forme care afectează direct proiectele (adopție scăzută, utilizare neconformă) și poate crea probleme de guvernanță a datelor, atunci când informații ale companiei ajung în sisteme publice. TechRadar sugerează că mesajul transmis de lideri și executivi este unul de adaptare forțată: angajații care nu folosesc AI pot fi penalizați în evoluția profesională, în timp ce o parte dintre cei mai tineri angajați încearcă să blocheze sau să încetinească schimbarea. [...]