Știri
Știri din categoria Inteligență artificială

Abonații Google AI Pro și Ultra primesc limite mai mari în AI Studio, ceea ce mută prototiparea cu modele Gemini într-o zonă cu costuri mai previzibile și cu mai puține fricțiuni pentru dezvoltatorii care au depășit nivelul gratuit, potrivit Google Blog.
Actualizarea, disponibilă „începând de astăzi”, crește limitele de utilizare în Google AI Studio pentru abonații Google AI Pro și Ultra și adaugă acces la modele precum Nano Banana Pro și Gemini Pro. Mesajul central al Google este operațional: dezvoltatorii ar putea trece „în câteva minute” de la idee la o aplicație funcțională, cu costuri „previzibile”, în cadrul abonamentului.
Pentru cei care au epuizat limitele din varianta gratuită, Google poziționează abonamentul Google AI ca o „punte” cu configurare redusă către facturare, utilă pentru testare și prototipare mai profundă în AI Studio. În paralel, compania menține că pentru lansări la scară de producție standardul rămâne utilizarea cheilor API cu tarifare „per cerere” (pay-per-request).
Google susține că, atunci când un proiect este gata de lansare, tranziția de la beneficiile din abonament la o configurare bazată pe API poate fi realizată direct din AI Studio. Publicația nu oferă însă detalii despre nivelurile exacte ale noilor limite sau despre prețuri, dincolo de ideea de „costuri previzibile” în etapa de prototipare.
Beneficiile sunt în curs de activare pentru toți abonații AI Pro și Ultra; utilizatorii trebuie să se autentifice cu contul asociat abonamentului pentru a le accesa.
Recomandate

Amazon își securizează pe 10 ani cererea de calcul pentru AI printr-un acord care poate duce investiția în Anthropic la 33 mld. dolari (aprox. 151 mld. lei), în schimbul unui angajament de peste 100 mld. dolari (aprox. 460 mld. lei) cheltuieli cloud pe AWS, potrivit The Next Web . Amazon a convenit să investească „până la” 25 mld. dolari în Anthropic, compania din spatele modelelor Claude, însă structura tranzacției arată că nu este vorba de un cec integral: 5 mld. dolari sunt investiți imediat, iar până la 20 mld. dolari sunt condiționați de atingerea unor obiective comerciale. Suma se adaugă celor 8 mld. dolari pe care Amazon îi angajase deja din 2023, ceea ce ridică investiția potențială totală la circa 33 mld. dolari (aprox. 152 mld. lei). În paralel, Anthropic își asumă un angajament de peste 100 mld. dolari pentru AWS pe următorul deceniu, dar publicația precizează că acesta este un „angajament de achiziție” (procurement pledge), nu o plată în avans: compania se obligă să cumpere capacitate de calcul, cipuri personalizate pentru AI și servicii de infrastructură de la Amazon. Practic, Amazon finanțează Anthropic, iar Anthropic direcționează o parte semnificativă din acești bani către infrastructura Amazon. De ce contează: AWS își blindează cererea și împinge Trainium în centrul AI-ului „frontieră” Miza operațională a acordului este capacitatea de calcul și, implicit, controlul lanțului de aprovizionare pentru antrenarea și rularea modelelor. În centrul înțelegerii se află Trainium, linia de cipuri dezvoltată intern de Amazon ca alternativă la GPU-urile Nvidia pentru antrenare și inferență (rularea modelelor). Acordul acoperă Trainium2, viitorul Trainium3 și Trainium4 (încă nelansat), plus „zeci de milioane” de nuclee CPU Graviton. Anthropic obține până la 5 gigawați de capacitate pentru a antrena și a rula Claude. Amazon afirmă că o capacitate semnificativă Trainium2 intră în funcțiune în trimestrul al doilea din 2026, iar până la finalul anului ar urma să fie disponibil aproape 1 gigawatt combinat Trainium2 și Trainium3. Context: creșterea Anthropic și consolidarea distribuției prin AWS Acordul vine pe fondul unei cereri în creștere rapide, pe care Anthropic o leagă de evoluția veniturilor: compania a ajuns la venituri anualizate de 30 mld. dolari, de la aproximativ 9 mld. dolari la final de 2025. Parteneriatul se adâncește și pe distribuție: clienții AWS vor putea accesa „întreaga Claude Platform” (interfața nativă a Anthropic) direct din conturile lor AWS, fără acreditări sau facturare separate. Este un pas peste disponibilitatea Claude prin Amazon Bedrock, „piața” de AI gestionat a Amazon. În același timp, Claude rămâne, potrivit sursei, singurul model „frontieră” disponibil pe toate cele trei mari platforme cloud: AWS Bedrock, Google Cloud Vertex AI și Microsoft Azure Foundry. Raportul de forțe: Amazon devine partenerul principal de infrastructură The Next Web notează că structura este similară cu un acord de acum două luni, când Amazon ar fi investit 50 mld. dolari în OpenAI în cadrul unui angajament comparabil de 100 mld. dolari pentru cloud. În cazul Anthropic, acordul cu AWS „surclasează” o înțelegere separată din noiembrie 2025, când Microsoft a investit până la 5 mld. dolari în Anthropic, iar compania s-a angajat să cumpere 30 mld. dolari capacitate de calcul pe Azure. Noua înțelegere cu AWS „stabilește ferm Amazon” ca partenerul principal de infrastructură al Anthropic, potrivit articolului. Evaluarea folosită pentru investiția inițială este cea mai recentă evaluare a Anthropic, de 380 mld. dolari. Publicația mai menționează că fonduri de capital de risc ar fi oferit finanțare la evaluări de 800 mld. dolari sau mai mult înaintea unei posibile listări, însă nu a fost anunțată o astfel de rundă. [...]

Google își diversifică agresiv lanțul de aprovizionare pentru cipuri AI, mizând pe patru parteneri ca să reducă dependența de Nvidia în inferență , potrivit The Next Web . Strategia combină mai mulți furnizori de proiectare, o relație unică de fabricație cu TSMC și o foaie de parcurs care merge de la TPU-ul „Ironwood” (deja livrat) până la procesoare pe 2 nanometri așteptate în 2027. Miza este economică și operațională: inferența (rularea modelelor pentru utilizatori) devine costul dominant în AI, iar Google încearcă să obțină un cost mai mic „pe interogare” prin cipuri dedicate, în locul GPU-urilor generaliste. Ce face Google diferit: patru parteneri, roluri separate Programul de cipuri al Google este construit în jurul a patru parteneri de proiectare, cu responsabilități împărțite pe segmente: Broadcom : gestionează variantele de înaltă performanță și proiectează TPU v8 pentru antrenare („Sunfish”), țintind procesul TSMC pe 2 nm pentru finalul lui 2027 . Google și Broadcom au semnat pe 6 aprilie un acord pe termen lung pentru livrări până în 2031 (TPU-uri și componente de rețea). MediaTek : proiectează varianta optimizată pe cost pentru inferență a TPU v8 („Zebrafish”), tot pentru TSMC 2 nm în finalul lui 2027 . Implicarea MediaTek a început cu module I/O și componente periferice la Ironwood, unde designurile sale ar fi cu 20–30% mai ieftine decât alternativele. Marvell : este în discuții cu Google pentru o unitate de procesare a memoriei și un nou TPU orientat pe inferență; dacă se semnează contractul, ar deveni un al treilea partener de design pe această zonă. Google ar intenționa să producă aproape două milioane de astfel de unități, cu finalizarea designului așteptată anul viitor. Intel : are un acord multianual (din 9 aprilie) pentru procesoare Xeon și unități personalizate de procesare pentru infrastructura centrelor de date AI ale Google, acoperind straturile de rețea și calcul general care „înconjoară” TPU-urile, nu acceleratoarele AI propriu-zise. Indiferent de partenerul de proiectare, TSMC fabrică toate cipurile personalizate ale Google , ceea ce face relația cu producătorul taiwanez un element structural al strategiei. Ironwood, „capul de pod” în inferență Piesa centrală „de azi” este Ironwood , a șaptea generație TPU și primul cip Google proiectat explicit pentru inferență. Conform articolului, Ironwood oferă: de 10 ori performanța de vârf a TPU v5p; 192 GB memorie HBM3E per cip și 7,2 TB/s lățime de bandă; scalare până la 9.216 cipuri răcite cu lichid într-un „superpod”, cu 42,5 exaflopși FP8 . Ironwood este deja disponibil pentru clienții Google Cloud, iar Google intenționează să producă milioane de unități în acest an. Anthropic s-a angajat la până la un milion de TPU-uri , iar Meta are un aranjament de închiriere, potrivit sursei. De ce contează: inferența schimbă economia AI Rațiunea strategică invocată este că antrenarea unui model de vârf este un eveniment intens, dar relativ „punctual”, în timp ce inferența este continuă și crește cu fiecare utilizator și produs care integrează AI. La scara Google (căutări augmentate cu AI, conversații Gemini, apeluri API), costul per inferență devine determinant pentru profitabilitatea întregului business AI. În acest context, Google încearcă să atace punctul forte al Nvidia nu printr-un „cip unic” superior, ci printr-un sistem de cipuri specializate pe sarcini și costuri, care să reducă treptat ponderea hardware-ului Nvidia în infrastructura proprie. Cifrele și ce urmează la Cloud Next Articolul menționează proiecții de livrări totale TPU de 4,3 milioane de unități în 2026 , cu o creștere la peste 35 de milioane până în 2028 . Totodată, TrendForce ar estima că vânzările de cipuri personalizate (ASIC – circuite integrate proiectate pentru o sarcină specifică) vor crește cu 45% în 2026 , față de 16% pentru livrările de GPU-uri, iar piața ar putea ajunge la 118 miliarde dolari (aprox. 531 miliarde lei ) până în 2033. Google Cloud Next începe miercuri, la Las Vegas, cu keynote-uri susținute de Sundar Pichai și Thomas Kurian. Evenimentul este așteptat să detalieze arhitectura următoarei generații de TPU și legătura dintre Ironwood și generația v8. În paralel, Nvidia ar încerca să rămână relevantă și în ecosistemul de cipuri personalizate, inclusiv prin investiția de 2 miliarde dolari (aprox. 9 miliarde lei ) în Marvell și prin programul NVLink Fusion, conform sursei. [...]

Laboratorul AI „Prometheus”, condus de Jeff Bezos , ar fi aproape de o finanțare de 10 miliarde de dolari (aprox. 46 mld. lei) la o evaluare de 38 miliarde de dolari (aprox. 175 mld. lei) , ceea ce l-ar propulsa între cele mai bine capitalizate start-up-uri aflate încă la început de drum, potrivit IT之家 . Informația este atribuită de publicație unui material Financial Times. Prometheus este descris ca un laborator de „fizică inginerească” aplicată în inteligență artificială, condus de fondatorul Amazon, Jeff Bezos. De ce contează: o rundă care schimbă rapid raportul de forțe în AI Dacă tranzacția se închide în termenii vehiculați, noua rundă ar urma să fie realizată la o evaluare de 38 miliarde de dolari, pentru un total de 10 miliarde de dolari finanțare. Surse citate de Financial Times, potrivit IT之家, spun că investitori precum JPMorgan și BlackRock ar participa la rundă. Publicația notează că tranzacția este așteptată să fie finalizată „în curând”, însă termenii nu ar fi încă definitiv stabiliți, ceea ce indică faptul că detaliile pot suferi modificări până la semnare. Context: start-up-ul ar fi strâns deja 6,2 miliarde de dolari Prometheus ar fi atras în noiembrie anul trecut 6,2 miliarde de dolari (aprox. 28,5 mld. lei) ca finanțare inițială. O nouă infuzie de capital de dimensiunea discutată acum ar consolida rapid capacitatea proiectului de a investi agresiv în infrastructură, echipe și dezvoltare, chiar înainte de a ajunge la maturitate comercială. Ce urmează: discuții pentru o structură de tip holding și achiziții în industrie Separat de această rundă, Prometheus ar purta negocieri pentru finanțarea înființării unei companii de tip holding. Planul menționat în material vizează achiziția, „pentru câteva zeci de miliarde de dolari”, a unor companii din industria prelucrătoare (manufacturieră) ale căror modele operaționale ar putea fi afectate semnificativ de AI, potrivit aceleiași surse. [...]

Deutsche Telekom mizează pe „AI suveran” ca infrastructură pentru industrie , iar mesajul CEO-ului Tim Höttges către companii este că avantajul competitiv va veni din combinația dintre aplicații de inteligență artificială și controlul asupra datelor și platformelor, potrivit Mobile World Live . Declarațiile au fost făcute în keynote-ul de la Hannover Messe , unde executivul a legat direct adoptarea AI în mediile industriale de nevoia unei infrastructuri „suverane”. Höttges a susținut că Germania are „toate ingredientele” pentru a juca un rol global de vârf în ceea ce el a numit „AI fizic” – adică utilizarea AI în medii industriale. În același timp, a avertizat că beneficiile nu vin automat: companiile trebuie să aleagă aplicațiile potrivite și să își reproiecteze procesele de business, ținând cont și de efectele în lanț asupra forței de muncă. „Progresul se întâmplă acolo unde AI și suveranitatea se întâlnesc.” Ce înseamnă „suveranitate” pentru clienții enterprise În oferta către companii, CEO-ul Deutsche Telekom a descris „niveluri” diferite de suveranitate, în funcție de caz de utilizare și industrie. Acestea includ: produse pentru procesarea de date sensibile, astfel încât să fie respectate cerințele de reglementare; „suveranitate operațională” pentru procesele de bază ale afacerii; „suveranitate tehnologică” pentru companiile care vor să își îndepărteze arhitectura IT de furnizori din afara Europei. Investiții și miza 6G pentru industrie Höttges a folosit intervenția și pentru a promova investițiile Deutsche Telekom în Germania orientate către segmentul industrial. Printre acestea se află un proiect „AI Factory” la München, realizat împreună cu partenerii Nvidia, SAP și Siemens, precum și întărirea arhitecturii de rețea pentru a susține tehnologiile actuale și viitoare. Operatorul indică faptul că investește anual 6 miliarde euro (aprox. 30 miliarde lei) în rețele și alte infrastructuri în Germania. În paralel, avansează și dezvoltarea 6G, despre care se așteaptă să permită sisteme capabile să gestioneze operațiunile de rețea „în mare parte autonom”, și să deschidă calea către aplicații noi pentru industrie. [...]

Escrocheriile bazate pe inteligență artificială împing frauda bancară la niveluri record , iar băncile ajung să gestioneze simultan promisiunea de eficiență și o vulnerabilitate operațională tot mai greu de controlat, potrivit Economedia , care citează o analiză Financial Times . HSBC a numit primul său șef de inteligență artificială, David Rice, semnalând cât de serios tratează marile bănci tehnologia. În paralel, banca își simplifică activitatea și promite acționarilor reducerea numărului de angajați și tăierea costurilor cu 1,5 miliarde de dolari (aprox. 6,9 miliarde lei) până la finalul acestui an. Frauda „industrializată”: record de raportări și creștere pe zona de identitate Pe măsură ce băncile mizează pe câștiguri de eficiență și pe noi surse de venit, infractorii folosesc tot mai mult AI pentru a exploata vulnerabilități existente. În Regatul Unit, datele organismului de industrie Cifas indică o creștere accentuată a conturilor de clienți folosite pentru facilitarea fraudelor. Cifas a constatat că escrocheriile bazate pe AI au dus raportările de fraudă la un nivel record de 444.000 anul trecut, pe fondul utilizării tehnologiei pentru preluarea controlului asupra telefoanelor mobile, conturilor bancare și conturilor de cumpărături online. Totodată, cercetarea arată că frauda de identitate în domeniul bancar a crescut cu 10% de la an la an, până la 63.678 de cazuri, pe măsură ce impersonarea bazată pe AI și „mediile sintetice” fac mai dificilă detectarea fraudei de identitate și a preluării de conturi. „Datele și informațiile noastre arată cum frauda este industrializată, AI accelerând criminalitatea care este din ce în ce mai digitală, organizată și internațională”, a declarat Mike Haley, CEO al Cifas. De ce devine mai greu de apărat: „asimetria inovației” și atacuri aproape invizibile Shanker Ramamurthy, partener global de management pentru banking și piețe financiare la IBM, descrie o „asimetrie a inovației” în creștere: băncile trebuie să opereze în cadre de reglementare și etică, în timp ce infractorii folosesc AI fără constrângeri. „Provocarea nu este doar că infractorii folosesc instrumente noi. Este că ei folosesc AI pentru a exploata vulnerabilitățile existente cu o precizie extremă. Vedem o schimbare către o formă cognitivă de copiere, în care atacurile automate reproduc perfect comportamentul legitim al clienților, făcându-le aproape invizibile pentru sistemele vechi”, spune Ramamurthy. Michael Down, șef global al serviciilor financiare la firma de tehnologie Neo4j, susține la rândul său că AI generativă îi face pe infractori mai credibili, inclusiv prin posibilitatea de a suna și a vorbi „exact ca un anumit client”. El indică drept exemplu crearea de servicii false de împrumut sau ipotecare, în care escrocii construiesc „fronturi digitale” pentru a colecta date sensibile și a percepe taxe inițiale, apoi folosesc informațiile furate pentru a obține finanțări legitime înainte de a dispărea cu banii. [...]

Investițiile accelerate în AI ar putea eroda puternic profitabilitatea ByteDance în 2025 , pe fondul creșterii cheltuielilor din a doua parte a anului pentru dezvoltarea și susținerea operațiunilor de inteligență artificială, potrivit ITmedia . Conform informațiilor citate de publicație din „科创板日报” (Star Market Daily), surse apropiate companiei susțin că profitul net al ByteDance în 2025 ar urma să scadă cu peste 70% față de anul anterior , iar marja netă să se reducă semnificativ. Contextul indicat este majorarea puternică a investițiilor în AI în trimestrele trei și patru ale anului. În paralel, aceeași relatare indică o dinamică mai bună în afara Chinei: veniturile din piețele externe ar fi crescut cu aproape 50% în 2025 , peste avansul de aproximativ 20% al veniturilor interne. Ponderea veniturilor externe în total ar fi urcat de la 25% în 2024 la peste 30% , un nou maxim istoric. Motorul principal al creșterii externe ar fi fost comerțul electronic din ecosistemul TikTok. Sursele citate susțin că TikTok Shop a avut în 2025 o creștere anuală a GMV (valoarea brută a mărfurilor vândute) apropiată de 70% , ceea ce ar fi împins în sus contribuția operațiunilor internaționale la veniturile grupului. „Doubao stock”: mecanism de retenție pentru echipele de modele mari Materialul mai menționează că ByteDance ar fi început prima răscumpărare pentru așa-numitele „豆包股” (acțiuni virtuale legate de proiectul Doubao), la un preț de 13,08 dolari pe acțiune (aprox. 59 lei) . Prețul anterior de acordare ar fi fost de 10 dolari (aprox. 45 lei) , ceea ce ar însemna o creștere de 30,8% . Potrivit surselor, 13,08 dolari/acțiune ar reprezenta noua evaluare de referință, iar angajații care intră în companie după 1 martie 2026 și primesc stimulente în „Doubao stock” ar urma să aibă numărul de unități calculat la acest preț. În trimestrul patru din 2025, ByteDance ar fi testat și un „plan de stimulare pe termen lung Doubao” , descris ca un mecanism de „acțiuni virtuale” pentru zona de modele mari (LLM), cu răscumpărare similară opțiunilor interne, pentru a atrage și reține pe termen lung talentul din AI. De ce contează Informațiile sugerează o schimbare de priorități financiare : chiar și cu o creștere rapidă a veniturilor externe, costurile asociate extinderii AI (dezvoltare, infrastructură și resurse) pot comprima sever profitabilitatea pe termen scurt. ByteDance nu este citată în material ca oferind un comentariu oficial asupra acestor date. [...]