Știri
Știri din categoria Inteligență artificială

Amazon mută AWS spre aplicații „native AI”, încercând să ocolească modelul clasic SaaS și să intre direct în competiție cu Microsoft, Oracle și Salesforce, potrivit The Next Web. Schimbarea de direcție vine după ce precedentele produse de „software de birou” ale companiei (WorkMail, Chime, WorkDocs) nu au prins tracțiune și au fost închise sau sunt în curs de retragere.
AWS a anunțat o suită de aplicații de business bazate pe „agenți” de inteligență artificială (programe care pot executa autonom sarcini în fluxuri de lucru), trecând de la rolul de furnizor de infrastructură cloud la cel de furnizor de software. Mișcarea vizează o piață software-as-a-service (SaaS) evaluată în material la circa 300 miliarde dolari (aprox. 1.380 miliarde lei).
Noile produse sunt construite pe aceeași „arhitectură agentică” și extind portofoliul început cu Amazon Connect Health, lansat în martie:
În paralel, AWS a redenumit produsul său de call center din Amazon Connect în Amazon Customer Connect, semnalând că vede zona de contact center drept bază pentru o strategie mai largă de software enterprise. Publicația notează că acest business a atins în 2025 un „run rate” anualizat de 1 miliard de dolari (aprox. 4,6 miliarde lei).
Miza strategică descrisă în material este că agenții AI ar putea înlocui aplicațiile tradiționale vândute „per utilizator” (modelul SaaS), nu doar să adauge funcții peste ele. Julia White, director de marketing la AWS, susține că lipsa unui „istoric” SaaS este un avantaj, pentru că AWS nu are o „franciză” de protejat și poate adopta mai ușor o abordare „agentic-first”.
În această logică, AWS încearcă să concureze „pe terenul Amazon”: instrumente operaționale specializate, vândute către roluri din prima linie (logistică, recrutare, sănătate), în domenii unde compania pretinde că are expertiză internă greu de replicat.
Materialul subliniază că AWS evitase istoric să intre agresiv în aplicații de business, pentru a nu tensiona relația cu clienți care rulează pe AWS, dar concurează cu Amazon în alte piețe. Încercările anterioare de aplicații „generice” au eșuat: WorkDocs a fost închis în aprilie 2025, Amazon Chime a fost întrerupt în februarie 2026, iar WorkMail își încheie suportul în martie 2027.
În același timp, avantajul incumbenților rămâne major în zona „knowledge workers”. Exemplul dat este implementarea Copilot la Accenture, cu 743.000 de angajați și o rată de utilizare lunară activă de 89%, iar Microsoft are 450 de milioane de utilizatori enterprise Microsoft 365, fiecare fiind un potențial client pentru funcții AI suplimentare.
AWS a anunțat și Amazon Quick, un copilot AI care funcționează peste Google Workspace, Microsoft 365, Zoom și Salesforce, fără a necesita cont AWS. În interpretarea publicației, acesta este un atac direct la integrarea „cross-application” promovată de Microsoft Copilot.
Strategia depinde de ipoteza că agenții AI pot deveni noua „interfață” principală de lucru, reducând dependența de aplicațiile consacrate și de bazele lor instalate. Dacă această ipoteză nu se confirmă, iar companiile preferă să adauge AI în software-ul pe care îl folosesc deja, noile produse „Connect” riscă să repete traiectoria WorkMail/Chime/WorkDocs: lansări ambițioase care se sting în fața ecosistemelor existente.
Recomandate

Pentagonul își diversifică furnizorii de IA pentru operațiuni clasificate , după ce a ajuns la un acord cu Google pentru extinderea utilizării modelului generativ Gemini în astfel de misiuni, potrivit Mediafax . Mutarea vine în contextul în care Anthropic, al cărui model Claude era până recent singurul autorizat pentru operațiuni clasificate, este înlocuit treptat, într-o schimbare de strategie a Departamentului Apărării al SUA privind dependența de un singur furnizor, notează Le Figaro. De ce contează: mai multă libertate de utilizare față de contractul anterior Potrivit informațiilor citate de mai multe mass-media americane, acordul cu Google permite utilizarea modelelor de inteligență artificială „în limitele legii”, similar aranjamentelor încheiate și cu OpenAI și xAI. În același timp, această formulare ar oferi Pentagonului o marjă de manevră mai mare decât contractul avut cu Anthropic, care excludea explicit supravegherea în masă a populației civile americane și atacurile letale. În acest context, responsabilul cu inteligența artificială din Pentagon, Cameron Stanley, a argumentat public nevoia de diversificare a furnizorilor. „A depinde prea mult de un singur furnizor nu este niciodată un lucru bun.” Context: ruptura de Anthropic și intrarea OpenAI și xAI La sfârșitul lunii februarie, administrația Trump a decis rezilierea tuturor contractelor cu Anthropic, decizie contestată în instanță de companie. Ulterior, administrația a ajuns la un acord cu OpenAI pentru integrarea modelelor sale în operațiuni clasificate, însă procesul ar urma să dureze câteva luni. Separat, potrivit site-ului The Information (citat în material), și xAI, start-up-ul de inteligență artificială creat de Elon Musk, ar fi încheiat un acord cu Pentagonul după despărțirea de Anthropic. Reacție internă la Google: scrisoare semnată de peste 600 de angajați Acordul cu Pentagonul reaprinde tensiunile interne la Google pe tema colaborării cu armata americană. Luni, o scrisoare semnată de peste 600 de angajați a cerut conducerii să renunțe la furnizarea modelelor companiei pentru operațiuni clasificate. Google a mai trecut printr-un episod similar în 2018, când o mișcare internă a determinat compania să se retragă din proiectul Maven , care folosea inteligența artificială pentru analiza imaginilor colectate de drone. [...]

România ar urma să pună în funcțiune în 2026 cel puțin două „fabrici AI”, investiții de peste 70 mil. euro (aprox. 350 mil. lei), mizând pe infrastructură de calcul intensivă în procesoare grafice (GPU) și pe extinderea capacităților de supercomputing, potrivit Agerpres . Cele două facilități sunt localizate în centrul și sudul țării și implică colaborări între sectorul public și cel privat. Proiectele sunt aliniate conceptului european de „AI factories” – infrastructuri care combină supercomputere pentru inteligență artificială, resurse de tip HPC (high-performance computing – calcul de înaltă performanță), acces la date și instrumente AI, plus programe de instruire și suport pentru companii, startup-uri și cercetare. Ce capacitate tehnică este anunțată pentru RO AI Factory În comunicatul citat, supercomputerul RO AI Factory este descris ca un sistem de clasă EuroHPC, optimizat pentru sarcini de inteligență artificială, modelare avansată și antrenarea modelelor de tip „foundation” și „large language models” (LLM – modele lingvistice mari, folosite în aplicații generative). Sistemul complet ar urma să atingă o performanță teoretică de peste 5 exaFLOPS în operațiuni AI, nivel care, potrivit comunicatului, ar plasa infrastructura printre cele mai avansate din Europa Centrală și de Est și ar permite antrenarea și rularea de modele generative și multimodale la scară mare. De ce contează pentru piață: energie, autorizații și „speed-to-market” Mihai Manole, managing partner Tema Energy (organizatorul DataCenter Forum Romania ), a declarat că România intră „pe harta marilor dezvoltări de centre de date pentru AI” și că, dincolo de proiectele cu fonduri europene din zona publică, dezvoltatori din SUA, Marea Britanie și Europa de Vest și de Nord analizează construcția unor facilități de 50–200 MW fiecare. „Suntem, astfel, optimiști că vor fi anunțate în curând noi dezvoltări de centre de date, de puteri și dimensiuni fără precedent pentru România. Evident, speed-to-market va fi un element esențial: în ce măsură puterea este deja disponibilă, autorizațiile pot fi obținute rapid, iar construcția se poate desfășura accelerat – toate acestea vor influența deciziile finale, alături de costurile pe termen lung ale energiei electrice. În acest sens, sunt în discuție contracte de tip PPA (Power Purchase Agreement) pe 10-20 de ani.” Potrivit aceleiași surse, sunt avute în vedere locații în centrul și vestul țării, dar și în apropiere de București sau în Dobrogea, care ar îndeplini criterii legate de amplasare, alimentare electrică, conectivitate și reziliență. Context: prezentarea proiectului la DataCenter Forum Romania RO AI Factory va fi prezentat la ediția 2026 a DataCenter Forum Romania, programată pe 7 mai, inclusiv printr-un keynote susținut de Institutul Național de Cercetare-Dezvoltare în Informatică (ICI București). Agenda include patru keynote-uri, patru interviuri on-stage și cinci paneluri, cu participarea a 36 de speakeri. În lista invitaților principali sunt menționați Rod Evans (vicepreședinte NVIDIA pentru EMEA), Mehdi Paryavi (președinte și CEO al International Data Center Authority) și Jonathan Berney (fondator și managing partner al Accelerated Infrastructure Capital). În comunicat se arată și că Accelerated Infrastructure Capital are un parteneriat cu Cluster Power pentru dezvoltarea, în următorii ani, a unui „AI Zone” de 800 MW în România. [...]

În procesul cu Sam Altman , Elon Musk își construiește apărarea pe ideea că miza OpenAI este „salvarea umanității” , încercând să influențeze percepția juriului asupra intențiilor sale și, implicit, asupra legitimității pretențiilor din dosar, potrivit The Verge . În depoziția sa, Musk a petrecut mult timp cu propria „poveste de origine”, de la copilăria în Africa de Sud și plecarea la studii în Canada, până la parcursul antreprenorial (Zip2, PayPal și companiile pe care le conduce în prezent). Publicația notează că această abordare pare menită să îl prezinte drept un actor motivat de interesul public, nu de câștig personal. Musk a susținut în fața instanței că proiectele sale au avut ca fir roșu „bunăstarea umanității”: SpaceX ar fi fost creată ca „asigurare de viață pentru viața așa cum o știm”, iar Tesla – pentru a reduce dependența de combustibili fosili, pe care a spus că o consideră dăunătoare pentru mediu și pentru oameni. The Verge menționează și că, în timpul mărturiei, Musk a afirmat în mod discutabil că el a fondat Tesla. AI, între promisiune și risc existențial În aceeași logică, Musk a spus că încă din anii de facultate era îngrijorat de inteligența artificială, pe care a descris-o ca pe o „sabie cu două tăișuri”: ar putea „rezolva toate bolile și face pe toată lumea prosperă” sau „ne-ar putea omorî pe toți”. A prezentat două scenarii extreme – unul utopic, de tip „Star Trek”, și unul distopic, de tip „Terminator” – și a indicat că acesta ar fi fost motivul pentru care a cofondat OpenAI. Atacul la Altman și argumentul „precedentului” pentru organizații caritabile Musk a încercat să creeze un contrast direct cu Altman, pe care l-a portretizat drept opusul său. A mers până la a-l acuza că ar fi „furat” o organizație caritabilă și a susținut că un verdict favorabil pârâților ar putea crea un precedent juridic periculos pentru sectorul filantropic din SUA. „E foarte simplu: nu e în regulă să furi o organizație caritabilă. (...) Dacă verdictul iese astfel încât să fie în regulă să jefuiești o organizație caritabilă, întreaga fundație a donațiilor caritabile în America va fi distrusă.” În același context, The Verge notează că Musk nu le-a spus juraților că majoritatea donațiilor filantropice ale fundației sale au mers către interese strâns legate, sau direct legate, de propriile sale activități. Din informațiile publicate nu reiese ce urmează procedural în proces sau care este calendarul etapelor următoare; materialul se concentrează pe strategia de poziționare a lui Musk în fața juriului și pe implicațiile pe care el le invocă în legătură cu statutul și controlul asupra OpenAI. [...]

Comisia Europeană cere ca Android să deschidă accesul la funcții-cheie pentru asistenți AI rivali , într-un demers care poate obliga Google să trateze egal serviciile terțe față de Gemini, în baza regulilor din Digital Markets Act (DMA), potrivit GSMArena . Android este desemnat „gatekeeper” (platformă cu rol de intermediar major) în DMA, ceea ce implică obligația de a oferi acces egal la funcții esențiale ale telefoanelor și tabletelor pentru companii terțe. Comisia Europeană consideră însă că Alphabet (Google) nu a făcut suficient și a păstrat unele funcții legate de inteligența artificială exclusiv pentru propria platformă Gemini. În acest context, Comisia a propus modificări și a lansat o consultare publică . Ce vrea Comisia să se schimbe pe Android Discuția se concentrează pe trei teme principale: posibilitatea utilizatorilor de a apela servicii AI prin „cuvinte de trezire” (wake words); capacitatea serviciilor AI de a interacționa eficient cu aplicațiile utilizatorului, pentru a înțelege contextul și a executa sarcini în numele acestuia; accesul la resursele hardware și software necesare, astfel încât serviciile AI să fie fiabile și rapide. Exemplele invocate: butonul de pe bara de navigare și „Hey Google” În detaliu, Comisia a analizat funcția de apăsare lungă pe scurtătura din bara de navigare, care declanșează Gemini, îi oferă date de context și îi permite să suprapună informații pe ecran. În mod obișnuit, această acțiune este asociată cu „Circle to Search” și, potrivit Comisiei, „nu este disponibilă în mod egal pentru dezvoltatorii terți”. Un alt punct este detectarea permanentă a cuvântului de trezire, asociată cu „Hey Google”. Comisia vrea ca Android să permită dezvoltatorilor de aplicații terțe să își poată adăuga propriile wake words. Separat, Comisia indică și limitări privind accesul la datele aplicațiilor (în special cele stocate doar pe dispozitiv): acestea pot fi accesate doar prin permisiunea AppSearch, care este atribuită doar asistentului implicit și nu poate fi acordată asistenților terți. Documentele Comisiei (inclusiv un rezumat de caz în format PDF) acoperă și zone precum sugestii proactive, inteligență bazată pe context și date ambientale. Reacția Google: costuri mai mari și riscuri pentru confidențialitate Într-un e-mail către Reuters , consilierul senior pe concurență al Alphabet a criticat inițiativa, susținând că: „Această intervenție nejustificată ar elimina autonomia, ar impune acces la hardware sensibil și permisiuni ale dispozitivului; crescând inutil costurile și subminând protecții critice de confidențialitate și securitate pentru utilizatorii europeni.” Context: precedentul Apple GSMArena amintește că Apple a fost vizată anterior pentru păstrarea unor funcții doar pentru propriile servicii (de exemplu, accesul exclusiv al Apple Pay la cipul NFC din iPhone), care ulterior a fost deschis către servicii terțe, deși „elvețienii încă au îngrijorări”. Pentru piață, miza imediată este dacă și în ce formă Android va trebui să permită asistenților AI concurenți să folosească aceleași „puncte de intrare” și aceleași resurse ca Gemini, ceea ce ar putea schimba competiția pe zona de asistenți digitali și integrarea lor în sistemul de operare. [...]

Google Translate adaugă o funcție „Practice” cu inteligență artificială care îți corectează pronunția , un pas care mută aplicația din zona de traducere rapidă spre antrenament de vorbire și poate crește timpul petrecut în ecosistemul Google, potrivit Android Headlines . Noua opțiune „Practice” este gândită ca un instrument de exersare: utilizatorul rostește cuvinte sau expresii, iar sistemul folosește inteligența artificială pentru a identifica unde pronunția diferă de forma așteptată și pentru a ajuta la corectare. Din informațiile disponibile în material, accentul este pe feedback-ul de pronunție, nu pe traducere în sine. Ce se schimbă, practic, pentru utilizatori Funcția adaugă un flux de utilizare diferit față de „ascultă și repetă” din traducătoarele clasice, printr-o componentă de evaluare automată a vorbirii. Pe scurt, „Practice” urmărește să transforme Google Translate într-un instrument de învățare mai activ, nu doar într-un dicționar cu redare audio. De ce contează operațional pentru Google Integrarea unei funcții de exersare a pronunției în Translate poate însemna: utilizare mai frecventă a aplicației în contexte de învățare (nu doar „la nevoie”); o poziționare mai directă în zona aplicațiilor de învățare a limbilor, unde diferențiatorul este feedback-ul personalizat; o extindere a rolului inteligenței artificiale în aplicații de masă, cu interacțiuni vocale și evaluare în timp real. Materialul nu oferă detalii despre disponibilitate pe piețe, limbi suportate, calendar de lansare sau condiții comerciale (gratuit/abonament), astfel că impactul exact asupra utilizării și monetizării rămâne deocamdată neclar. [...]

Apple Music spune că peste o treime din muzica trimisă pe platformă este 100% generată de AI , un volum care pune presiune pe filtrarea conținutului și pe mecanismele antifraudă din streaming, potrivit G4Media . Declarația îi aparține lui Oliver Schusser , vicepreședinte Apple Music, care a spus pentru Billboard că „mai mult de o treime” din ceea ce primește Apple Music „astăzi” este „100% AI”. În același timp, el susține că acest val ajunge la un procent foarte mic din consumul efectiv: sub 0,5% din utilizare, „rotunjind”, conform aceleiași intervenții. Ce schimbă pentru operarea platformei: identificare și etichetare a conținutului Schusser afirmă că Apple a dezvoltat intern o tehnologie care ar permite companiei să vadă „exact ce muzică” este livrată, „ce model AI este” și alte detalii, făcând trimitere, cel mai probabil, la așa-numitele „Transparency Tags” (un sistem de metadate care ar indica dacă o piesă este generată sau asistată de AI). Apple ar fi trimis din martie o scrisoare către partenerii din industrie în care își prezintă planul de a introduce aceste „Transparency Tags”, menite să semnaleze muzica generată de AI și cea asistată de AI. Sistemul ar permite caselor de discuri și distribuitorilor să declare utilizarea AI la trimiterea pieselor către Apple Music; opțiunea este descrisă ca fiind voluntară, însă Schusser spune că are „cu adevărat nevoie” ca furnizorii de conținut și casele de discuri „să își asume responsabilitatea”. Miza economică: frauda și penalizările care afectează plățile Pe lângă filtrarea conținutului, Apple Music leagă fenomenul AI de fraudă și de modul în care sunt distribuiți banii. Schusser spune că Apple a introdus o penalizare pentru fraudă acum patru ani, iar dacă platforma „prinde pe cineva”, „ia efectiv banii și îi pune înapoi în fondul comun”. Compania ar fi dublat penalizarea „începând din acest an”. „Trebuie să monitorizăm muzica AI, pentru că există o corelație între AI și fraudă.” Tot el afirmă că Apple a observat o „reducere de 60%” a încărcărilor frauduloase după introducerea penalizării. Context în industrie: Deezer și Spotify, măsuri diferite În material este menționat și Deezer, care ar fi anunțat „chiar săptămâna trecută” că aproape jumătate din muzica nouă trimisă pe platformă este generată de AI, decizie urmată de oprirea oferirii versiunilor „hi-res” pentru aceste piese. Tot ca reper de industrie, Spotify este descris ca fiind criticat pentru găzduirea de conținut AI de slabă calitate și ca lucrând la protejarea utilizatorilor, inclusiv prin eliminarea a 25 de milioane de piese generate de AI în ultimele 12 luni, potrivit textului citat de G4Media. Ce urmează Din informațiile prezentate, direcția Apple este combinarea etichetării (prin metadate de tip „Transparency Tags”) cu întărirea măsurilor antifraudă, pe fondul creșterii rapide a volumului de conținut generat integral de AI trimis către platformă. Limitarea importantă: Apple nu indică în material un calendar de implementare sau dacă etichetarea va deveni obligatorie. [...]