Știri
Știri din categoria Inteligență artificială

Un instrument de programare bazat pe inteligență artificială al Amazon ar fi provocat o pană AWS de 13 ore, potrivit Financial Times, care citează surse apropiate situației. Incidentul, produs la mijlocul lunii decembrie 2025, ridică semne de întrebare privind gradul de autonomie acordat sistemelor de inteligență artificială în infrastructuri critice de tip cloud.
Conform publicației, inginerii Amazon Web Services au permis asistentului de programare „Kiro” să aplice modificări asupra unui sistem destinat clienților. În loc să implementeze corecția dorită, instrumentul ar fi decis să „șteargă și să recreeze mediul”, ceea ce a generat o întrerupere a serviciului timp de 13 ore. Sistemul afectat era utilizat de clienți pentru analiza costurilor serviciilor cloud. Amazon ar fi publicat ulterior o analiză internă a incidentului.
Amazon a respins ideea că autonomia inteligenței artificiale ar fi cauza directă a avariei. Un purtător de cuvânt al AWS a declarat pentru Reuters că a fost vorba despre „o eroare umană, mai exact permisiuni de acces configurate greșit, nu inteligență artificială”. Compania a precizat că incidentul a fost limitat la un singur serviciu, într-una dintre cele două regiuni continentale din China, fără impact asupra serviciilor de bază precum stocarea sau bazele de date.
Amazon susține că, în mod implicit, Kiro solicită autorizare înainte de a executa acțiuni și că inginerul implicat avea permisiuni mai largi decât era de așteptat. Oficialii companiei afirmă că o greșeală similară ar fi putut fi făcută și de un angajat uman.
Surse citate de Financial Times arată însă că instrumentul ar fi avut drepturi la nivel de operator, similare unui inginer, iar modificarea ar fi fost implementată fără o a doua verificare, ocolind procedura standard de revizuire între colegi. După incident, AWS a introdus obligativitatea verificării între colegi pentru accesul la mediile de producție.
Tot în decembrie 2025 ar fi avut loc o a doua întrerupere, mai redusă, implicând un alt instrument de programare bazat pe inteligență artificială, fără a afecta însă serviciile destinate clienților.
Contextul este sensibil pentru Amazon, după pana majoră din octombrie 2025, care a afectat platforme globale precum Reddit sau Snapchat, deși acel incident nu a fost legat de utilizarea inteligenței artificiale.
Dezvăluirile apar pe fondul dezbaterilor interne privind utilizarea obligatorie a Kiro în detrimentul altor instrumente externe. Potrivit relatărilor, aproximativ 70% dintre inginerii software ai Amazon au folosit Kiro cel puțin o dată în ianuarie 2026.
Recomandate

Amazon mută AWS spre aplicații „native AI”, încercând să ocolească modelul clasic SaaS și să intre direct în competiție cu Microsoft, Oracle și Salesforce, potrivit The Next Web . Schimbarea de direcție vine după ce precedentele produse de „software de birou” ale companiei (WorkMail, Chime, WorkDocs) nu au prins tracțiune și au fost închise sau sunt în curs de retragere. AWS a anunțat o suită de aplicații de business bazate pe „agenți” de inteligență artificială (programe care pot executa autonom sarcini în fluxuri de lucru), trecând de la rolul de furnizor de infrastructură cloud la cel de furnizor de software. Mișcarea vizează o piață software-as-a-service (SaaS) evaluată în material la circa 300 miliarde dolari (aprox. 1.380 miliarde lei). Ce lansează AWS și cui se adresează Noile produse sunt construite pe aceeași „arhitectură agentică” și extind portofoliul început cu Amazon Connect Health , lansat în martie: Amazon Connect Decisions : platformă de optimizare a lanțului de aprovizionare, care folosește peste 25 de instrumente interne dezvoltate de Amazon pentru logistică, inclusiv modelele SCOT utilizate la prognoza cererii. Aplicația generează și ajustează prognoze, prioritizează alerte, face analiză a cauzelor și creează foi de calcul pentru planificare de scenarii. Ținta este „planificatorul” din supply chain, nu specialistul în știința datelor. Amazon Connect Talent : interviuri de angajare autonome, prin voce, 24/7, cu evaluarea candidaților pe competențe, nu pe CV. Soluția este orientată către recrutare în volum mare (producție, logistică, retail, ospitalitate) și programează, sună și intervievează fără intervenție umană. Amazon Connect Health : platformă pentru sănătate, disponibilă general din 5 martie, cu cinci agenți AI (verificare identitate pacient, programări, rezumate de istoric medical, note clinice, codare medicală), la 99 dolari per utilizator/lună (aprox. 455 lei) . În paralel, AWS a redenumit produsul său de call center din Amazon Connect în Amazon Customer Connect , semnalând că vede zona de contact center drept bază pentru o strategie mai largă de software enterprise. Publicația notează că acest business a atins în 2025 un „run rate” anualizat de 1 miliard de dolari (aprox. 4,6 miliarde lei) . Pariul: agenții AI „înlocuiesc” aplicațiile, nu doar le completează Miza strategică descrisă în material este că agenții AI ar putea înlocui aplicațiile tradiționale vândute „per utilizator” (modelul SaaS), nu doar să adauge funcții peste ele. Julia White, director de marketing la AWS, susține că lipsa unui „istoric” SaaS este un avantaj, pentru că AWS nu are o „franciză” de protejat și poate adopta mai ușor o abordare „agentic-first”. În această logică, AWS încearcă să concureze „pe terenul Amazon”: instrumente operaționale specializate, vândute către roluri din prima linie (logistică, recrutare, sănătate), în domenii unde compania pretinde că are expertiză internă greu de replicat. De ce contează pentru piață: AWS intră frontal peste giganții aplicațiilor enterprise Materialul subliniază că AWS evitase istoric să intre agresiv în aplicații de business, pentru a nu tensiona relația cu clienți care rulează pe AWS, dar concurează cu Amazon în alte piețe. Încercările anterioare de aplicații „generice” au eșuat: WorkDocs a fost închis în aprilie 2025, Amazon Chime a fost întrerupt în februarie 2026, iar WorkMail își încheie suportul în martie 2027. În același timp, avantajul incumbenților rămâne major în zona „knowledge workers”. Exemplul dat este implementarea Copilot la Accenture, cu 743.000 de angajați și o rată de utilizare lunară activă de 89%, iar Microsoft are 450 de milioane de utilizatori enterprise Microsoft 365, fiecare fiind un potențial client pentru funcții AI suplimentare. Extindere: „Amazon Quick”, un copilot care merge și fără cont AWS AWS a anunțat și Amazon Quick , un copilot AI care funcționează peste Google Workspace, Microsoft 365, Zoom și Salesforce, fără a necesita cont AWS. În interpretarea publicației, acesta este un atac direct la integrarea „cross-application” promovată de Microsoft Copilot. Ce urmează și riscul principal Strategia depinde de ipoteza că agenții AI pot deveni noua „interfață” principală de lucru, reducând dependența de aplicațiile consacrate și de bazele lor instalate. Dacă această ipoteză nu se confirmă, iar companiile preferă să adauge AI în software-ul pe care îl folosesc deja, noile produse „Connect” riscă să repete traiectoria WorkMail/Chime/WorkDocs: lansări ambițioase care se sting în fața ecosistemelor existente. [...]

Google Photos va introduce vara aceasta o funcție care îți cataloghează automat hainele din fotografii și le transformă într-un „dulap digital” , cu opțiuni de filtrare, combinare în ținute și previzualizare „virtual try-on”, potrivit Google . Lansarea începe pe Android , urmând să ajungă ulterior și pe iOS, ceea ce mută aplicația din zona de stocare și organizare a imaginilor spre un instrument practic de planificare a ținutelor, bazat pe inteligență artificială . Ce face concret noua funcție și de ce contează operațional Funcția creează automat o colecție dedicată „wardrobe” (dulap) pe baza pieselor vestimentare care apar în biblioteca ta de fotografii. Practic, aplicația scanează imaginile și extrage articolele de îmbrăcăminte pe care le-ai purtat, apoi le organizează într-o structură ușor de parcurs. Din perspectiva utilizării de zi cu zi, noutatea este că utilizatorul nu mai pornește de la fotografii disparate, ci de la o „inventariere” a garderobei, generată automat, care poate reduce timpul de căutare și de planificare a ținutelor. Cum se folosește: filtrare, ținute și „probă” virtuală Google descrie trei utilizări principale: Filtrare pe categorii : poți vedea toate articolele la un loc sau poți intra pe o categorie (de exemplu bijuterii, topuri sau pantaloni) pentru a redescoperi piese „uitate” în dulap. Crearea de ținute : poți combina articolele pentru a construi outfituri, pe care le poți distribui prietenilor sau salva într-un „moodboard” (panou de inspirație) digital. Pot exista moodboard-uri separate pentru ocazii diferite, precum nunți de vară, o călătorie în Italia sau ținute de lucru. „Try it on” (probă virtuală) : selectezi piese individuale și folosești opțiunea „Try it on” pentru a vedea cum ar arăta o combinație înainte să te îmbraci. Când ajunge la utilizatori Funcția „wardrobe” va începe să fie disponibilă în această vară , mai întâi în Google Photos pe Android , apoi pe iOS , conform anunțului. Google nu oferă în material un calendar mai detaliat (date exacte) și nici informații despre disponibilitatea pe piețe sau condiții de acces. [...]

OpenAI își extinde distribuția în cloud dincolo de Microsoft , după ce modelele sale vor fi disponibile pentru prima dată în Amazon Bedrock , mișcare care poate schimba opțiunile de achiziție și integrare pentru companiile care folosesc servicii AWS, potrivit TechRadar . Parteneriatul vine la o zi după ce OpenAI a anunțat că Microsoft nu mai este partenerul său exclusiv de cloud, deși rămâne „partener prioritar”. În noul aranjament, clienții Amazon Bedrock vor putea accesa modele GPT și alte modele asociate, iar agentul Codex va putea fi integrat în medii AWS. Ce se schimbă pentru clienții AWS: OpenAI intră direct în Bedrock Integrarea pune modelele OpenAI „lângă” alte opțiuni deja disponibile în Bedrock, inclusiv de la Anthropic, Meta, Mistral, Cohere și Amazon, plus „alți furnizori de top”, conform informațiilor din material. TechRadar notează că pachetul include și „cel mai bun model de frontieră” al OpenAI, GPT‑5.5. Odată cu disponibilitatea în Bedrock, companiile păstrează accesul la funcții tipice de utilizare enterprise din AWS, precum: controale de acces IAM (gestionarea identităților și permisiunilor), rețelistică privată, criptare, „guardrails” (mecanisme de limitare și control al comportamentului modelelor), jurnalizare prin AWS CloudTrail. Codex, disponibil în ecosistemul AWS, dar deocamdată în „limited preview” Amazon evidențiază integrarea Codex și menționează că produsul are patru milioane de utilizatori săptămânali. Potrivit articolului, Codex este disponibil prin Codex CLI, aplicația desktop Codex și extensia pentru Visual Studio Code. Atât Codex în Bedrock, cât și disponibilitatea modelelor OpenAI și a Amazon Bedrock Managed Agents alimentați de OpenAI sunt, deocamdată, în regim de „limited preview” (acces limitat), ceea ce indică o lansare etapizată, nu o disponibilitate generală imediată. Context: un acord pe termen lung și investiții majore în infrastructură Dezvoltarea vine la câteva săptămâni după ce Amazon a anunțat un „parteneriat strategic multianual” cu OpenAI, care ar include o investiție de 50 miliarde dolari (aprox. 230 miliarde lei) în companie, conform TechRadar. În cadrul acelui acord, OpenAI ar urma să consume 2 GW de capacitate Trainium (cipuri/acceleratoare AWS pentru antrenarea modelelor) prin infrastructura AWS, iar cele două companii ar urma să dezvolte împreună modele personalizate pentru aplicațiile orientate către clienți ale Amazon. TechRadar mai menționează că acordul pe opt ani ar fi o extindere a unei înțelegeri anterioare, „în valoare combinată” de 138 miliarde dolari (aprox. 635 miliarde lei). AWS descrie acest pas drept „începutul unei colaborări mai profunde”, iar eliminarea exclusivității cu Microsoft poate deschide calea pentru extinderi similare și cu alți furnizori de cloud. [...]

Google Translate adaugă o funcție „Practice” cu inteligență artificială care îți corectează pronunția , un pas care mută aplicația din zona de traducere rapidă spre antrenament de vorbire și poate crește timpul petrecut în ecosistemul Google, potrivit Android Headlines . Noua opțiune „Practice” este gândită ca un instrument de exersare: utilizatorul rostește cuvinte sau expresii, iar sistemul folosește inteligența artificială pentru a identifica unde pronunția diferă de forma așteptată și pentru a ajuta la corectare. Din informațiile disponibile în material, accentul este pe feedback-ul de pronunție, nu pe traducere în sine. Ce se schimbă, practic, pentru utilizatori Funcția adaugă un flux de utilizare diferit față de „ascultă și repetă” din traducătoarele clasice, printr-o componentă de evaluare automată a vorbirii. Pe scurt, „Practice” urmărește să transforme Google Translate într-un instrument de învățare mai activ, nu doar într-un dicționar cu redare audio. De ce contează operațional pentru Google Integrarea unei funcții de exersare a pronunției în Translate poate însemna: utilizare mai frecventă a aplicației în contexte de învățare (nu doar „la nevoie”); o poziționare mai directă în zona aplicațiilor de învățare a limbilor, unde diferențiatorul este feedback-ul personalizat; o extindere a rolului inteligenței artificiale în aplicații de masă, cu interacțiuni vocale și evaluare în timp real. Materialul nu oferă detalii despre disponibilitate pe piețe, limbi suportate, calendar de lansare sau condiții comerciale (gratuit/abonament), astfel că impactul exact asupra utilizării și monetizării rămâne deocamdată neclar. [...]

Procesul dintre Elon Musk și Sam Altman riscă să complice traseul OpenAI către o listare și să amplifice presiunea juridică asupra modelului său hibrid (nonprofit–profit), într-un moment în care compania este descrisă ca fiind „pregătită” pentru un IPO, potrivit Al Jazeera . Într-un proces federal din California , Musk – cofondator OpenAI – a depus mărturie pentru a doua zi, susținând că Altman a „trădat” promisiunile inițiale de a păstra organizația ca nonprofit „dedicată beneficiului umanității”. Litigiul pornește de la înființarea OpenAI în 2015 ca nonprofit și transformarea ulterioară într-o structură orientată spre profit. Musk a declarat în fața juraților că și-a pierdut încrederea că Altman va menține misiunea nonprofit și a spus că, spre finalul lui 2022, se temea că Altman încerca să „fure caritatea”, afirmând că „s-a dovedit a fi adevărat”. Altman a fost prezent în sală, dar nu a depus mărturie, conform relatării. Miza economică: IPO și modelul de finanțare Avocații OpenAI au respins acuzațiile și au susținut că nu a existat niciodată un angajament de a rămâne nonprofit. Compania afirmă că a creat o componentă cu scop lucrativ pentru a finanța nevoile mari de putere de calcul și pentru a atrage talente. În același timp, OpenAI ar fi „pregătită” pentru o ofertă publică inițială care ar putea evalua compania la 1.000 de miliarde de dolari, potrivit Reuters, citată de Al Jazeera. În acest context, disputa privind guvernanța și misiunea inițială poate deveni un factor de risc reputațional și juridic, cu potențiale efecte asupra investitorilor și structurii de control. Ce cere Musk în instanță Musk a investit aproximativ 38 de milioane de dolari (aprox. 174 milioane lei) în OpenAI între 2015 și 2017 și a părăsit organizația în 2018. În proces, el solicită: 150 de miliarde de dolari (aprox. 690 miliarde lei) despăgubiri de la OpenAI și Microsoft , cu orice sumă acordată direcționată către brațul caritabil al OpenAI; obligarea OpenAI să revină la statutul de nonprofit; înlăturarea lui Sam Altman și a cofondatorului Greg Brockman din conducere. Musk a mai susținut că organizația a fost „capturată” și a descris o ofertă de a investi, venită din partea lui Altman, ca părând „ca o mită”. Apărarea OpenAI: competiția cu xAI Echipa juridică a OpenAI afirmă că acțiunea lui Musk urmărește să submineze compania în favoarea propriei sale inițiative, xAI. OpenAI, organizată acum ca „public benefit corporation” (o formă corporativă care combină obiective comerciale cu o misiune de interes public), susține că demersul este alimentat de competiție și notează că xAI este în urma OpenAI la adopția de către utilizatori. Context suplimentar despre proces apare într-un material anterior al publicației, „stand for a second day”, disponibil aici: Al Jazeera . [...]

Google extinde utilizarea practică a Gemini prin generarea directă de fișiere descărcabile , o funcție care reduce pașii operaționali dintre „brainstorm” și livrabile precum documente, foi de calcul sau prezentări, potrivit Google Blog . Actualizarea permite ca, dintr-un simplu prompt în chat, Gemini să creeze fișiere gata de partajat în formate precum PDF, Microsoft Word și Excel, dar și fișiere Google Workspace (Docs, Sheets, Slides). Ideea centrală este eliminarea etapelor de copiere, lipire și reformatări între aplicații, astfel încât utilizatorii să poată trece mai rapid de la idei la un document final, fără să părăsească aplicația Gemini. Ce se schimbă în fluxul de lucru Google indică exemple de utilizare orientate spre productivitate: exportul unei propuneri de buget într-un fișier Microsoft Excel (.xlsx), transformarea unor idei disparate într-o schiță cu puncte-buletă sau condensarea unei colaborări lungi într-un PDF de o pagină ori într-un document Microsoft Word (.docx). Pentru majoritatea formatelor, fișierul poate fi descărcat direct pe dispozitiv sau exportat în Google Drive. Formate acceptate și disponibilitate Lista de formate suportate include: fișiere Workspace (Docs, Sheets, Slides); -.pdf; -.docx; -.xlsx; -.csv; LaTeX; text simplu (TXT); Rich Text Format (RTF); Markdown (MD). Funcția este disponibilă „pentru toți utilizatorii aplicației Gemini la nivel global”, conform aceleiași surse. Utilizarea este descrisă simplu: utilizatorul intră în Gemini și explică ce fișier are nevoie să fie generat. [...]