Știri
Știri din categoria Inteligență artificială

Amazon și OpenAI vor dezvolta modele personalizate pentru aplicațiile orientate către clienți ale Amazon, potrivit Amazon, în cadrul unui parteneriat strategic multianual care combină modelele OpenAI cu infrastructura Amazon Web Services (AWS) și cu platforma Amazon Bedrock.
Componenta cu impact direct asupra produselor Amazon este colaborarea pentru „modele personalizate” (adică versiuni adaptate ale modelelor OpenAI, ajustate pentru nevoi specifice), pe care echipele Amazon le vor putea folosi în aplicații și agenți de inteligență artificială care interacționează cu clienții. Compania spune că aceste modele vor completa portofoliul existent de modele disponibil dezvoltatorilor interni, inclusiv familia Nova a Amazon, oferind încă o opțiune pentru dezvoltare și livrare la scară.
În paralel, AWS și OpenAI anunță că vor co-crea un „Stateful Runtime Environment” alimentat de modele OpenAI, care va fi disponibil prin Amazon Bedrock. Conceptul de „stateful” se referă la capacitatea sistemului de a păstra contextul și istoricul unei sarcini, astfel încât aplicațiile să poată „ține minte” pași anteriori, să lucreze între instrumente software și surse de date și să acceseze resurse de calcul într-un mod coerent pe durata unor fluxuri de lucru mai lungi. Lansarea este așteptată „în următoarele luni”, conform anunțului.
Pentru dezvoltarea și operarea acestor aplicații, AWS va fi „furnizorul exclusiv terț” de distribuție în cloud pentru OpenAI Frontier, o platformă enterprise pentru construirea, implementarea și administrarea echipelor de agenți AI, cu guvernanță și securitate integrate. În logica Amazon, acest strat ar trebui să faciliteze trecerea de la prototipuri la utilizare în producție, inclusiv pentru scenarii în care agenții AI operează peste sisteme de business cu „context partajat”.
Parteneriatul are și o dimensiune financiară și de infrastructură: Amazon va investi 50 de miliarde de dolari în OpenAI, începând cu o investiție inițială de 15 miliarde de dolari, urmată de încă 35 de miliarde de dolari „în lunile următoare”, condiționat de îndeplinirea unor criterii. Separat, OpenAI și AWS își extind acordul multianual existent (menționat la 38 de miliarde de dolari) cu încă 100 de miliarde de dolari pe opt ani, OpenAI angajându-se să consume aproximativ 2 gigawați de capacitate Trainium prin infrastructura AWS, pentru a susține cererea asociată mediului „stateful”, Frontier și alte sarcini avansate.
Din perspectiva dezvoltării de modele personalizate pentru aplicațiile Amazon, miza este dublă: pe de o parte, acces la modele OpenAI ajustate pentru cazuri de utilizare specifice produselor orientate către clienți; pe de altă parte, un cadru tehnic (runtime „stateful” și integrare cu Bedrock/AgentCore) care să permită acestor modele să funcționeze mai robust în aplicații reale, cu memorie de lucru, identitate și acces controlat la resurse. Anunțul include, totodată, o serie de precizări privind caracterul prospectiv al unor elemente (calendar, performanțe, condiții), subliniind că rezultatele pot diferi de așteptări.
Recomandate

OpenAI extinde Codex dincolo de programare, cu „agenți” care pot lucra în fundal pe PC , o schimbare cu impact operațional direct pentru echipele care vor să automatizeze sarcini repetitive fără integrare prin API, potrivit Ars Technica . Actualizarea vizează aplicația desktop Codex și ajunge la utilizatori „astăzi”, scrie publicația, descriind un pachet mai larg de funcții care merge de la capabilități noi pentru dezvoltatori până la extinderea către „muncă de cunoaștere” (sarcini de birou care nu sunt neapărat programare) și pregătirea terenului pentru ceea ce compania numește o viitoare „super aplicație”. Lucru în fundal pe computer: automatizare fără să „încurce” utilizatorul Elementul central al update-ului este „background computer use”: Codex poate executa sarcini pe PC „în fundal”, iar OpenAI susține că acest lucru se poate face fără să interfereze cu ce face utilizatorul pe desktop. În explicația OpenAI, Codex poate folosi aplicațiile de pe computer „văzând”, dând click și tastând cu propriul cursor. Totodată, „mai mulți agenți” pot lucra în paralel pe Mac, fără să afecteze munca utilizatorului în alte aplicații. Pentru dezvoltatori, compania indică utilizări precum iterarea modificărilor de interfață (frontend), testarea aplicațiilor sau lucrul în aplicații care nu expun un API (interfață de programare). Programare de sarcini și instrumente noi în aplicație Pe lângă lucrul în fundal, Codex primește și o funcție de programare: poate planifica activități pentru mai târziu — „ore, zile sau chiar săptămâni” — și se poate „trezi” singur ca să le execute la momentul potrivit. Aplicația include acum și: un browser web în aplicație , pentru a evalua munca pe experiențe web și pentru a lăsa comentarii punctuale pe pagină, într-un mod similar instrumentelor folosite deja în organizații pentru feedback către designeri și dezvoltatori; posibilitatea de a folosi gpt-image-1.5 pentru generare de imagini care pot fi incluse în machete (mockup-uri) și materiale similare. OpenAI a detaliat schimbările într-o postare pe blog, menționată de Ars Technica: OpenAI . [...]

Anthropic păstrează prețul, dar ridică miza pe utilizarea „în producție” a lui Claude Opus 4.7 , cu îmbunătățiri de fiabilitate pentru sarcini lungi și un upgrade de vedere care vizează direct fluxurile de lucru din inginerie software și analiză de imagini, potrivit Interesting Engineering . Modelul, prezentat drept noul vârf de gamă al companiei, este poziționat ca mai potrivit pentru activități complexe, de durată, unde dezvoltatorii s-au plâns frecvent de rezultate inconsecvente pe lanțuri lungi de instrucțiuni. Publicația notează că utilizatori timpurii spun că au mai multă încredere să „delege” sarcini de programare dificile, care anterior necesitau supraveghere umană mai strânsă. Ce se schimbă operațional: codare mai stabilă și respectare mai strictă a instrucțiunilor În zona de programare, Opus 4.7 pune accent pe calitatea execuției și pe consistență în fluxuri extinse de lucru. Conform articolului, modelul își verifică mai bine propriile rezultate înainte de a răspunde, tocmai pentru a reduce erorile care apar pe secvențe lungi de pași. O schimbare cu impact practic este „urmarea instrucțiunilor” (instruction following) mai strictă decât la versiunile anterioare. Asta poate obliga echipele să-și ajusteze modul de scriere a solicitărilor (prompts): instrucțiuni pe care modelele mai vechi le tratau „mai lejer” pot produce acum rezultate neașteptate, dar corecte tehnic. În testările interne menționate, Anthropic indică rezultate mai bune și pe sarcini legate de finanțe, inclusiv analiză structurată și calitatea prezentării. Upgrade pe „vision”: imagini mai mari, utile pentru capturi de ecran și diagrame Pe componenta vizuală, Opus 4.7 poate procesa imagini cu rezoluție mai mare, până la 2.576 pixeli pe latura lungă. Creșterea este prezentată ca un avantaj pentru interpretarea capturilor de ecran dense și a diagramelor detaliate, cu utilizări precum citirea tablourilor de bord, extragerea de date structurate și sprijin pentru „agenți” care folosesc computerul (sisteme care execută pași în interfețe software). Modelul primește și îmbunătățiri legate de „memorie” între sesiuni: poate reține informații-cheie stocate în fișiere și le poate reutiliza ulterior, reducând nevoia de a repeta contextul — un element care, în practică, poate scurta fluxurile de lucru și limita consumul de resurse. Poziționare și control al riscurilor: între performanță și utilizare responsabilă Anthropic trasează o diferență între Opus 4.7 și un sistem experimental mai avansat, Claude Mythos Preview, sugerând că noua versiune urmărește mai degrabă stabilitatea și „pregătirea pentru implementare” decât maximizarea capabilităților brute. Compania afirmă: „Deși este mai puțin capabil în sens larg decât cel mai puternic model al nostru, Claude Mythos Preview, arată rezultate mai bune decât Opus 4.6 pe o gamă de benchmark-uri.” Pe securitate, compania spune că introduce măsuri care detectează și blochează solicitările cu risc ridicat în zona de securitate cibernetică: „Lansăm Opus 4.7 cu măsuri de protecție care detectează și blochează automat solicitările care indică utilizări interzise sau cu risc ridicat în securitatea cibernetică.” În paralel, Anthropic lansează un „Cyber Verification Program”, prin care cercetători verificați pot accesa modelul pentru activități precum testarea de penetrare și analiza vulnerabilităților. Disponibilitate și preț: neschimbate, dar pe mai multe platforme Opus 4.7 este disponibil prin API-ul Anthropic și prin platforme de cloud: Amazon Bedrock , Google Cloud Vertex AI și Microsoft Foundry. Prețurile rămân la 5 dolari (aprox. 23 lei) pe milion de tokeni de intrare și 25 dolari (aprox. 115 lei) pe milion de tokeni de ieșire. Pentru companii, combinația dintre preț neschimbat și accentul pe fiabilitate în sarcini lungi sugerează o încercare de a reduce costurile operaționale ascunse ale utilizării modelelor (timp de verificare, reluări, corecții), fără a cere un buget mai mare per unitate de consum. Limitarea este că articolul nu oferă detalii despre metodologia completă a benchmark-urilor sau rezultate numerice comparabile, dincolo de afirmațiile de poziționare și exemplele de utilizare. [...]

OpenAI extinde Codex dincolo de programare, transformându-l într-un agent care poate folosi aplicații, naviga pe web și genera imagini , o mutare care pregătește terenul pentru viitoarea „super aplicație” desktop a companiei, potrivit Engadget . În loc să lanseze acum aplicația unificată, OpenAI livrează o actualizare majoră a Codex care arată direcția: un produs mai „generalist”, capabil să lucreze pe o suprafață mai mare de sarcini și instrumente. Ce se schimbă operațional: Codex devine un agent „multi-rol” Actualizarea aduce în Codex funcții care îl apropie de un asistent de lucru complet, nu doar de un instrument de scris cod: „Computer use” : agenții din Codex pot interacționa cu alte aplicații de pe PC. Utilizatorul poate indica un program anume sau poate lăsa modelul să aleagă aplicația potrivită pentru sarcină. OpenAI susține că are un avantaj printr-o soluție care permite rularea aplicațiilor fără să „îngreuneze” întregul sistem, astfel încât utilizatorul și agentul să poată lucra în paralel. 111 pluginuri noi : OpenAI lansează 111 extensii care combină abilități, integrări cu aplicații și conexiuni la servere prin „model context protocol” (un mecanism de conectare la surse de context și instrumente), pentru a crește capacitatea Codex de a strânge context și de a folosi uneltele pe care se bazează dezvoltatorii. Browser integrat : include un sistem de comentarii care permite cereri punctuale pentru modificări pe porțiuni specifice dintr-o pagină web sau aplicație web (în demonstrația OpenAI, Codex a fost folosit pentru ajustarea marginilor unui grafic). Generare de imagini în aplicație : Codex poate folosi gpt-image-1.5 pentru concepte de produs, machete, design de interfață și resurse pentru jocuri simple; poate utiliza și capturi de ecran pentru a verifica dacă urmează corect cerința utilizatorului. Memorie și proactivitate: pasul către un „asistent” persistent OpenAI prezintă și două funcții de memorie, încă în regim de previzualizare: Codex poate reține context din sarcini anterioare pentru a informa cererile viitoare; compania spune că, în timp, asta ar trebui să ducă la execuție mai rapidă și rezultate mai bune. Pe baza contextului acumulat, aplicația poate sugera acțiuni proactive (exemplul dat: recomandarea de a răspunde la un comentariu lăsat de un coleg într-un document Google). Șeful Codex, Thibault Sottiaux , a încadrat strategia ca dezvoltare „la vedere”, cu o extindere ulterioară dincolo de dezvoltatori: „Construim super aplicația la vedere. Această lansare este despre dezvoltatori. În viitor, o vom extinde către un public mai larg.” Disponibilitate: lansare graduală, cu limitări regionale Noua versiune începe să fie distribuită utilizatorilor aplicației desktop care sunt autentificați cu contul de ChatGPT. Funcția de „computer use” ajunge mai întâi pe macOS , iar disponibilitatea pentru utilizatorii din UE și Regatul Unit urmează ulterior. La fel, utilizatorii din Marea Britanie și Europa vor trebui să aștepte pentru funcțiile de memorie. [...]

OpenAI extinde Codex cu funcții de „agent” care pot opera aplicații pe macOS , într-o mișcare menită să crească utilitatea practică a instrumentului de programare și să reducă distanța față de Claude Code de la Anthropic, potrivit The Verge . Actualizarea adaugă, între altele, capacitatea ca Codex să folosească aplicațiile de pe desktop „pe cont propriu”. OpenAI spune că agentul poate rula în fundal, fără să interfereze cu ce face utilizatorul în alte aplicații, iar mai mulți agenți pot lucra în paralel. Pentru dezvoltatori, compania indică utilizări precum testarea și iterarea modificărilor de interfață, testarea aplicațiilor sau lucrul în aplicații care nu oferă o interfață de programare (API). Disponibilitate: întâi macOS, UE „mai târziu” Funcția începe să fie livrată de astăzi utilizatorilor aplicației desktop Codex care sunt autentificați cu ChatGPT și, inițial, este limitată la macOS. OpenAI nu a oferit un calendar pentru extinderea către alte sisteme de operare. Utilizatorii din Uniunea Europeană vor trebui să aștepte, compania precizând că actualizarea va ajunge acolo „în curând”. Ce mai primește Codex în acest pachet Pe lângă controlul aplicațiilor de pe desktop, OpenAI include în pachet: generare și iterare de imagini cu „gpt-image-1.5”; noi extensii (plug-in-uri) pentru GitLab, Atlassian Rovo și Microsoft Suite; navigare web nativă printr-un browser în aplicație, unde utilizatorii pot comenta direct pe pagini pentru instrucțiuni mai precise; automatizări mai ușor de reluat, prin reutilizarea firelor de conversație și posibilitatea ca agentul să își programeze singur sarcini viitoare și să „se trezească” automat pentru a continua o activitate pe termen mai lung. Memorie „opt-in”, cu implicații directe în productivitate Codex va primi și o funcție de memorie, care îi permite să rețină context util din experiențe anterioare (de exemplu preferințe personale, corecții sau informații greu de strâns). OpenAI spune că funcția va fi opțională (opt-in) și va fi lansată în regim de previzualizare, cu scopul de a accelera sarcinile viitoare și de a livra rezultate care înainte necesitau instrucțiuni detaliate. Funcțiile de personalizare ar urma să ajungă „în curând” la utilizatorii Enterprise, Edu și din UE. De ce contează: competiția se mută din „scrie cod” în „fă treaba în aplicații” Pachetul vine pe fondul accelerării automatizării sarcinilor de programare și dezvoltare software și al competiției dintre OpenAI, Google și Anthropic. Publicația notează că rivalitatea cu Anthropic este tot mai vizibilă, după succesul Claude Code, iar OpenAI încearcă să recupereze printr-un Codex mai „agentic” — adică un instrument care nu doar generează cod, ci poate executa pași concreți în mediul de lucru al utilizatorului. [...]

Canva introduce o funcție care poate rula sarcini recurente în fundal, iar miza este reducerea „muncii de rutină” din echipe : potrivit TechRadar , noul instrument „Scheduling” din Canva AI 2.0 permite programarea și executarea autonomă a unor taskuri, livrând rezultate „gata de editat”, ceea ce poate muta o parte din efortul operațional de la oameni la automatizări. Ce face „Scheduling” și de ce contează operațional Funcția este descrisă ca o modalitate prin care Canva „se ocupă de sarcini pentru tine, complet în fundal”. Practic, utilizatorii pot seta sarcini recurente pe care inteligența artificială le rulează automat, iar livrabilele ajung în format editabil, astfel încât intervenția umană să rămână la nivel de ajustări rapide înainte de publicare sau trimitere. Exemplele indicate includ: loturi săptămânale de conținut pentru rețele sociale; informări zilnice pentru ședințe; buletine interne ale companiei. Unghiul implicit este unul de productivitate: Canva poziționează instrumentul ca înlocuitor pentru activități care „ar fi putut lua zile” pentru a fi curate și pregătite manual. Integrarea cu aplicații de lucru și „contextul” necesar automatizării Pentru ca automatizarea să funcționeze, Canva pune accent pe „date și context”. Compania spune că a petrecut „cea mai mare parte din doi ani” redesenând și reconstruind infrastructura („stack”-ul tehnic) pentru a susține integrări prin MCP, un standard deschis stabilit de Anthropic. La lansare, sunt menționate integrări cu: Slack Gmail Google Drive Google Calendar Notion Zoom Co-fondatorul Cliff Obrecht afirmă că acesta este „începutul unui val uriaș”, cu potențialul de a ajunge, în timp, la „sute” de conectori MCP, care ar oferi instrumentului suficient context pentru a „lega” informațiile din mai multe sisteme. „Stadiu absolut timpuriu de adoptare” și cum este livrat produsul În același timp, Canva temperează așteptările privind maturitatea acestor instrumente: co-fondatorii Cliff Obrecht și Cameron Adams spun că asistenții „agentici” (capabili să execute autonom sarcini) sunt încă într-un „stadiu absolut timpuriu de adoptare”. Disponibilitatea este limitată: „Scheduling”, împreună cu celelalte instrumente din Canva AI 2.0, poate fi testat în regim de „research preview” (previzualizare de cercetare), pentru „primul milion de utilizatori” care reușesc să găsească un „easter egg” (un element ascuns în produs). [...]

China a pus în funcțiune un cluster AI de 60.000 de cipuri, mizând pe autonomie tehnologică , o mișcare care reduce dependența de furnizori externi și atenuează efectele restricțiilor americane la export, potrivit Interesting Engineering . Platforma a fost activată la Zhengzhou , în provincia Henan, și este destinată cercetării științifice, nu aplicațiilor de tip „chat”. Clusterul și-a dublat capacitatea în doar două luni, de la 30.000 la 60.000 de cipuri de accelerare AI. Conform publicației, întregul „stivă” tehnologică (cipuri, interconectări de mare viteză și software) este produsă în China, pentru a evita „controlul extern”. Dezvoltarea este atribuită companiei Sugon , afiliată Academiei Chineze de Științe. Ce se schimbă operațional: AI „pentru știință”, nu pentru conversație Sistemul este construit pentru direcția numită AI for Science (AI4S) – folosirea inteligenței artificiale în activități de descoperire științifică (simulări, căutare de materiale, modelare), nu pentru asistenți conversaționali. Publicația notează că această independență ar permite derularea unor proiecte sensibile fără riscul unor blocaje tehnologice sau interferențe externe. În material sunt menționate câteva utilizări raportate de South China Morning Post (SCMP), inclusiv accelerarea simulărilor de „împăturire” a proteinelor (protein folding) pentru dezvoltarea de medicamente, precum și screening-ul de materiale noi într-un interval de zile, nu ani. Sunt invocate și simulări complexe în inginerie aerospațială. De ce contează: răspuns la penuria de GPU și la restricțiile SUA Interesting Engineering plasează proiectul în contextul competiției SUA–China și al restricțiilor americane privind exporturile de tehnologie avansată. Articolul susține că upgrade-ul oferă Beijingului un avantaj strategic, deoarece cercetătorii pot ocoli constrângerile generate de penuria globală de procesoare grafice (GPU) și de interdicțiile de export ale SUA. În paralel, sunt amintite două reacții din SUA: o propunere legislativă a unor parlamentari americani pentru înăsprirea controalelor globale la export pentru echipamente avansate de fabricare a cipurilor, cu obiectivul de a alinia aliați precum Japonia și Olanda în 150 de zile; „Genesis Mission”, o inițiativă a Departamentului Energiei pentru o platformă unificată de AI în 17 laboratoare naționale, care să folosească date federale pentru antrenarea de modele științifice și implementarea de „agenți” AI (software care poate executa sarcini automatizate). Platforma OneScience: acces mai larg la infrastructură Sugon a lansat și OneScience, descrisă ca prima platformă integrată de dezvoltare din China, care ar include modele și seturi de date preîncărcate pentru experimente AI complexe, fără a necesita cunoștințe de programare, potrivit SCMP citat de Interesting Engineering. Dacă implementarea se confirmă la scară, efectul ar putea fi extinderea bazei de utilizatori din cercetare care pot folosi resurse de calcul avansate. [...]