Știri
Știri din categoria Inteligență artificială

OpenAI își strânge portofoliul de proiecte, iar plecarea șefului Sora confirmă reorientarea spre programare și aplicații pentru companii, potrivit iTHome. Bill Peebles, responsabilul platformei de generare video Sora, a anunțat că părăsește compania pe 17 aprilie (ora locală), în contextul unei ajustări de strategie care reduce „proiectele secundare”.
Mutarea vine după ce OpenAI ar fi renunțat luna trecută la instrumentul său de generare video Sora, ca parte a aceleiași schimbări de priorități, care mută accentul către programare și utilizare în mediul enterprise (aplicații pentru companii).
Peebles a transmis pe X un mesaj de mulțumire pentru mediul de cercetare din OpenAI, spunând că acesta a permis explorarea unor idei în afara „foii de parcurs” principale a companiei și argumentând că diversitatea proiectelor este importantă pentru dezvoltarea pe termen lung a unei organizații de cercetare. El a adăugat că Sora este un proiect care „putea fi realizat doar la OpenAI” și că va prețui experiența.
Tot potrivit iTHome, și Kevin Weil, vicepreședinte responsabil de „science AI” (zona de cercetare științifică asistată de AI), urmează să plece, anunțând că vineri este ultima sa zi. Weil a scris pe X că echipa sa „va fi dispersată în alte echipe de cercetare”.
Publicația notează și o informație atribuită revistei Wired: platforma de cercetare Prism, lansată anterior de OpenAI și coordonată de Weil, ar urma să fie închisă, iar capabilitățile ei să fie integrate în aplicația desktop Codex.
În ansamblu, succesiunea de decizii (renunțarea la Sora, închiderea Prism și plecările de management) indică o alocare mai strictă a resurselor către produse considerate „de bază” pentru OpenAI — în special instrumente de programare și aplicații orientate către companii — cu efect direct asupra proiectelor experimentale care rămân fără susținere internă.
Recomandate

Papa Leon al XIV-lea avertizează că folosirea IA pentru manipulare poate amplifica polarizarea și violența , într-un mesaj cu implicații directe pentru dezbaterea de reglementare a conținutului digital și a instrumentelor generative, potrivit G4Media . Într-un discurs la Universitatea Catolică a Africii Centrale din Yaoundé (Camerun), el a criticat utilizarea inteligenței artificiale pentru a alimenta „polarizarea, conflictele, frica și violența”. În intervenția sa, Papa a susținut că miza depășește „utilizarea noilor tehnologii” și ține de „înlocuirea progresivă a realității prin simularea acesteia”, cu efecte asupra relației societății cu adevărul. „Provocarea reprezentată de aceste sisteme este mai profundă decât pare: nu este vorba doar despre utilizarea noilor tehnologii, ci despre înlocuirea progresivă a realității prin simularea acesteia.” De ce contează: presiune publică pentru reguli mai stricte privind conținutul generat de IA Mesajul vine pe fondul criticilor tot mai numeroase legate de folosirea imaginilor generate de inteligența artificială în scopuri politice. În acest context, materialul menționează un episod în care președintele american Donald Trump a publicat o imagine generată cu IA în care apărea ca sfânt, ulterior eliminată. Papa i-a îndemnat pe studenți să prețuiască „alteritatea oamenilor reali”, în detrimentul „răspunsului funcțional” al chatboților, a căror utilizare a devenit răspândită în rândul generațiilor tinere. „Când simularea devine normă (...) trăim ca și cum am fi în bule impermeabile unii față de alții (...) Așa se răspândesc polarizarea, conflictul, frica și violența.” „Fața ascunsă” a IA: costuri ecologice și lanțuri de aprovizionare cu pământuri rare În același discurs, Papa a legat dezvoltarea accelerată a tehnologiilor digitale de „devastarea ecologică și socială” asociată cu „cursa frenetică” pentru materii prime și elemente din pământuri rare, esențiale pentru electronica modernă. Textul subliniază că inteligența artificială se bazează în mare măsură pe mineritul de cobalt, ale cărui costuri de mediu, sociale și umane sunt suportate de Africa. Republica Democrată Congo deține unele dintre cele mai bogate resurse (cupru, cobalt, coltan și litiu), iar în 2024 a furnizat 76% din producția globală de cobalt, potrivit U.S. Geological Survey (USGS). Papa a adăugat că „Africa trebuie eliberată de flagelul corupției”, afirmând că mineritul de cobalt este dominat în mare măsură de puteri străine, „în special China”, într-un sistem care aduce puține beneficii populațiilor locale, în ciuda importanței strategice globale. [...]

Guvernul Japoniei pune pe masă până la 60 mld. yeni pentru a crește producția internă de senzori de imagine pentru AI , într-un sprijin direcționat către Sony care urmărește explicit obiective de „securitate economică”, potrivit ITmedia . Măsura vizează producția de senzori de imagine AI (CMOS), componente folosite pe scară largă în aplicații precum automatizarea industrială și vehiculele autonome. Subvenția aprobată pentru Sony poate ajunge la 60 miliarde yeni. Sprijin prin „securitate economică” și extinderea capacității de producție Conform publicației, finanțarea este aprobată de Ministerul japonez al Economiei, Comerțului și Industriei (METI) , în baza „Legii pentru promovarea securității economice” (un cadru legislativ prin care Japonia susține industrii considerate strategice și reduce dependențele externe). Obiectivul declarat este sprijinirea extinderii producției interne de senzori de imagine. Ministrul economiei, Akazawa Ryosei, a argumentat că senzorii de imagine sunt o componentă importantă a industriei AI, cu relevanță directă pentru domenii precum echipamentele de automatizare și conducerea autonomă. Investiția Sony: fabrică nouă în Kumamoto și livrări planificate din 2029 În paralel cu subvenția, Sony Semiconductor ar urma să investească 180 miliarde yeni (aprox. 5,4 mld. lei) pentru o fabrică nouă în orașul Koshi, prefectura Kumamoto , care este deja în construcție. După finalizare, ținta operațională este o capacitate de 10.000 de plachete (wafer) de 300 mm pe lună , iar compania estimează că va începe să livreze către piață în mai 2029 , mai notează aceeași sursă. [...]

România poate recupera mai repede „datoria tehnologică” din instituții și companii dacă folosește inteligența artificială ca accelerator de modernizare , susține Daniel Tămaș , CEO și fondator al startupului WAM, într-o intervenție la Ziarul Financiar . Ideea centrală: AI poate reduce atât costurile, cât și timpul necesar pentru a actualiza sisteme digitale construite pe tehnologii ieșite din uz. Miza este una operațională: infrastructura IT „moștenită” (sisteme vechi, greu de integrat și de extins) încetinește procesele administrative și face tranziția către soluții moderne mai scumpă și mai dificilă, cel puțin la început. În acest context, AI este prezentată ca un instrument care poate scurta etapele cele mai consumatoare de resurse din modernizare, în special acolo unde e nevoie de reorganizarea datelor și a infrastructurii. De ce contează pentru companii și sectorul public Potrivit lui Tămaș, „datoria tehnologică” s-a acumulat în ultimii 15–20 de ani, perioadă în care au fost folosite tehnologii care au ieșit treptat din uz, iar migrarea devine „dureroasă” la început. În schimb, AI poate prelua o parte din munca repetitivă și de durată, reducând dependența de procese manuale și accelerând digitalizarea. În termeni practici, beneficiul invocat este viteza: dacă timpul de implementare devine un factor competitiv, capacitatea de a moderniza mai rapid poate face diferența între stagnare și adaptare la ritmul global al inovării. Exemplul ANAF: unde AI poate scurta munca de „curățare” și structurare a datelor Antreprenorul a dat ca exemplu datele publice accesibile pe platforma ANAF , unde, în lipsa unor instrumente automate, munca ar presupune colectare manuală, potrivirea coloanelor și corelarea informațiilor pentru a obține o structură utilizabilă. „Noi avem o datorie tehnologică destul de mare, pentru că timp de nu ştiu 15-20 de ani s-au folosit tehnologii care încet-încet au ieşit din uz. Face migrarea către forme noi de tehnologie dureroasă cel puţin iniţial. Dar din nou aici, din punctul ăsta de vedere, inteligenţa artificială ajută extraordinar de mult.“ „Imaginează-ţi că datele pe care le-am putut accesa public de pe site-ul ANAF ar fi trebuit să stau să le culeg eu manual, să văd care coloană merge cu care coloană şi să fac corelările necesare şi să fac interogările necesare astfel încât să existe o structură.“ Concluzia transmisă: nu doar investițiile, ci și instrumentele folosite Mesajul lui Tămaș este că recuperarea decalajului tehnologic nu ține exclusiv de bugete, ci și de felul în care sunt folosite instrumentele noi. În această logică, AI devine un element central pentru modernizarea sistemelor și pentru valorificarea mai rapidă a datelor, atât în sectorul public, cât și în mediul privat. [...]

Anthropic își extinde Claude spre zona de design, iar accesul este legat direct de abonamentele plătite : noul instrument Claude Design, bazat pe modelul Claude Opus 4.7 , este lansat ca „unealtă de creație vizuală” și este disponibil treptat pentru utilizatorii Claude Pro, Max, Team și Enterprise, potrivit IT之家 . Claude Design este gândit să transforme, prin conversație, idei în designuri, prototipuri și prezentări, cu accent pe două categorii de utilizatori: designeri (pentru explorare mai rapidă) și persoane fără pregătire de design – precum product manageri sau fondatori – care ar putea produce în „câteva minute” materiale vizuale utilizabile. Ce schimbă operațional: de la „prompt” la prototip editabil și exportabil Instrumentul pornește de la descrieri în limbaj natural pentru a genera o primă versiune de design, apoi permite rafinarea rezultatului prin mai multe mecanisme: ajustări prin dialog; comentarii „în linie” (direct pe elemente); editare directă; glisoare personalizate pentru reglaje fine. După finalizare, rezultatele pot fi exportate în formate și platforme uzuale: Canva, PDF, PPTX sau fișier HTML independent. Alternativ, proiectul poate fi „împachetat” și predat către Claude Code pentru a intra în fluxul de dezvoltare. Integrare cu materiale existente și consistență de brand Claude Design acceptă import din mai multe surse și formate: texte (inclusiv prompturi), imagini și documente DOCX/PPTX. Pentru a menține consistența între prototip și produsul real, instrumentul poate „prelua” (scrape) elemente din pagini web. Un element central este „sistemul de brand” integrat: acesta poate citi codul din depozitul (codebase) companiei și fișierele de design, aplicând automat reguli unitare de culori, fonturi și componente. Exemple de utilizare și un indicator de productivitate IT之家 notează că instrumentul acoperă scenarii precum transformarea modelelor statice în prototipuri interactive, realizarea rapidă de wireframe-uri (schițe de structură pentru interfețe), generarea de prezentări pentru finanțare și materiale de marketing. Ca exemplu de eficiență, publicația menționează un test în care echipa Brilliant ar fi avut nevoie de „peste 20” de iterații de prompturi într-un alt instrument pentru a finaliza o pagină complexă, în timp ce în Claude Design ar fi fost suficiente 2 prompturi. (Detalii suplimentare despre metodologia testului nu sunt oferite în material.) [...]

Cloudflare a deschis testarea publică a unui serviciu de e-mail care le dă agenților AI capacitatea nativă de a trimite și primi mesaje , o mutare care poate simplifica integrarea e-mailului în aplicații automatizate și reduce efortul operațional pentru dezvoltatori, potrivit IT之家 . Serviciul include funcții de trimitere și rutare a e-mailurilor și promite configurare automată pentru înregistrări de autentificare precum SPF și DKIM (mecanisme care ajută la verificarea expeditorului și la livrarea în inbox, nu în spam). Dezvoltatorii pot trimite e-mailuri fie prin legături native în Workers (platforma de rulare a codului la marginea rețelei Cloudflare), fie printr-un API REST (interfață web standard pentru apeluri între sisteme). Ce se schimbă operațional pentru dezvoltatori Cloudflare susține că, în Workers, trimiterea se face prin „binding” nativ, fără administrarea cheilor API sau a perechilor de chei. Alternativ, serviciul poate fi apelat prin SDK-uri (biblioteci software) pentru TypeScript și Python, folosind API-ul REST. Platforma configurează automat și DMARC, pe lângă SPF și DKIM, pentru a crește șansele ca mesajele să treacă verificările de autentificare și să fie livrate corect. Cloudflare leagă și performanța de propria rețea globală, menționând livrare cu latență redusă la nivel internațional. De ce contează pentru „agenții” AI Agents SDK adaugă o funcție „onEmail”, prin care agentul poate primi e-mailuri și poate răspunde asincron folosind noua funcție de trimitere. Diferența față de un chatbot, conform descrierii, este că un agent bazat pe e-mail poate lucra ore întregi la o sarcină (de exemplu, procesare de date sau coordonare între sisteme) și poate reveni ulterior cu un răspuns sau cu pași de urmat. Fiecare agent are o identitate separată, iar un mecanism de „rezolvare a adreselor” poate direcționa e-mailuri cu prefixe diferite către instanțe diferite ale agentului. Integrare și aplicație de referință Cloudflare descrie mai multe opțiuni de integrare: printr-un server MCP, care permite apelarea interfeței de e-mail prin instrucțiuni în limbaj natural; prin Wrangler CLI, pentru a reduce consumul de „token-uri” (unități de text procesate de modele) asociat definirii instrumentelor, astfel încât agentul să poată trimite e-mailuri cu un cost de context aproape nul; printr-un proiect open-source numit Skills, cu ghiduri de configurare și bune practici pentru aplicații de producție. Pentru a demonstra capabilitățile, compania a publicat și o aplicație de referință open-source, „Agentic Inbox”, care combină rutarea și trimiterea e-mailurilor cu clasificare AI, stocare de atașamente și logică de agent, inclusiv suport pentru fire de conversație și răspunsuri automate. [...]

„Tokenmaxxing” riscă să umfle costurile fără câștiguri proporționale de productivitate , pe măsură ce tot mai multe echipe de software tratează bugetele mari de „tokeni” (consum de procesare pentru instrumente AI) ca pe un indicator de performanță, potrivit unei analize TechCrunch . Ideea centrală este că măsurarea „inputului” (câți tokeni consumă un dezvoltator sau cât cod generează cu ajutorul AI) poate înlocui greșit măsurarea „outputului” (calitatea și durabilitatea codului livrat). În practică, companiile care urmăresc productivitatea inginerilor observă că volumul de cod acceptat crește, dar și nevoia de a reveni ulterior pentru corecții și rescrieri — ceea ce erodează beneficiul inițial. De ce contează pentru companii: costuri mai mari, valoare incertă TechCrunch descrie apariția unei „insigne de onoare” în rândul dezvoltatorilor din Silicon Valley: bugete „enorme” de tokeni, adică limita de procesare AI pe care o pot consuma. Problema, în logica articolului, este că acest tip de metrică încurajează consumul de resurse, nu eficiența. Datele invocate din zona companiilor de analiză a productivității sugerează un tipar: se scrie mai mult cod, însă o parte disproporționată „nu rămâne” (este modificată sau ștearsă ulterior), ceea ce înseamnă timp suplimentar de revizie și acumulare de datorie tehnică (muncă viitoare generată de soluții rapide sau imperfecte). Ce arată datele: „churn” mai mare și randament care nu scalează În analiza TechCrunch, mai multe platforme de „engineering intelligence” (instrumente care măsoară activitatea și fluxurile de lucru din dezvoltare) raportează creșteri puternice ale așa-numitului „code churn” — diferența dintre liniile de cod adăugate și cele șterse, un indicator al rescrierilor. Pe scurt, exemplele citate în articol includ: Waydev : CEO-ul și fondatorul Alex Circei spune că managerii văd rate de acceptare a codului AI de 80%–90%, dar „churn”-ul din săptămânile următoare ar coborî acceptarea „reală” la 10%–30% din codul generat. Waydev lucrează cu 50 de clienți care au împreună peste 10.000 de ingineri software, potrivit articolului. GitClear: un raport din ianuarie a constatat că utilizatorii frecvenți de AI au avut, în medie, un „code churn” de 9,4 ori mai mare decât cei care nu folosesc AI în mod regulat, depășind de peste două ori câștigurile de productivitate raportate. Faros AI: într-un raport din martie 2026, pe baza a doi ani de date de la clienți, „code churn” ar fi crescut cu 861% în condiții de adopție ridicată a AI. Jellyfish: analizând 7.548 de ingineri în T1 2026, compania a găsit că cei cu cele mai mari bugete de tokeni au produs cele mai multe „pull request”-uri (propuneri de modificări într-un depozit comun de cod), însă îmbunătățirea productivității nu a crescut proporțional: de două ori mai mult „throughput” (volum de livrare) la un cost de 10 ori mai mare în tokeni. Ce se schimbă operațional: mai multă revizie, diferențe între seniori și juniori Articolul notează că, din discuțiile cu dezvoltatori, se conturează o realitate familiară: cresc presiunea pe code review (verificarea codului) și datoria tehnică, chiar dacă instrumentele AI oferă viteză și „libertate” în scrierea inițială. O observație recurentă este diferența între inginerii seniori și cei juniori: juniorii tind să accepte mai mult cod generat de AI și ajung, în consecință, să rescrie mai mult ulterior. Ce urmează: companiile nu dau înapoi, dar își schimbă măsurătorile Deși apar semne că organizațiile încă învață să folosească eficient instrumentele AI, direcția generală rămâne de adopție, nu de retragere. TechCrunch amintește și de interesul comercial din jurul măsurării randamentului: Atlassian a cumpărat anul trecut DX, un startup de „engineering intelligence”, pentru 1 miliard de dolari, pentru a-și ajuta clienții să înțeleagă rentabilitatea investiției în agenți de programare. În acest context, Waydev spune că și-a refăcut platforma în ultimele șase luni pentru a urmări metadatele generate de agenții AI și pentru a oferi managerilor analize despre calitatea și costul codului, nu doar despre volum. „Aceasta este o nouă eră a dezvoltării software și trebuie să te adaptezi, iar ca firmă ești forțat să te adaptezi. Nu e ca și cum ar fi un ciclu care va trece”, a declarat Alex Circei pentru TechCrunch. [...]