Știri
Știri din categoria Inteligență artificială

Baidu a lansat oficial modelul Ernie 5.0, pretinzând că depășește performanțele OpenAI și Google în domeniul inteligenței artificiale – informează China Daily. Compania chineză susține că noul său model multimodal depășește GPT-5-High și Gemini 2.5-Pro în capacitățile de raționament și înțelegere, cu rezultate superioare în peste 40 de teste de referință, deși evaluările independente nu au fost încă publicate.
Lansarea a avut loc joi, în cadrul unei conferințe organizate la Shanghai, și reprezintă un moment definitoriu în strategia Chinei de a rivaliza direct cu giganții tehnologici occidentali pe frontul AI. Modelul, denumit complet Wenxin Big Model 5.0, integrează 2,4 trilioane de parametri și utilizează o arhitectură unificată autoregresivă care permite procesarea simultană a textului, imaginilor, videoclipurilor și sunetelor într-un singur sistem. Această abordare diferă de soluțiile occidentale ce apelează, în general, la „fuziunea târzie” a datelor din surse multiple.

Vicepreședintele Baidu, Wu Tian, a explicat că tehnologia „native full-modal” permite integrarea completă și optimizarea colaborativă a caracteristicilor multimodale, făcând ca modelul să funcționeze mai eficient și cu mai multă coerență în răspunsuri complexe. De asemenea, Ernie 5.0 include o structură mixture-of-experts la scară ultra-largă, activând mai puțin de 3% dintre parametri în timpul inferenței – o alegere care, potrivit Baidu, crește semnificativ eficiența de procesare fără a sacrifica performanța.
Performanțele modelului Ernie 5.0 (conform Baidu):
Lansarea a avut și un impact bursier imediat: acțiunile Baidu listate la Hong Kong au crescut cu peste 4%, atingând 160,10 dolari HK – cel mai înalt nivel din ultimii aproape trei ani – într-o zi în care indicele Hang Seng a înregistrat un ușor recul. De altfel, în ultimele două luni, titlurile companiei au crescut cu peste 40%, susținute de entuziasmul investitorilor în jurul inițiativelor AI, dar și de anunțul legat de listarea în Hong Kong a diviziei de cipuri AI, Kunlunxin.

Baidu mai anunță că Ernie 5.0 este deja disponibil pentru publicul larg prin aplicația oficială și website-ul companiei, iar pentru firme și dezvoltatori prin platforma cloud Qianfan. Totodată, potrivit Wall Street Journal, asistentul AI al companiei a depășit pragul de 200 de milioane de utilizatori activi lunar, în timp ce rivalul Alibaba, cu chatbotul Qwen, a atins 100 de milioane de utilizatori în doar două luni de la lansarea versiunii beta publice, în noiembrie 2025.
Pentru calibrări specializate, Baidu a colaborat cu 835 de experți din domenii precum tehnologia, sănătatea, educația și finanțele, pentru a rafina cunoștințele și evaluările modelului. Deși rezultatele prezentate de Baidu sunt impresionante, comunitatea internațională așteaptă teste independente pentru a confirma aceste performanțe.
Lansarea Ernie 5.0 semnalează o nouă fază în competiția globală pentru supremația în inteligență artificială, în care China își consolidează poziția nu doar ca utilizator, ci și ca inovator de vârf în tehnologia AI.
Recomandate

Apple a dus cheltuielile de cercetare-dezvoltare la un nou record, 11,4 miliarde de dolari (aprox. 52 miliarde lei), cu accent pe inteligență artificială , potrivit Android Headlines . Miza economică este dublă: compania își apără avantajul competitiv într-o piață care se mută rapid spre produse și servicii bazate pe AI, dar își și crește baza de costuri într-un moment în care investitorii cer rezultate vizibile din aceste investiții. Suma de 11,4 miliarde de dolari este prezentată ca un nou maxim pentru bugetul de R&D (cercetare și dezvoltare), iar publicația leagă creșterea de intensificarea eforturilor Apple în zona de inteligență artificială și de dezvoltarea de produse viitoare. De ce contează: presiune pe marje și pe ritmul de livrare a „AI-ului” în produse Un buget mai mare de R&D înseamnă, pe termen scurt, costuri operaționale mai ridicate, care pot pune presiune pe marje dacă nu sunt compensate de venituri suplimentare. Pe termen mediu, investiția este un pariu pe capacitatea Apple de a transforma AI-ul în funcții și produse care să susțină vânzările de hardware și să accelereze veniturile din servicii. În același timp, un nivel record al cheltuielilor ridică așteptările pieței: dacă investițiile sunt „turnate” în AI, următorul pas logic este ca utilizatorii și investitorii să vadă îmbunătățiri concrete în ecosistem, nu doar promisiuni. Ce indică direcția investițiilor Din informațiile prezentate, accentul cade pe: creșterea investițiilor în cercetare și dezvoltare pentru „produse viitoare”; orientarea mai pronunțată către inteligență artificială, ca zonă prioritară de dezvoltare. Publicația nu detaliază, în fragmentul disponibil, proiecte specifice sau un calendar de lansări asociat acestor cheltuieli, astfel că rămâne neclar ce produse sau funcții vor absorbi cea mai mare parte a bugetului și când ar urma să se vadă rezultatele în piață. [...]

Google Photos va introduce vara aceasta o funcție care îți cataloghează automat hainele din fotografii și le transformă într-un „dulap digital” , cu opțiuni de filtrare, combinare în ținute și previzualizare „virtual try-on”, potrivit Google . Lansarea începe pe Android , urmând să ajungă ulterior și pe iOS, ceea ce mută aplicația din zona de stocare și organizare a imaginilor spre un instrument practic de planificare a ținutelor, bazat pe inteligență artificială . Ce face concret noua funcție și de ce contează operațional Funcția creează automat o colecție dedicată „wardrobe” (dulap) pe baza pieselor vestimentare care apar în biblioteca ta de fotografii. Practic, aplicația scanează imaginile și extrage articolele de îmbrăcăminte pe care le-ai purtat, apoi le organizează într-o structură ușor de parcurs. Din perspectiva utilizării de zi cu zi, noutatea este că utilizatorul nu mai pornește de la fotografii disparate, ci de la o „inventariere” a garderobei, generată automat, care poate reduce timpul de căutare și de planificare a ținutelor. Cum se folosește: filtrare, ținute și „probă” virtuală Google descrie trei utilizări principale: Filtrare pe categorii : poți vedea toate articolele la un loc sau poți intra pe o categorie (de exemplu bijuterii, topuri sau pantaloni) pentru a redescoperi piese „uitate” în dulap. Crearea de ținute : poți combina articolele pentru a construi outfituri, pe care le poți distribui prietenilor sau salva într-un „moodboard” (panou de inspirație) digital. Pot exista moodboard-uri separate pentru ocazii diferite, precum nunți de vară, o călătorie în Italia sau ținute de lucru. „Try it on” (probă virtuală) : selectezi piese individuale și folosești opțiunea „Try it on” pentru a vedea cum ar arăta o combinație înainte să te îmbraci. Când ajunge la utilizatori Funcția „wardrobe” va începe să fie disponibilă în această vară , mai întâi în Google Photos pe Android , apoi pe iOS , conform anunțului. Google nu oferă în material un calendar mai detaliat (date exacte) și nici informații despre disponibilitatea pe piețe sau condiții de acces. [...]

O actualizare a aplicației Apple Support a inclus din greșeală un fișier „Claude.md”, expunând indicii despre cum Apple folosește AI în dezvoltare și în arhitectura de suport , potrivit IT之家 . Incidentul, retras „de urgență” în 24 de ore, ridică o problemă operațională mai importantă decât „vibe coding”: cum mai arată controlul de calitate și revizia de cod când echipele se bazează pe asistenți AI și pe automatizări de livrare. Ce s-a întâmplat și unde a apărut fișierul Fișierul „Claude.md” a ajuns în pachetul de distribuție al aplicației Apple Support odată cu actualizarea la versiunea 5.13, livrată pe 1 mai. Descoperirea a fost semnalată de Aaron Perris, descris în material ca analist la MacRumors. Apple Support este aplicația oficială de asistență post-vânzare, folosită pentru chat cu specialiști, diagnosticare, programări la service și achiziția AppleCare. Ce indică „Claude.md” despre sistemul de suport: AI și oameni pe aceeași „bandă” Conținutul expus descrie o arhitectură de conversație în care Apple ar folosi un sistem cu două „backend-uri” (două componente de server): Juno AI pentru răspunsuri automate; Live Agents pentru preluarea de către operatori umani. Trecerea între cele două ar fi făcută printr-un strat de protocol, astfel încât „codul de deasupra” să nu știe dacă un mesaj vine de la om sau de la AI. În plus, modelul de mesaje ar avea trei roluri: „client” (utilizator), „agent” (operator Apple Support) și „assistant” (AI), procesate prin același flux, fără indicii explicite către utilizator despre cine răspunde, conform descrierii din material. Separat, sursa menționează și un modul „SAComponents”, prezentat ca o bibliotecă de componente de interfață (UI), fără logică de business, cu documentație DocC. De ce contează pentru companii: scăpări de livrare și guvernanță a codului în era AI Materialul pune accent pe faptul că nu fișierul în sine ar fi „marele secret”, ci faptul că un artefact intern a ajuns în producție , ceea ce sugerează o breșă în procesul de revizie și împachetare a aplicației. Discuția se leagă și de o controversă practică: dacă „Claude.md” (un fișier folosit, în general, pentru a instrui un asistent AI despre proiect: structură, reguli, pași de build, „capcane” de evitat) ar trebui: să fie păstrat în controlul versiunilor (ca documentație de proiect), sau să fie ignorat (de tip „configurație de mediu”, ținut local). Însă întrebarea operațională rămâne: cum a trecut fișierul din depozit/arbore de proiect în pachetul final publicat . Context: Apple și Anthropic , plus limitele concluziilor IT之家 notează că Bloomberg, prin Mark Gurman, ar fi indicat anterior că Apple rulează intern o versiune personalizată a modelului Claude pe serverele proprii, pentru a păstra datele în infrastructura companiei. Totodată, este citată și o poziție atribuită unui utilizator Hacker News care se prezintă drept fost angajat Apple: existența multor echipe izolate ar însemna că folosirea Claude într-un proiect nu dovedește automat o practică uniformă la nivelul întregii companii. Articolul mai menționează o statistică dintr-un sondaj pe 120.000 de dezvoltatori, potrivit căreia 92,6% folosesc cel puțin lunar un asistent AI de programare, ca argument că fenomenul este generalizat în industrie. Ce urmează Din informațiile prezentate nu reiese dacă Apple a comunicat public cauza exactă a includerii fișierului sau dacă a schimbat procedurile de livrare. Cert este că retragerea rapidă (în 24 de ore, conform materialului) limitează expunerea, dar nu elimină întrebarea de fond pentru organizațiile care dezvoltă software cu ajutorul AI: cine și cum mai face „review” eficient, astfel încât fișierele și instrucțiunile interne să nu ajungă în producție . [...]

Spotify introduce un sistem de verificare care ar putea schimba modul în care sunt descoperiți artiștii pe platformă , printr-o insignă menită să diferențieze muzicienii reali de conținutul generat cu inteligență artificială, potrivit The Guardian . Miza este una operațională: într-un catalog tot mai încărcat de piese sintetice, vizibilitatea în căutări și în paginile de artist devine dependentă de un semnal de „autenticitate” acordat de platformă. Insigna „Verified by Spotify”, reprezentată de un bife verde, urmează să apară în următoarele săptămâni pe profilurile artiștilor și în rezultatele de căutare. Spotify spune că badge-ul indică faptul că un profil a fost revizuit și îndeplinește standardele interne ale companiei privind autenticitatea. Cine primește badge-ul și cine rămâne în afara lui Spotify precizează că profilurile care reprezintă în principal muzică generată de AI sau „personaje” create cu AI nu vor fi eligibile pentru verificare. Pentru a obține verificarea, artiștii trebuie să îndeplinească mai multe condiții, între care: să demonstreze implicare susținută din partea ascultătorilor în timp; să respecte regulile platformei; să arate semne ale unei prezențe reale pe platformă și în afara ei (de exemplu, date de concerte, produse de merchandising și conturi de social media conectate). Spotify argumentează schimbarea prin nevoia de încredere într-un context în care conținutul sintetic se multiplică rapid: „În era AI, este mai important ca niciodată să poți avea încredere în autenticitatea muzicii pe care o asculți.” Compania mai susține că, la lansare, peste 99% dintre artiștii pe care utilizatorii îi caută activ vor fi verificați, ceea ce ar însemna „sute de mii” de muzicieni, din genuri și regiuni diferite. „Etichetă nutrițională” pentru paginile de artist Separat de badge, Spotify adaugă o secțiune nouă de informații pe toate paginile de artist – inclusiv pentru cei neverificați – cu date despre momente importante din carieră, tipare de lansare și istoricul concertelor. Compania compară această zonă cu etichetarea nutrițională a alimentelor: un rezumat rapid care ar ajuta utilizatorii să evalueze „istoricul” unui artist pe platformă. Context: presiunea conținutului sintetic asupra platformelor Inițiativa vine pe fondul îngrijorărilor din industrie că muzica generată cu AI poate „inunda” cataloagele de streaming. În acest context, The Guardian notează că Deezer a comunicat recent că piesele sintetice reprezintă 44% din muzica nou încărcată zilnic pe serviciul său. Totodată, marile case de discuri încearcă să limiteze fenomenul: Sony Music a spus că a cerut eliminarea a peste 135.000 de piese produse cu AI care imitau artiști aflați sub contract, pe diverse servicii de streaming. Dimensiunea platformei Anunțul a venit după raportarea rezultatelor Spotify pentru primul trimestru din 2026, când compania a indicat că baza de abonați plătitori a ajuns la 293 de milioane. Într-un astfel de ecosistem, un mecanism de verificare poate influența direct descoperirea artiștilor și încrederea utilizatorilor în ceea ce consumă. [...]

Noile teste arată că GPT-5.5 ajunge din urmă Mythos Preview la capabilități relevante pentru securitate cibernetică , ceea ce pune sub semnul întrebării argumentul comercial al lansărilor „cu acces limitat” vândute ca măsură de siguranță, potrivit Ars Technica . În evaluarea AISI (instituția nu este detaliată în fragmentul furnizat), rezultatele pentru GPT-5.5 sugerează că Mythos Preview probabil nu a fost „un progres specific unui singur model”, ci mai degrabă un efect al îmbunătățirilor generale în autonomie pe termen lung, raționament și programare — adică exact tipul de evoluții care pot ridica simultan și utilitatea, și riscul în zona de „cyber”. De ce contează pentru companii și piața de securitate Dacă performanța „de vârf” în scenarii de securitate cibernetică nu mai este un diferențiator exclusiv al unui model foarte mediatizat, atunci: justificarea pentru prețuri premium și poziționare bazată pe „pericol” devine mai greu de susținut; presiunea se mută pe guvernanță (cine primește acces, în ce condiții) și pe control operațional, nu pe „unicitatea” tehnologică a unui singur produs; organizațiile care evaluează astfel de modele pentru apărare trebuie să trateze riscul ca fiind mai „generalizat” în generațiile noi de modele, nu ca o excepție. „Marketing bazat pe frică” și accesul limitat, în centrul discuției Într-un interviu recent acordat podcastului Core Memory , Sam Altman, CEO OpenAI, a criticat promovarea lansărilor limitate prin ceea ce el numește „marketing bazat pe frică”. El a comparat retorica din jurul unor modele cu un mesaj de tipul „am construit o bombă” urmat de vânzarea unui „adăpost anti-bombă” pentru 100 de milioane de dolari. „Va exista mult mai multă retorică despre modele prea periculoase pentru a fi lansate. Vor exista și modele foarte periculoase care vor trebui lansate în moduri diferite.” Interviul este disponibil aici: Core Memory . Cum își structurează OpenAI accesul la modelele „cyber” OpenAI a introdus în februarie un program-pilot numit „ Trusted Access for Cyber ”, prin care cercetători în securitate și companii își pot verifica identitatea și își pot înregistra interesul pentru a studia modele de frontieră în scopuri defensive: Trusted Access for Cyber și pagina de verificare: chatgpt.com/cyber . Luna trecută, compania a spus că folosește această listă pentru a controla lansarea limitată a GPT-5.4-Cyber, o variantă „ajustată intenționat” pentru capabilități suplimentare în zona cyber și cu mai puține restricții: OpenAI . Iar joi, Altman a afirmat pe rețele sociale că lansarea inițială a GPT-5.5-Cyber va fi, la rândul ei, limitată „în următoarele zile” la „apărători critici” din zona cyber: X . Ce urmează Pe termen scurt, miza se mută pe criteriile de acces și pe modul în care astfel de programe „cu identitate verificată” vor deveni un standard de piață pentru utilizarea defensivă. În același timp, dacă îmbunătățirile care cresc riscul sunt „mai generale”, cum sugerează AISI, presiunea pentru reguli și proceduri de lansare diferențiate (nu doar pentru un singur model „special”) ar putea crește. Limitarea importantă: fragmentul furnizat nu include detalii despre metodologie, seturi de teste sau scoruri, deci comparația rămâne la nivelul concluziei prezentate. [...]

Departamentul american al Apărării își extinde rapid accesul la instrumente de inteligență artificială pe rețele militare clasificate , după ce Amazon Web Services (AWS) , Microsoft și NVIDIA au semnat acorduri care permit Pentagonului utilizarea tehnologiilor lor „pentru utilizare operațională legală”, potrivit Engadget . Informația este relatată inițial de Bloomberg , care notează că, alături de cele trei companii, și Reflection AI a încheiat un acord similar. Pentagonul a transmis, într-o declarație citată de Bloomberg, că aceste acorduri „accelerează transformarea” către un model în care armata SUA devine o „forță de luptă AI-first” (orientată în primul rând către folosirea inteligenței artificiale). Ce se schimbă operațional: AI pe rețele clasificate Elementul cu impact direct este faptul că instrumentele de AI ale companiilor vor putea fi folosite pe rețele militare clasificate , ceea ce ridică miza față de utilizări comerciale sau administrative. Formularea „pentru utilizare operațională legală” indică un cadru de utilizare în interiorul regulilor și procedurilor militare, fără ca materialul citat să detalieze ce tipuri de aplicații vor fi implementate efectiv. Lista furnizorilor se lărgește; Anthropic rămâne în afara acordurilor Engadget arată că AWS, Microsoft și NVIDIA se alătură altor companii care au semnat acorduri similare cu Departamentul Apărării, între care xAI, OpenAI și Google. În acest context, Anthropic este prezentată drept singurul furnizor major de AI din SUA care nu are un acord funcțional cu Pentagonul. Materialul descrie și tensiunile dintre administrația Trump și Anthropic: în februarie, secretarul apărării Pete Hegseth ar fi amenințat că va eticheta compania drept „risc pentru lanțul de aprovizionare” dacă nu renunță la măsuri de protecție care împiedică folosirea chatbotului Claude pentru supraveghere în masă a americanilor sau în arme complet autonome. După refuzul companiei, președintele Trump a ordonat agențiilor federale să înceteze utilizarea produselor Anthropic în termen de șase luni, iar disputa a ajuns în instanță. Reacție publică: semnal de risc reputațional pentru furnizori Engadget notează că ritmul de adopție al AI în apărare și viteza cu care marile companii americane „se aliniază” pentru a vinde către administrația Trump ar trebui să fie un motiv de îngrijorare pentru cetățenii SUA. Ca indiciu al sensibilității publice, publicația citează date ale firmei de inteligență de piață Sensor Tower: OpenAI ar fi înregistrat o creștere cu 413% de la an la an a dezinstalărilor aplicației ChatGPT în februarie, după acordul companiei cu Departamentul Apărării. Ce urmează, pe baza informațiilor disponibile, este extinderea acestui tip de parteneriate în zona militară, cu o presiune tot mai mare pe furnizorii care nu acceptă condițiile Pentagonului și cu posibile costuri de imagine pentru cei care intră în astfel de acorduri. [...]