Știri
Știri din categoria Inteligență artificială

OpenAI aduce Codex în aplicația mobilă ChatGPT, extinzând folosirea asistenței de programare direct de pe telefon, o mutare care poate schimba practic modul în care dezvoltatorii și echipele tehnice lucrează „din mers”, fără a mai depinde de laptop, potrivit CNET.
Din informațiile disponibile în materialul CNET, noutatea este integrarea Codex în aplicația ChatGPT pentru mobil, ceea ce mută o parte din activitățile de scriere și înțelegere a codului (programare) într-un context de utilizare mai rapid și mai accesibil: telefonul.
Integrarea pe mobil indică o direcție de „portabilizare” a instrumentelor de lucru pentru programare: utilizatorii pot apela la funcții de tip asistent pentru cod direct din aplicație, în situații în care până acum era mai natural să lucreze de pe desktop sau laptop (de exemplu, verificări rapide, întrebări punctuale, clarificări pe fragmente de cod).
CNET nu oferă, în fragmentul de text disponibil aici, detalii despre condițiile de acces (de tip abonament), disponibilitatea pe platforme (iOS/Android) sau limitări funcționale, astfel că nu este clar în ce măsură funcționalitatea este identică cu cea de pe desktop sau dacă există diferențe.
În lipsa unor informații suplimentare în textul furnizat, rămâne de urmărit cum va poziționa OpenAI această integrare în oferta ChatGPT (inclusiv eventuale restricții, costuri sau disponibilitate regională) și dacă mutarea către mobil va fi însoțită de schimbări de produs care să susțină utilizarea în fluxuri de lucru reale, nu doar în scenarii ocazionale.
Recomandate

O posibilă ruptură între OpenAI și Apple ar putea schimba concret experiența de inteligență artificială pe iPhone , inclusiv prin limitarea sau chiar eliminarea accesului la ChatGPT din iOS, potrivit TechRadar , care citează un material Bloomberg despre tensiunile din parteneriatul legat de Apple Intelligence și Siri. Conform Bloomberg, OpenAI ar fi tot mai frustrată de modul în care integrarea ChatGPT a fost implementată în ecosistemul Apple și ar lua în calcul opțiuni legale, inclusiv o notificare de încălcare a contractului (fără a depune neapărat imediat un proces). În paralel, Apple ar avea propriile nemulțumiri, inclusiv legate de confidențialitatea utilizatorilor și de planurile OpenAI de a intra pe zona de hardware. Ce ar putea însemna pentru utilizatorii de iPhone Miza operațională este că, dacă disputa se adâncește și nu se ajunge la o înțelegere, Apple ar putea să-și schimbe prioritățile privind furnizorii de „chatbot” (asistenți conversaționali) integrați în iOS. Scenariile menționate includ: Apple ar putea începe să favorizeze alte modele, precum Gemini (Google) sau Claude (Anthropic), în detrimentul ChatGPT; în cazul unui eșec al colaborării, Apple ar putea elimina complet instrumentul OpenAI de pe iPhone, ceea ce ar duce la o experiență de inteligență artificială diferită pe iOS. În prezent, una dintre nemulțumirile OpenAI ar fi că ChatGPT este disponibil doar în câteva zone din iOS și, adesea, trebuie invocat explicit prin cuvântul „ChatGPT”, ceea ce îl face mai puțin vizibil pentru utilizatori și, implicit, mai puțin eficient ca motor de conversie către abonamente, potrivit Bloomberg. De unde vine conflictul: integrare, distribuție și așteptări Bloomberg notează că OpenAI ar fi mizat pe două beneficii principale din parteneriat: atragerea de abonați prin expunerea în ecosistemul Apple și o integrare mai profundă, inclusiv „plasare” mai bună în Siri și în mai multe aplicații Apple. Aceste așteptări nu s-ar fi materializat în forma anticipată. Pe de altă parte, Apple ar fi îngrijorată de angajamentul OpenAI față de confidențialitatea utilizatorilor (un element central în poziționarea Apple) și ar fi iritată de intențiile OpenAI de a dezvolta hardware, mai ales în contextul implicării fostului șef de design Apple, Jony Ive, și al recrutărilor din Apple. Bloomberg citează un executiv OpenAI (nemenționat) care susține că OpenAI și-a făcut partea „din perspectiva produsului” și acuză Apple că „nici măcar nu a făcut un efort cinstit”. Ce nu se știe încă și la ce să ne așteptăm Un detaliu important care lipsește, potrivit materialului, este baza juridică exactă: nu este clar ce clauze ar fi fost încălcate și nici dacă Apple ar fi încălcat efectiv contractul. De asemenea, Bloomberg precizează că planurile Apple de a deschide iOS către mai mulți furnizori de chatboți nu ar fi, în sine, cauza conflictului, întrucât parteneriatul cu OpenAI „nu ar fi fost gândit ca exclusiv” de la început. Pe termen scurt, implicația practică pentru utilizatori este incertitudinea: dacă tensiunile se traduc în schimbări de produs, acestea ar putea apărea ca modificări de integrare în Siri/Apple Intelligence sau ca o reorientare către alți furnizori de asistenți conversaționali. În acest moment, rămâne neclar dacă disputa va escalada într-un proces sau va fi gestionată printr-o renegociere. [...]

Microsoft își pregătește opțiuni de rezervă la OpenAI prin posibile achiziții de startup-uri AI , într-o mișcare care ar putea redesena atât strategia sa de produse, cât și poziționarea în fața regulatorilor, potrivit Reuters . Compania caută startup-uri de inteligență artificială pe care să le cumpere pentru a-și consolida accesul la talente și pentru a-și atinge obiectivul declarat de a construi un model AI de vârf până anul viitor, au spus pentru Reuters cinci persoane familiarizate cu discuțiile. Demersul vine pe fondul unei relații cu OpenAI care, deși a propulsat Microsoft în prim-planul AI și a alimentat creșterea Azure, a generat în timp tensiuni contractuale și constrângeri strategice. Reglementarea, un filtru care poate bloca tranzacțiile Un exemplu concret al riscului de reglementare: în această primăvară, Microsoft a analizat achiziția startup-ului Cursor (generare de cod), dar a renunțat din cauza unor îngrijorări interne că tranzacția nu ar trece de controlul autorităților, având în vedere deținerea GitHub Copilot , potrivit a patru surse citate de Reuters. Această prudență sugerează că, dincolo de competiția pentru tehnologie și oameni, Microsoft trebuie să-și calibreze expansiunea astfel încât să nu amplifice percepția de concentrare a puterii pe piața instrumentelor de programare asistate de AI. Ținta Inception și competiția pentru talente Microsoft poartă discuții cu Inception, un startup mic construit de o echipă de la Stanford, care lucrează la o metodă diferită de dezvoltare a modelelor lingvistice mari. Inception a fost fondată la mijlocul lui 2024, iar fondul de investiții de venture capital al Microsoft, M12, a participat la runda seed de 50 milioane de dolari (aprox. 230 milioane lei) la finalul lui 2025, potrivit sursei. Discuțiile sunt în desfășurare și nu este sigur că vor duce la o tranzacție. Inception a refuzat să comenteze. Piața este descrisă ca „încinsă”: cercetătorii AI pot obține „zeci de milioane de dolari sau mai mult” ca pachete de compensații, iar evaluările startup-urilor cresc pe fondul interesului investitorilor. Microsoft se confruntă și cu competiție pentru astfel de acorduri din partea altor giganți tehnologici, în special SpaceX, potrivit a două persoane familiarizate cu subiectul. SpaceX ar fi curtat și Inception, iar startup-ul ar fi angajat recent o bancă pentru a negocia o tranzacție, vizând un preț de peste 1 miliard de dolari (aprox. 4,6 miliarde lei), conform unei surse. De ce contează: independența față de OpenAI, cu costuri și constrângeri Microsoft și OpenAI sunt parteneri din 2019, când Microsoft a investit 1 miliard de dolari (aprox. 4,6 miliarde lei). Într-un document depus la autorități pe 29 aprilie, Microsoft a spus că a oferit 11,8 miliarde de dolari din totalul de 13 miliarde de dolari promise către OpenAI. În paralel, Michael Wetter, responsabil de dezvoltare corporativă la Microsoft, a declarat în instanță că firma a cheltuit peste 100 miliarde de dolari pe investițiile în OpenAI și pe costurile de infrastructură și găzduire, potrivit Reuters. În timp, contractul inițial – care oferea Microsoft acces exclusiv la tehnologia OpenAI și garanta OpenAI resurse de calcul – a fost ajustat de mai multe ori, pe fondul fricțiunilor dintre părți. Reuters notează că OpenAI a ajuns să aibă nevoi care depășeau ce putea furniza Microsoft, iar Microsoft era, contractual, limitată în a construi un „model fundamental” care să concureze direct oferta OpenAI. Un amendament din 2025 ar fi permis Microsoft să construiască „inteligență artificială generală” (o formă avansată, încă teoretică, de AI). Iar la finalul lui aprilie, cele două companii au încheiat un acord care oferă OpenAI libertatea de a construi unele produse și cu rivalii Microsoft, precum Amazon, potrivit sursei. Ce ar aduce tehnologia Inception și care sunt limitele Modelele Inception ar genera text folosind o tehnică numită „difuzie”, folosită mai des la generarea de imagini și video. Spre deosebire de modelele standard, care produc câte un „token” (unitate de text) pe rând, difuzia generează și rafinează simultan mai mulți tokeni, ceea ce poate crește semnificativ viteza. Totuși, cercetători AI citați de Reuters avertizează că difuzia poate fi imprevizibilă și nu este limpede dacă poate fi folosită pentru modele „uriașe”. În același timp, laboratoarele de vârf ar construi deja modele de circa 10 trilioane de parametri (un indicator al complexității), față de aproximativ 1 trilion în urmă cu trei ani, potrivit cercetătorilor menționați. Ce urmează Dacă Microsoft va continua pe linia achizițiilor, miza nu este doar să „cumpere” tehnologie, ci să-și securizeze rapid oameni și capabilități într-o piață în care prețurile și competiția cresc, iar reglementarea poate bloca tranzacții sensibile. În acest context, orice acord potențial – inclusiv cu Inception – rămâne condiționat atât de negocieri, cât și de riscul de control antitrust. [...]

Noua suită Gemini Intelligence va rula, cel puțin la început, doar pe o mână de telefoane Android „premium” , ceea ce ridică pragul hardware și de suport software pentru producători și poate fragmenta accesul la funcțiile avansate de inteligență artificială pe Android, potrivit GSMArena . Gemini Intelligence nu este prezentată doar ca o redenumire, ci ca un pachet de funcții capabile să automatizeze sarcini în mai mulți pași și să le execute în fundal, inclusiv prin interacțiuni autonome cu aplicații și site-uri. Materialul menționează și un component numit „Rambler”, care ar urma să ajungă în Gboard și să permită o conversație mai liberă, inclusiv cu „cuvinte de umplutură” și amestec de limbi în aceeași propoziție. Debut pe câteva modele de vârf, cu un calendar limitat Din informațiile disponibile în acest moment, funcțiile ar urma să debuteze pe viitoarele Samsung Galaxy Z Fold8 și Z Flip8, iar Google a confirmat că seria Galaxy S26 și seria Pixel 10 vor primi Gemini Intelligence „în această vară”, notează publicația. Cerințe tehnice și de suport care restrâng drastic lista de dispozitive O notă de subsol de pe site-ul oficial Android descrie Gemini Intelligence ca pe o funcție „premium” și exclusivistă, cel puțin pentru moment. Printre cerințele enumerate se află: minimum 12 GB RAM ; suport pentru AICore , un serviciu de sistem Android care expune o interfață (API) pentru sarcini de inteligență artificială peste un model Gemini Nano rulat pe dispozitiv; necesitatea Gemini Nano v3 sau mai nou , suportat în prezent doar de „o mână” de telefoane. Pe lângă acestea, apar și condiții suplimentare, inclusiv cerințe legate de platforma hardware („SoC eligibil”, adică un cip de top), teste de calitate și stabilitate (inclusiv rate mici de blocări), dar și obligații de mentenanță pe termen lung: 5 upgrade-uri de sistem de operare și șase ani de actualizări de securitate trimestriale . Sunt menționate și suportul pentru Android Virtualization Framework (AVF) și pKVM (o mașină virtuală protejată la nivel de kernel), plus o cerință vag formulată privind „performanța media” și zona de gaming. De ce contează: AI „pe dispozitiv” devine un diferențiator de gamă înaltă Setul de condiții sugerează că Google împinge Gemini Intelligence spre segmentul de vârf, atât prin resursele necesare pentru rulare locală (pe telefon), cât și prin cerințe de suport software pe termen lung. Consecința practică este că funcțiile pot ajunge mai greu pe modele mai accesibile, chiar și în cadrul aceleiași familii de produse. În acest context, GSMArena remarcă faptul că un leak de specificații pentru familia Pixel 11 ar indica posibilitatea ca modelele non-Pro să vină cu doar 8 GB RAM, ceea ce ar pune sub semnul întrebării compatibilitatea lor cu Gemini Intelligence. Publicația subliniază că, deocamdată, nu există un răspuns ferm. [...]

Sony încearcă să limiteze așteptările legate de „ AI Camera Assistant ” pe Xperia 1 XIII , după ce exemplele publicate au atras critici pentru calitatea slabă a rezultatelor , potrivit The Verge . Miza practică pentru utilizatori este că funcția nu „repară” automat fotografiile, ci doar propune setări alternative — iar, cel puțin în demonstrațiile de până acum, recomandările pot înrăutăți imaginea. Sony susține că AI Camera Assistant nu editează fotografiile după ce sunt făcute, ci oferă sugestii pe baza condițiilor din scenă (iluminare, profunzime și subiect). Utilizatorul îndreaptă camera spre un obiect, iar telefonul afișează patru opțiuni de ajustare pentru expunere, culoare și estomparea fundalului (blur), din care poate alege una sau poate ignora complet recomandările. Într-un videoclip de produs, compania afirmă că funcția ar sugera și „cel mai fotogenic unghi”. În materialul menționat, însă, exemplul arată mai degrabă o recomandare de a mări (zoom), ceea ce nu este același lucru cu indicarea unui unghi de fotografiere. Exemplele publicate rămân problematice După ce Sony a atras „atenție nedorită” cu o postare inițială despre funcție, compania a revenit cu noi exemple pe X, descrise ca fiind mai bune decât cele din 14 mai. Chiar și așa, evaluarea din articol este că rezultatele rămân slabe: deși nu mai sunt la fel de „spălăcite” sau supraexpuse ca primele imagini, fiecare variantă sugerată are probleme vizibile și arată mai rău decât fotografia originală. Publicația descrie, pe scurt, tipul de defecte din grila de sugestii: o variantă „prea saturată”; una „plată” și „supra-procesată”; una care face mâncarea să pară „lipită” în cadru, ca într-o editare; una cu un contrast împins prea mult. Ce înseamnă pentru utilizatori Concluzia operațională, în acest moment, este prudentă: dacă folosești un Xperia 1 XIII, „cea mai bună opțiune” ar fi să ignori, deocamdată, sugestiile AI Camera Assistant, până când Sony îmbunătățește calitatea recomandărilor sau oferă demonstrații mai convingătoare. [...]

YouTube extinde la toți adulții un instrument care poate declanșa eliminarea deepfake-urilor cu fața ta , o schimbare operațională care mută protecția „anti-impersonare” din zona creatorilor și a persoanelor publice către utilizatorul obișnuit, potrivit The Verge . Funcția, numită „likeness detection” (detecția asemănării), folosește o scanare de tip selfie a feței pentru a căuta pe YouTube videoclipuri cu potriviri faciale. Dacă sistemul găsește o potrivire, utilizatorul este alertat și poate cere platformei să elimine conținutul. Ce se schimbă: acces pentru oricine are 18+ și cont YouTube YouTube a testat inițial instrumentul cu creatori de conținut, apoi l-a extins către oficiali guvernamentali, politicieni, jurnaliști și, ulterior, către industria de divertisment. Extinderea la „orice utilizator de 18 ani sau mai mult” este, conform publicației, un pas major: practic, oricine poate solicita monitorizarea continuă a platformei pentru posibile deepfake-uri care îi folosesc chipul. Un purtător de cuvânt al YouTube, Jack Malon , a precizat că nu există cerințe privind ce înseamnă „creator” pentru eligibilitate și a argumentat că protecția ar trebui să fie aceeași indiferent de vechimea pe platformă. „Prin această extindere, clarificăm că, indiferent dacă creatorii încarcă pe YouTube de un deceniu sau abia încep, vor avea acces la același nivel de protecție”, a transmis Malon într-un e-mail. Cum sunt evaluate cererile de eliminare și care sunt limitele Cererile de eliminare sunt analizate în baza politicii de confidențialitate a YouTube . Compania spune că ia în calcul criterii precum: dacă materialul este realist; dacă este etichetat ca fiind generat cu ajutorul inteligenței artificiale; dacă persoana poate fi identificată în mod unic. Există excepții pentru parodie sau satiră. În plus, instrumentul acoperă doar asemănarea facială, nu și alte elemente de identificare, precum vocea. Utilizatorii se pot retrage din program, iar YouTube afirmă că poate șterge datele asociate. Platforma a mai spus anterior că numărul cererilor de eliminare identificate prin acest program a fost „foarte mic”, fără a oferi cifre în materialul citat. De ce contează pentru utilizatorul obișnuit Deși deepfake-urile vizează frecvent celebrități și politicieni, riscul se extinde și la persoane private. The Verge amintește cazuri în care adolescenți au fost „deepfăcuți” de colegi și menționează un proces intentat de trei adolescenți împotriva xAI, care susțin că chatbotul Grok ar fi generat materiale de abuz sexual asupra copiilor (CSAM) cu ei. Pentru YouTube, extinderea instrumentului înseamnă și o creștere potențială a volumului de sesizări și a complexității moderării, într-un context în care platformele sunt presate să gestioneze mai strict conținutul generat de inteligența artificială. [...]

Salesforce estimează că va cheltui 300 de milioane de dolari (aprox. 1,38 miliarde lei) pe tokenuri Anthropic în 2026, iar miza nu este doar factura, ci optimizarea ei printr-un „strat” care să trimită cererile către modele mai ieftine atunci când nu e nevoie de un model de vârf , potrivit The Next Web . Marc Benioff spune că aproape toată această cheltuială ar merge către programare, în contextul în care compania folosește tot mai mult agenți de inteligență artificială pentru dezvoltare software. În termeni practici, „tokenurile” sunt unități de text procesate de modelele mari de limbaj, iar clienții plătesc în funcție de volum. O factură anuală de 300 de milioane de dolari din partea unui singur client ar poziționa Salesforce între cei mai mari clienți comerciali ai Anthropic, deși niciuna dintre companii nu a confirmat oficial cifra în raportări publice. De ce contează: tokenurile devin cost operațional, nu buget de experiment Benioff a susținut, într-o apariție la podcastul All-In, că agenții AI au adus câștiguri de eficiență la Salesforce în servicii, suport, distribuție și marketing. Ca exemplu, el a amintit că, în august anul trecut, productivitatea bazată pe agenți ar fi permis reducerea personalului de suport de la 9.000 la 5.000 de oameni. Acum, aceeași logică este împinsă către inginerie: iterații mai rapide de produs, costuri mai mici de dezvoltare și un ritm de livrare pe care compania îl descrie ca fiind anterior imposibil. „Stratul intermediar”: direcționarea cererilor între modele scumpe și modele ieftine Partea cu potențial impact financiar direct, dincolo de suma totală, este „caveatul” lui Benioff: nu fiecare cerere generată de angajați ar trebui să ajungă la un model de frontieră precum Claude. El a vorbit despre un „strat intermediar” care să direcționeze inteligent solicitările: sarcinile complexe de raționament către Claude; sarcinile simple către modele mai mici și mai ieftine. Publicația notează că ideea nu este nouă, însă devine relevantă prin faptul că este susținută de CEO-ul celui mai mare furnizor de aplicații enterprise. În același context, este menționat că Claude Opus 4.7 (lansat luna aceasta) are un preț de 5 dolari per milion de tokenuri de intrare și 25 de dolari per milion de tokenuri de ieșire, în timp ce modele mai mici (inclusiv din linia Haiku sau alternative „open-weight”, adică modele cu ponderi publice, precum Llama și DeepSeek) costă semnificativ mai puțin. La un nivel de cheltuială de 300 de milioane de dolari, chiar și optimizări moderate ar putea însemna economii de ordinul zecilor de milioane de dolari, mai scrie The Next Web . Slack, următoarea piesă: programare „în interiorul” platformei Benioff a mai spus că Salesforce lucrează la tehnologie care să facă programarea mai ușoară în Slack, platforma de comunicare la locul de muncă achiziționată de Salesforce pentru 27,7 miliarde de dolari în 2021. Declarația a fost prudentă, fără detalii de produs: „O să vedeți niște lucruri interesante cu Slack și cod, despre care nu sunt pregătit să vorbesc încă.” În martie, Salesforce a revizuit Slack și a prezentat peste 30 de capabilități noi de inteligență artificială pentru Slackbot, transformându-l din asistent conversațional într-un sistem „agentic” (capabil să execute sarcini), inclusiv transcriere de ședințe, monitorizarea activității pe desktop și rularea de acțiuni prin instrumente terțe via Model Context Protocol. Potrivit articolului, toate aceste capabilități rulează pe Claude (Anthropic). Context financiar: Slack și Agentforce, în creștere The Next Web mai notează câteva repere de business care explică de ce Salesforce împinge AI în zona operațională: veniturile Slack sunt așteptate să ajungă la 3 miliarde de dolari în acest an; Agentforce (linia de produse de agenți AI a Salesforce) a ajuns la 800 de milioane de dolari venituri recurente anuale (ARR), în creștere cu 169% de la an la an, cu 29.000 de tranzacții închise; din această vară, fiecare client nou Salesforce ar urma să primească Slack „provisionat” automat și cu AI activat din prima zi. Separat de consumul de tokenuri, Salesforce a investit și peste 300 de milioane de dolari în Anthropic începând cu runda Series C din 2023, obținând circa 1% din companie, evaluată în prezent la 380 de miliarde de dolari, conform articolului. Publicația mai menționează afirmația lui Benioff potrivit căreia Microsoft ar fi blocat o investiție Salesforce în OpenAI, ceea ce ar fi redirecționat compania către Anthropic. Pentru Salesforce, pariul pe 300 de milioane de dolari în tokenuri se mută astfel din zona „testelor” în zona de cost structural: întrebarea devine dacă productivitatea din inginerie va justifica, în timp, o cheltuială care începe să semene cu o nouă categorie de utilitate operațională. [...]