Știri
Știri din categoria Inteligență artificială

Sony încearcă să limiteze așteptările legate de „AI Camera Assistant” pe Xperia 1 XIII, după ce exemplele publicate au atras critici pentru calitatea slabă a rezultatelor, potrivit The Verge. Miza practică pentru utilizatori este că funcția nu „repară” automat fotografiile, ci doar propune setări alternative — iar, cel puțin în demonstrațiile de până acum, recomandările pot înrăutăți imaginea.
Sony susține că AI Camera Assistant nu editează fotografiile după ce sunt făcute, ci oferă sugestii pe baza condițiilor din scenă (iluminare, profunzime și subiect). Utilizatorul îndreaptă camera spre un obiect, iar telefonul afișează patru opțiuni de ajustare pentru expunere, culoare și estomparea fundalului (blur), din care poate alege una sau poate ignora complet recomandările.
Într-un videoclip de produs, compania afirmă că funcția ar sugera și „cel mai fotogenic unghi”. În materialul menționat, însă, exemplul arată mai degrabă o recomandare de a mări (zoom), ceea ce nu este același lucru cu indicarea unui unghi de fotografiere.
După ce Sony a atras „atenție nedorită” cu o postare inițială despre funcție, compania a revenit cu noi exemple pe X, descrise ca fiind mai bune decât cele din 14 mai. Chiar și așa, evaluarea din articol este că rezultatele rămân slabe: deși nu mai sunt la fel de „spălăcite” sau supraexpuse ca primele imagini, fiecare variantă sugerată are probleme vizibile și arată mai rău decât fotografia originală.
Publicația descrie, pe scurt, tipul de defecte din grila de sugestii:
Concluzia operațională, în acest moment, este prudentă: dacă folosești un Xperia 1 XIII, „cea mai bună opțiune” ar fi să ignori, deocamdată, sugestiile AI Camera Assistant, până când Sony îmbunătățește calitatea recomandărilor sau oferă demonstrații mai convingătoare.
Recomandate

Google își înăsprește regulile anti-spam pentru a sancționa manipularea răspunsurilor generate de AI în Search , o schimbare cu impact direct asupra site-urilor și brandurilor care încearcă să „optimizeze” apariția în AI Overview sau AI Mode, potrivit The Verge . Actualizarea introduce explicit în politica de spam ideea că încercările de a „manipula” modelul de inteligență artificială folosit în rezultatele de căutare intră în aceeași categorie cu tehnicile clasice de înșelare a utilizatorilor sau de forțare a sistemelor de căutare să promoveze conținut. „În contextul Google Search, spam se referă la tehnici folosite pentru a înșela utilizatorii sau a manipula sistemele noastre de Search pentru a afișa conținut proeminent, cum ar fi încercarea de a manipula sistemele de Search pentru a clasa conținutul sus sau încercarea de a manipula răspunsurile de inteligență artificială generativă în Google Search.” Ce se schimbă operațional pentru site-uri și publisheri Miza este că Google tratează acum ca încălcare de tip spam strategiile care urmăresc să influențeze răspunsurile AI din căutare, nu doar poziționarea „clasică” în listările de rezultate. Concret, publicația notează că unii utilizatori au încercat să influențeze răspunsurile AI prin tactici precum: listări „best-of” părtinitoare (listicle-uri construite pentru a împinge anumite recomandări); „otrăvirea recomandărilor” („recommendation poisoning”), adică introducerea de instrucțiuni pentru modele de tip LLM (modele lingvistice mari) ca să „țină minte” un site drept sursă autoritară. În exemplul citat, un jurnalist BBC a folosit astfel de trucuri pentru a apărea în rezultatele AI ale Google drept „cel mai bun jurnalist tech mâncător de hot-dog”. Ce riscă cei care încearcă să „optimizeze” pentru AI Potrivit materialului, Google spune că site-urile prinse încercând să manipuleze răspunsurile AI pot primi penalizări, inclusiv: coborârea în clasamentele din rezultatele de căutare; eliminarea completă din rezultatele Google. În paralel, The Verge menționează apariția unei industrii de „GEO” („generative engine optimization” – optimizare pentru motoare generative), care promite brandurilor că vor fi menționate și citate mai des de instrumente de căutare bazate pe AI. Actualizarea politicii ridică însă riscul ca astfel de tactici să fie încadrate direct la spam, cu consecințe comerciale și de trafic pentru site-urile vizate. [...]

Noua suită Gemini Intelligence va rula, cel puțin la început, doar pe o mână de telefoane Android „premium” , ceea ce ridică pragul hardware și de suport software pentru producători și poate fragmenta accesul la funcțiile avansate de inteligență artificială pe Android, potrivit GSMArena . Gemini Intelligence nu este prezentată doar ca o redenumire, ci ca un pachet de funcții capabile să automatizeze sarcini în mai mulți pași și să le execute în fundal, inclusiv prin interacțiuni autonome cu aplicații și site-uri. Materialul menționează și un component numit „Rambler”, care ar urma să ajungă în Gboard și să permită o conversație mai liberă, inclusiv cu „cuvinte de umplutură” și amestec de limbi în aceeași propoziție. Debut pe câteva modele de vârf, cu un calendar limitat Din informațiile disponibile în acest moment, funcțiile ar urma să debuteze pe viitoarele Samsung Galaxy Z Fold8 și Z Flip8, iar Google a confirmat că seria Galaxy S26 și seria Pixel 10 vor primi Gemini Intelligence „în această vară”, notează publicația. Cerințe tehnice și de suport care restrâng drastic lista de dispozitive O notă de subsol de pe site-ul oficial Android descrie Gemini Intelligence ca pe o funcție „premium” și exclusivistă, cel puțin pentru moment. Printre cerințele enumerate se află: minimum 12 GB RAM ; suport pentru AICore , un serviciu de sistem Android care expune o interfață (API) pentru sarcini de inteligență artificială peste un model Gemini Nano rulat pe dispozitiv; necesitatea Gemini Nano v3 sau mai nou , suportat în prezent doar de „o mână” de telefoane. Pe lângă acestea, apar și condiții suplimentare, inclusiv cerințe legate de platforma hardware („SoC eligibil”, adică un cip de top), teste de calitate și stabilitate (inclusiv rate mici de blocări), dar și obligații de mentenanță pe termen lung: 5 upgrade-uri de sistem de operare și șase ani de actualizări de securitate trimestriale . Sunt menționate și suportul pentru Android Virtualization Framework (AVF) și pKVM (o mașină virtuală protejată la nivel de kernel), plus o cerință vag formulată privind „performanța media” și zona de gaming. De ce contează: AI „pe dispozitiv” devine un diferențiator de gamă înaltă Setul de condiții sugerează că Google împinge Gemini Intelligence spre segmentul de vârf, atât prin resursele necesare pentru rulare locală (pe telefon), cât și prin cerințe de suport software pe termen lung. Consecința practică este că funcțiile pot ajunge mai greu pe modele mai accesibile, chiar și în cadrul aceleiași familii de produse. În acest context, GSMArena remarcă faptul că un leak de specificații pentru familia Pixel 11 ar indica posibilitatea ca modelele non-Pro să vină cu doar 8 GB RAM, ceea ce ar pune sub semnul întrebării compatibilitatea lor cu Gemini Intelligence. Publicația subliniază că, deocamdată, nu există un răspuns ferm. [...]

YouTube extinde la toți adulții un instrument care poate declanșa eliminarea deepfake-urilor cu fața ta , o schimbare operațională care mută protecția „anti-impersonare” din zona creatorilor și a persoanelor publice către utilizatorul obișnuit, potrivit The Verge . Funcția, numită „likeness detection” (detecția asemănării), folosește o scanare de tip selfie a feței pentru a căuta pe YouTube videoclipuri cu potriviri faciale. Dacă sistemul găsește o potrivire, utilizatorul este alertat și poate cere platformei să elimine conținutul. Ce se schimbă: acces pentru oricine are 18+ și cont YouTube YouTube a testat inițial instrumentul cu creatori de conținut, apoi l-a extins către oficiali guvernamentali, politicieni, jurnaliști și, ulterior, către industria de divertisment. Extinderea la „orice utilizator de 18 ani sau mai mult” este, conform publicației, un pas major: practic, oricine poate solicita monitorizarea continuă a platformei pentru posibile deepfake-uri care îi folosesc chipul. Un purtător de cuvânt al YouTube, Jack Malon , a precizat că nu există cerințe privind ce înseamnă „creator” pentru eligibilitate și a argumentat că protecția ar trebui să fie aceeași indiferent de vechimea pe platformă. „Prin această extindere, clarificăm că, indiferent dacă creatorii încarcă pe YouTube de un deceniu sau abia încep, vor avea acces la același nivel de protecție”, a transmis Malon într-un e-mail. Cum sunt evaluate cererile de eliminare și care sunt limitele Cererile de eliminare sunt analizate în baza politicii de confidențialitate a YouTube . Compania spune că ia în calcul criterii precum: dacă materialul este realist; dacă este etichetat ca fiind generat cu ajutorul inteligenței artificiale; dacă persoana poate fi identificată în mod unic. Există excepții pentru parodie sau satiră. În plus, instrumentul acoperă doar asemănarea facială, nu și alte elemente de identificare, precum vocea. Utilizatorii se pot retrage din program, iar YouTube afirmă că poate șterge datele asociate. Platforma a mai spus anterior că numărul cererilor de eliminare identificate prin acest program a fost „foarte mic”, fără a oferi cifre în materialul citat. De ce contează pentru utilizatorul obișnuit Deși deepfake-urile vizează frecvent celebrități și politicieni, riscul se extinde și la persoane private. The Verge amintește cazuri în care adolescenți au fost „deepfăcuți” de colegi și menționează un proces intentat de trei adolescenți împotriva xAI, care susțin că chatbotul Grok ar fi generat materiale de abuz sexual asupra copiilor (CSAM) cu ei. Pentru YouTube, extinderea instrumentului înseamnă și o creștere potențială a volumului de sesizări și a complexității moderării, într-un context în care platformele sunt presate să gestioneze mai strict conținutul generat de inteligența artificială. [...]

OpenAI aduce Codex în aplicația mobilă ChatGPT, extinzând folosirea asistenței de programare direct de pe telefon , o mutare care poate schimba practic modul în care dezvoltatorii și echipele tehnice lucrează „din mers”, fără a mai depinde de laptop, potrivit CNET . Din informațiile disponibile în materialul CNET, noutatea este integrarea Codex în aplicația ChatGPT pentru mobil, ceea ce mută o parte din activitățile de scriere și înțelegere a codului (programare) într-un context de utilizare mai rapid și mai accesibil: telefonul. De ce contează operațional Integrarea pe mobil indică o direcție de „portabilizare” a instrumentelor de lucru pentru programare: utilizatorii pot apela la funcții de tip asistent pentru cod direct din aplicație, în situații în care până acum era mai natural să lucreze de pe desktop sau laptop (de exemplu, verificări rapide, întrebări punctuale, clarificări pe fragmente de cod). CNET nu oferă, în fragmentul de text disponibil aici, detalii despre condițiile de acces (de tip abonament), disponibilitatea pe platforme (iOS/Android) sau limitări funcționale, astfel că nu este clar în ce măsură funcționalitatea este identică cu cea de pe desktop sau dacă există diferențe. Ce urmează În lipsa unor informații suplimentare în textul furnizat, rămâne de urmărit cum va poziționa OpenAI această integrare în oferta ChatGPT (inclusiv eventuale restricții, costuri sau disponibilitate regională) și dacă mutarea către mobil va fi însoțită de schimbări de produs care să susțină utilizarea în fluxuri de lucru reale, nu doar în scenarii ocazionale. [...]

Salesforce estimează că va cheltui 300 de milioane de dolari (aprox. 1,38 miliarde lei) pe tokenuri Anthropic în 2026, iar miza nu este doar factura, ci optimizarea ei printr-un „strat” care să trimită cererile către modele mai ieftine atunci când nu e nevoie de un model de vârf , potrivit The Next Web . Marc Benioff spune că aproape toată această cheltuială ar merge către programare, în contextul în care compania folosește tot mai mult agenți de inteligență artificială pentru dezvoltare software. În termeni practici, „tokenurile” sunt unități de text procesate de modelele mari de limbaj, iar clienții plătesc în funcție de volum. O factură anuală de 300 de milioane de dolari din partea unui singur client ar poziționa Salesforce între cei mai mari clienți comerciali ai Anthropic, deși niciuna dintre companii nu a confirmat oficial cifra în raportări publice. De ce contează: tokenurile devin cost operațional, nu buget de experiment Benioff a susținut, într-o apariție la podcastul All-In, că agenții AI au adus câștiguri de eficiență la Salesforce în servicii, suport, distribuție și marketing. Ca exemplu, el a amintit că, în august anul trecut, productivitatea bazată pe agenți ar fi permis reducerea personalului de suport de la 9.000 la 5.000 de oameni. Acum, aceeași logică este împinsă către inginerie: iterații mai rapide de produs, costuri mai mici de dezvoltare și un ritm de livrare pe care compania îl descrie ca fiind anterior imposibil. „Stratul intermediar”: direcționarea cererilor între modele scumpe și modele ieftine Partea cu potențial impact financiar direct, dincolo de suma totală, este „caveatul” lui Benioff: nu fiecare cerere generată de angajați ar trebui să ajungă la un model de frontieră precum Claude. El a vorbit despre un „strat intermediar” care să direcționeze inteligent solicitările: sarcinile complexe de raționament către Claude; sarcinile simple către modele mai mici și mai ieftine. Publicația notează că ideea nu este nouă, însă devine relevantă prin faptul că este susținută de CEO-ul celui mai mare furnizor de aplicații enterprise. În același context, este menționat că Claude Opus 4.7 (lansat luna aceasta) are un preț de 5 dolari per milion de tokenuri de intrare și 25 de dolari per milion de tokenuri de ieșire, în timp ce modele mai mici (inclusiv din linia Haiku sau alternative „open-weight”, adică modele cu ponderi publice, precum Llama și DeepSeek) costă semnificativ mai puțin. La un nivel de cheltuială de 300 de milioane de dolari, chiar și optimizări moderate ar putea însemna economii de ordinul zecilor de milioane de dolari, mai scrie The Next Web . Slack, următoarea piesă: programare „în interiorul” platformei Benioff a mai spus că Salesforce lucrează la tehnologie care să facă programarea mai ușoară în Slack, platforma de comunicare la locul de muncă achiziționată de Salesforce pentru 27,7 miliarde de dolari în 2021. Declarația a fost prudentă, fără detalii de produs: „O să vedeți niște lucruri interesante cu Slack și cod, despre care nu sunt pregătit să vorbesc încă.” În martie, Salesforce a revizuit Slack și a prezentat peste 30 de capabilități noi de inteligență artificială pentru Slackbot, transformându-l din asistent conversațional într-un sistem „agentic” (capabil să execute sarcini), inclusiv transcriere de ședințe, monitorizarea activității pe desktop și rularea de acțiuni prin instrumente terțe via Model Context Protocol. Potrivit articolului, toate aceste capabilități rulează pe Claude (Anthropic). Context financiar: Slack și Agentforce, în creștere The Next Web mai notează câteva repere de business care explică de ce Salesforce împinge AI în zona operațională: veniturile Slack sunt așteptate să ajungă la 3 miliarde de dolari în acest an; Agentforce (linia de produse de agenți AI a Salesforce) a ajuns la 800 de milioane de dolari venituri recurente anuale (ARR), în creștere cu 169% de la an la an, cu 29.000 de tranzacții închise; din această vară, fiecare client nou Salesforce ar urma să primească Slack „provisionat” automat și cu AI activat din prima zi. Separat de consumul de tokenuri, Salesforce a investit și peste 300 de milioane de dolari în Anthropic începând cu runda Series C din 2023, obținând circa 1% din companie, evaluată în prezent la 380 de miliarde de dolari, conform articolului. Publicația mai menționează afirmația lui Benioff potrivit căreia Microsoft ar fi blocat o investiție Salesforce în OpenAI, ceea ce ar fi redirecționat compania către Anthropic. Pentru Salesforce, pariul pe 300 de milioane de dolari în tokenuri se mută astfel din zona „testelor” în zona de cost structural: întrebarea devine dacă productivitatea din inginerie va justifica, în timp, o cheltuială care începe să semene cu o nouă categorie de utilitate operațională. [...]
Cerințele hardware ridicate ale Gemini Intelligence vor limita funcțiile AI avansate la un număr mic de telefoane Android , potrivit Android Authority , ceea ce înseamnă că inclusiv modele recente din zona premium ar putea rămâne pe dinafară. Google a anunțat că va începe implementarea Gemini Intelligence pe dispozitive Android „în această vară”. Conceptul este descris ca un „termen-umbrelă” pentru cele mai avansate funcții de inteligență artificială ale companiei, cu exemple precum funcția „Rambler” din Gboard (dictare voce-text), o versiune îmbunătățită de completare automată în Chrome pentru formulare mai complexe și „Create My Widget”. Ce cerințe trebuie să îndeplinească un telefon Conform notelor din subsolul paginii oficiale de prezentare pentru Gemini Intelligence, accesul la aceste funcții va depinde de o combinație de cerințe hardware și software: minimum 12 GB RAM ; un „ cip de vârf ” (formulare generică, fără o listă explicită de procesoare în material); suport pentru AI Core ; suport pentru Gemini Nano v3 sau o versiune mai nouă. Android Authority notează că pragul de 12 GB RAM elimină „majoritatea” telefoanelor Pixel mai vechi, cu excepții punctuale: Pixel 7 Pro, Pixel 8 Pro, seriile Pixel 9 și Pixel 10. De ce pot fi excluse chiar și modele premium Un element-cheie este cerința de compatibilitate cu Gemini Nano v3. Contribuitorul Android Authority AssembleDebug indică faptul că Google publică o listă de dispozitive care suportă Nano v3 pe pagina sa pentru dezvoltatori, iar majoritatea acestor dispozitive ar fi fost lansate în 2026. Consecința practică, așa cum reiese din analiză, este că mai multe modele considerate „de top” ar urma să nu primească Gemini Intelligence, inclusiv: Pixel 7 Pro, Pixel 8 Pro și seria Pixel 9 ; Samsung Galaxy Z Fold 7 și TriFold . În același timp, sunt menționate drept excepții față de regula „majoritatea sunt din 2026” seria Pixel 10 și seria OPPO Find X9 . Implicația pentru piață: AI „pe dispozitiv” devine un diferențiator de hardware Dincolo de anunțul în sine, mesajul pentru utilizatori și producători este operațional: accesul la pachetul de funcții AI avansate al Google nu va depinde doar de versiunea de Android, ci și de configurații hardware specifice (în special RAM și suportul pentru componentele AI ale platformei). Asta poate accentua diferențierea între generații și poate crește presiunea de upgrade pentru cei care vor funcțiile noi, chiar dacă au telefoane relativ recente. [...]