Știri
Știri din categoria Inteligență artificială

Perplexity extinde accesul la „Personal Computer” pe Mac, mutând execuția în cloud pentru a reduce sarcina pe dispozitiv, o schimbare care poate influența direct modul în care utilizatorii și companiile folosesc asistenți AI pe macOS, printr-un model de utilizare legat de abonamente și de limite de credit. Informația este prezentată de Engadget.
Până acum, asistentul AI „Personal Computer” era disponibil doar pentru utilizatorii planului Max de 200 de dolari pe lună, însă Perplexity spune că l-a deschis acum pentru toți utilizatorii de Mac. Accesul se face printr-o aplicație nouă pentru macOS, iar utilizarea este „legată de limitele de credit” ale planurilor Pro și Max, potrivit companiei.
Perplexity afirmă că „Personal Computer” poate executa sarcini care implică fișiere locale, alte aplicații, web-ul și propriile servere ale companiei. Pentru utilizator, asta înseamnă un asistent care nu se limitează la întrebări, ci poate interacționa cu mai multe surse și contexte de lucru.
Compania poziționează produsul pentru „interogări de zi cu zi, atașamente și dictare”, adică utilizări tipice de productivitate, nu doar căutare.
Un element distinct față de unele instrumente similare este că Perplexity spune că va face „cea mai mare parte a muncii” în cloud, nu integral local, inclusiv pentru a reduce presiunea asupra resurselor Mac-ului. Practic, performanța și capabilitățile pot depinde mai mult de infrastructura Perplexity și de conexiunea la internet decât de configurația hardware a utilizatorului.
Perplexity mai precizează că asistentul folosește mai multe modele AI în funcție de sarcină, inclusiv Gemini pentru „cercetare aprofundată”, Nano Banana pentru imagini și ChatGPT pentru „memorare pe context lung și căutare largă”.
Perplexity susține că „Personal Computer” poate rula non-stop pe un Mac mini și poate fi controlat de la distanță de pe iPhone. Compania mai afirmă că acțiunile asistentului sunt „auditabile și reversibile”, ceea ce ar reduce riscul unor erori cu impact (de exemplu, ștergerea accidentală a fișierelor), deși articolul nu oferă detalii tehnice despre cum este implementată această reversibilitate.
Recomandate

Google pregătește pentru macOS un agent Gemini care poate prelua controlul asupra computerului și automatiza organizarea fișierelor , o extindere cu impact operațional direct asupra modului în care utilizatorii își gestionează documentele și fluxurile de lucru în Google Workspace , potrivit 9to5Google . În prezent, aplicația Gemini pentru macOS are două funcții principale: o interfață nativă de chat (similară celei web) și o comandă rapidă „alt-space” care deschide Gemini din orice aplicație. Această a doua funcție permite și partajarea ferestrei curente cu Gemini, oferind asistentului context vizual despre sarcina în desfășurare. Ce ar urma să facă agentul: fișiere locale + integrare cu Workspace O analiză a echipei „APK Insight” a publicației indică faptul că Google plănuiește să extindă prezența Gemini pe Mac printr-un mod de utilizare „agentic” (adică un asistent care execută pași în numele utilizatorului), similar cu ceea ce oferă Claude Cowork. 9to5Google descrie patru exemple de comenzi (prompts) care conturează direcția produsului: Conversia fișierelor într-un tabel : scanarea unui folder local (de tip facturi sau rapoarte), extragerea datelor și structurarea lor într-un Google Sheet. Organizarea folderelor : identificarea fișierelor neorganizate din Desktop sau Downloads, gruparea lor după tip sau context și arhivarea „dezordinii”. Standardizarea fișierelor : citirea metadatelor și redenumirea în masă a unui număr mare de fișiere, cu rearanjare în subfoldere mai ușor de înțeles. „Închiderea buclei” după ultima ședință : preluarea celui mai recent transcript Meet sau a notițelor dintr-un document și redactarea unui e-mail de follow-up cu idei și acțiuni. Primele trei scenarii pun accent pe fișierele locale și pe transferul structurii rezultate în aplicații din Google Workspace, în timp ce al patrulea mută accentul spre aplicații Google precum Meet, Docs și Gmail. Cum ar funcționa tehnic: acces la ecran și funcții de accesibilitate Conform publicației, aceste capabilități ar urma să se bazeze pe „Screen Access” și pe funcțiile de accesibilitate din macOS, pentru ca Gemini să poată „vedea” ecranul și să controleze mouse-ul și tastatura. Practic, miza este automatizarea unor sarcini repetitive (organizare, redenumire, extragere de date) direct pe computer, nu doar răspunsuri în chat. De ce contează: productivitate și competiție directă cu Claude Din perspectiva utilizării, un astfel de agent ar transforma Gemini pe macOS dintr-o aplicație de conversație într-un instrument de execuție a sarcinilor, cu efect imediat asupra productivității, mai ales în organizații care folosesc intens Google Workspace. 9to5Google notează și un contrast cu Android: pe telefoane, doar un subset redus de dispozitive (exemplul dat este seria Galaxy S26) poate cere lui Gemini să automatizeze sarcini simple în aplicații, precum comandarea de mâncare. Pe Mac, ambiția pare mai mare, iar Google ar urmări să poziționeze Gemini ca rival direct pentru Claude Cowork, pe fondul experimentelor anterioare cu zona de „computer use” din previzualizarea Gemini 2.5. [...]

Guvernul SUA își extinde controlul asupra AI prin testare înainte de lansare , după ce Google, Microsoft și xAI au acceptat ca modelele lor să fie evaluate de autorități înainte de a ajunge la public, potrivit Mediafax , care citează Euronews. Miza este reducerea riscurilor de securitate națională asociate noilor sisteme de inteligență artificială. Evaluările vor fi coordonate de CAISI , care va analiza riscuri precum securitatea cibernetică, biosecuritatea și posibile utilizări în dezvoltarea armelor chimice. Instituția spune că testarea va include teste tehnice, cercetare comună și elaborarea unor bune practici pentru dezvoltarea modelelor comerciale. „Măsurătorile independente și riguroase sunt esențiale pentru a înțelege impactul AI asupra securității naționale”, a declarat directorul CAISI, Chris Fall. Ce se schimbă pentru companii: verificări înainte de lansare Pentru industria tech, acordul introduce un filtru suplimentar înainte de lansarea publică a unor modele avansate, într-un moment în care autoritățile americane tratează tot mai explicit AI ca pe o tehnologie cu implicații strategice și militare, pe fondul competiției dintre SUA și China. Microsoft a transmis că evaluările guvernamentale ar urma să ajute compania să identifice mai devreme riscurile asociate platformei Copilot, inclusiv posibile atacuri cibernetice bazate pe AI. În paralel, OpenAI a confirmat că a furnizat guvernului american modelul ChatGPT5.5 înainte de lansarea publică, pentru testare de securitate națională. Compania dezvoltă și GPT-5.5-Cyber, un model specializat în apărare cibernetică, destinat unui grup restrâns de utilizatori instituționali. Context politic: o nuanțare a discursului anti-reglementare Decizia este prezentată ca o schimbare de ton în administrația Donald Trump , care a susținut în repetate rânduri că reglementările excesive pot încetini inovația și pot oferi Chinei un avantaj strategic. În martie, Casa Albă a prezentat un nou cadru național privind inteligența artificială, care prevede accelerarea adoptării AI și eliminarea obstacolelor birocratice pentru industrie, dar exclude crearea unei noi agenții federale dedicate exclusiv reglementării AI. Cât s-a testat deja și ce rămâne neclar CAISI afirmă că a realizat până acum aproximativ 40 de evaluări pentru modele AI, inclusiv pentru sisteme de ultimă generație care nu au fost încă lansate public. Autoritățile americane nu au precizat însă ce modele au fost testate și nici ce modificări au fost negociate în noile acorduri cu industria. [...]

Google testează intern „Remy”, un agent AI integrat în ecosistem, ceea ce poate schimba modul de lucru în companie și, ulterior, felul în care utilizatorii folosesc serviciile Google, potrivit Android Authority . Instrumentul ar fi „profund integrat” în Google și este prezentat ca un „agent personal 24/7”, într-o mișcare care ar veni după reducerea eforturilor pentru Project Mariner și pe fondul competiției cu OpenClaw. Informația provine dintr-un raport Business Insider , citat de publicație, care susține că Google testează intern un nou sistem agentic (adică un AI capabil să execute acțiuni și sarcini în numele utilizatorului), cu numele de cod „Remy”. Nu este clar dacă este același proiect către care au fost redirecționate resursele după schimbarea de direcție de la Project Mariner, însă descrierea îl apropie de abordarea OpenClaw. Ce ar face „Remy” și de ce contează operațional Conform descrierii din raport, Remy ar fi „profund integrat” în cadrul Google și ar putea să „monitorizeze lucrurile care contează pentru tine, să gestioneze proactiv sarcini complexe și să îți învețe preferințele în timp”. Mesajul de prezentare citat îl poziționează drept „agentul tău personal 24/7 pentru muncă, școală și viața de zi cu zi, alimentat de Gemini”. Pentru Google, o astfel de integrare ar însemna un pas dincolo de funcțiile agentice deja existente în Gemini, care – în forma actuală – tind să fie mai înguste, legate de aplicații sau scenarii specifice. Un agent „mai generalist”, folosit transversal, ar putea avea impact direct asupra productivității interne și asupra modului în care sunt automatizate fluxurile de lucru. Testare internă și incertitudinea privind lansarea Angajații Google ar „dogfooding” Remy (adică îl folosesc intern pentru a-l testa în condiții reale), însă sursele citate nu precizează dacă proiectul este destinat să rămână un instrument intern sau dacă va fi lansat public. Referințele la „muncă” și „școală” sugerează, totuși, o posibilă orientare către utilizatori, notează publicația, fără a indica un calendar. Cu Remy încă în testare internă, este prea devreme pentru a vorbi despre o lansare. Chiar dacă urmează Google I/O în cursul acestei luni, materialul indică doar posibilitatea ca Google să discute planuri de viitor pentru acest instrument în cadrul conferinței, nu o prezentare sau o lansare confirmată. [...]

Doar 13% dintre companiile din România au implementat eficient AI în cloud , un nivel sub jumătate din media Europei Centrale și de Est, iar decalajul de adopție față de piețele mature este de 18–24 de luni, potrivit unei analize publicate de Economica . Datele indică o problemă operațională și de competitivitate: fără infrastructură de date și investiții în cloud, proiectele de inteligență artificială rămân fragmentate și greu de scalat. Infrastructura și datele, principalele blocaje pentru scalare Potrivit datelor PwC citate în material, România se află într-o etapă incipientă a adopției AI, cu utilizare limitată și infrastructură insuficient dezvoltată. Pe lângă ponderea redusă a implementărilor eficiente în cloud (13%), doar aproximativ 25% dintre organizații consideră că au o arhitectură de date adecvată, ceea ce sugerează o bază fragilă pentru proiecte AI care să poată fi extinse la nivelul întregii companii. Această fundație slabă se vede și în planurile de investiții: doar 17% dintre firmele din România intenționează investiții specifice în infrastructură cloud pentru AI și machine learning, „la jumătate față de media regională”, ceea ce limitează potențialul de dezvoltare în următorii ani. „18–24 de luni în urmă”: fereastră scurtă pentru recuperare Lilia Christofi (PwC) a spus, la PwC Romania Technology Summit, că România este „cu 18–24 de luni în urmă” la implementarea și utilizarea AI, dar că recuperarea este posibilă dacă organizațiile trec rapid de la experiment la execuție. „Cel mai bun mod de a învăța AI este prin implementare și practică. Nu este vorba despre urmărirea unor cursuri online.” În contrast, piețele din Europa de Vest ar fi depășit faza de testare și ar integra AI la scară largă în operațiuni, cu accent pe reutilizarea modelelor, abordare care „reduce costurile și crește eficiența”, potrivit aceleiași surse. Riscuri: costuri, operațiuni și reglementare, dacă AI e „pus peste tot” Materialul atrage atenția că întârzierea vine și cu un potențial avantaj (învățarea din greșelile altora), însă fereastra este limitată. Christofi a avertizat că lipsa unei implementări corecte poate genera probleme operaționale, costuri ridicate și dificultăți în zona de reglementare, mai ales dacă nu există aliniere la nivelul întregii organizații. „Pentru că a construi un AI este costisitor. Dacă nu există aliniere la nivelul întregii organizații, complicați foarte mult munca departamentului de risc și provocările de reglementare.” Un alt risc menționat este utilizarea greșită a tehnologiei, prin aplicarea AI în contexte unde ar fi suficiente automatizări sau modele de machine learning mai simple, pe motiv că AI este „un model probabilistic” și „nu se potrivește în orice situație”. Semnale mixte: competențe în creștere, dar strategii aproape inexistente Pe piața muncii, presiunea de adaptare este deja vizibilă: ritmul de schimbare a competențelor în rolurile expuse la AI este cu 66% mai rapid decât în alte joburi, conform datelor citate. Există și indicatori pozitivi: aproximativ 70% dintre organizațiile din România folosesc infrastructură cloud sustenabilă (peste media regională), iar 62% dintre angajații din servicii financiare au dobândit noi competențe AI în ultimul an (peste media globală). În același timp, Gabriel Voicilă, Partener Tehnologie PwC România, a prezentat date dintr-un studiu care urmează să fie lansat în luna mai: doar 2% dintre companiile din România au declarat că au o strategie completă aprobată, cu indicatori de măsurare a beneficiilor AI, iar aproape 80% dintre respondenți au semnalat că nu folosesc sisteme bazate pe AI pentru luarea deciziilor. Barierele invocate: dificultatea de a măsura beneficiile investițiilor, lipsa de personal calificat și constrângerile bugetare. În logica prezentată la eveniment, miza pentru următoarele 12 luni este trecerea de la experimentare la execuție, astfel încât decalajul de adopție să nu se transforme într-un dezavantaj competitiv de durată. [...]

Google schimbă modul în care afișează și „împinge” linkurile în căutările cu AI , într-o încercare de a direcționa utilizatorii mai rapid către site-uri și conținut original, inclusiv către articolele din abonamentele lor de știri, potrivit Google Blog . Actualizările vizează AI Mode și AI Overviews din Google Search și au ca miză practică creșterea ratei de accesare a surselor (click-uri) din interiorul răspunsurilor generate de AI. Ce se schimbă, concret, în AI Mode și AI Overviews Google descrie cinci actualizări care au în comun aceeași direcție: mai multe linkuri, mai vizibile, mai contextualizate și mai ușor de urmărit în timpul lecturii răspunsului AI. Principalele noutăți sunt: Sugestii de „pași următori” la finalul unor răspunsuri AI , cu trimiteri către articole unice sau analize detaliate pe sub-teme („Explore new angles”). Evidențierea linkurilor din abonamentele de știri ale utilizatorului în AI Mode și AI Overviews, astfel încât conținutul plătit/abonat să fie mai ușor de găsit. Google menționează că, în testele timpurii, utilizatorii au fost „semnificativ mai predispuși” să dea click pe linkurile etichetate ca provenind din abonamentele lor (fără a publica un procent). Previzualizări de perspective din discuții publice online și rețele sociale , cu mai mult context lângă link (de exemplu numele creatorului, „handle”-ul sau numele comunității), pentru a ajuta utilizatorul să decidă dacă intră în conversația completă. Mai multe linkuri inserate direct lângă pasajele relevante din răspunsul AI , inclusiv lângă puncte din liste, pentru a reduce „fricțiunea” dintre citit și accesarea sursei. Previzualizare la trecerea cu cursorul peste un link (desktop) , care arată rapid numele site-ului sau titlul paginii, pentru a crește încrederea utilizatorului că știe unde ajunge înainte să dea click. De ce contează pentru ecosistemul web (publisheri și trafic) Dincolo de funcțiile pentru utilizatori, schimbarea are o componentă operațională importantă pentru site-uri și publisheri: Google încearcă să facă tranziția din răspunsul AI către sursa originală mai naturală și mai frecventă, prin: plasarea linkurilor „în linie” (în interiorul răspunsului, lângă afirmația relevantă); etichetarea conținutului din abonamente (un stimulent direct pentru publisheri să-și conecteze ofertele la mecanismul Google); oferirea de context înainte de click (previzualizări), pentru a reduce ezitarea utilizatorilor. Pentru publisheri, Google indică și un pas practic: există un formular prin care aceștia pot afla mai multe despre conectarea abonamentelor cititorilor cu Google, astfel încât linkurile către conținutul abonat să fie evidențiate. Ce mai spune Google despre „cum găsește” linkurile Compania afirmă că va continua să îmbunătățească modul în care „arată și clasifică” linkurile în experiențele de căutare cu AI și menționează utilizarea unor tehnici precum „query fan-out” (o metodă prin care sistemul extinde interogarea inițială în mai multe căutări conexe pentru a găsi rezultate relevante). Google precizează că va continua să testeze și să ajusteze aceste funcții „în funcție de ce funcționează cel mai bine” pentru utilizatori, fără să ofere un calendar detaliat de disponibilitate pe piețe. [...]

România poate câștiga un avantaj regional în centre de date pe fondul schimbării tehnologiilor de răcire și al presiunii pentru infrastructură AI , iar miza se mută rapid de la „unde se poate construi” la „cine are energie și capacitate de execuție”, potrivit Economica , care relatează declarațiile lui Rod Evans, vicepreședinte NVIDIA, la Data Center Forum (București). Evans a susținut că răcirea cu lichid schimbă „geografia” industriei, făcând posibilă construirea de centre de date inclusiv în țări cu climă caldă. În acest context, România, cu climă temperată, ar avea un avantaj competitiv în regiune și „nu există niciun motiv” să nu devină lider în centre de date. „Odată cu răcirea prin lichid, poți construi centre de date oriunde. Există proiecte în Maroc, în Spania și Portugalia, țări cu climă caldă. Cu o climă temperată, nu există niciun motiv pentru care România nu poate deveni un lider în centre de date.” Energia, factorul care poate decide investițiile Executivul NVIDIA a legat direct oportunitatea de disponibilitatea energiei, pe fondul creșterii masive a consumului necesar infrastructurii pentru inteligență artificială. El a spus că, la sosirea în București, a observat o reclamă pentru o facilitate solară de 2,5 gigawați care se construiește în România, proiect asociat cu Jonathan Berney (AIC) și Cluster Power. În același context, Economica notează că AIC a semnat în decembrie 2025 un parteneriat cu ClusterPower (operator certificat NVIDIA DGX-Ready) pentru dezvoltarea unui proiect multianual de până la 800 MW, pe două campusuri în sud-vestul României. Evans a adăugat că România începe să fie comparată cu Norvegia, una dintre destinațiile europene importante pentru centre de date, datorită energiei disponibile și condițiilor climatice. Cererea de calcul pentru AI accelerează, iar costurile scad Rod Evans a descris industria ca fiind în „cea mai accelerată transformare” din ultimele decenii, pe fondul creșterii rapide a cererii de putere de calcul pentru AI. El a afirmat că dimensiunea și complexitatea modelelor AI au crescut de un milion de ori într-un deceniu, comparativ cu o creștere de 100 de ori în perioada arhitecturii x86. În paralel, costurile de utilizare ale AI scad, ceea ce împinge tehnologia spre tot mai multe activități economice. Evans a vorbit despre trecerea către modele „cu raționament” și despre faptul că „tokenii” (unități de calcul folosite în generarea de răspunsuri AI) au devenit de 10 ori mai ieftini în fiecare an, potrivit declarațiilor sale. „Creator sau consumator” de AI: implicații pentru investiții și controlul datelor Evans a avertizat că unele state tratează AI mai ales ca divertisment, în timp ce altele îl folosesc pentru a-și reconstrui avantajele competitive, dând exemplul Chinei. El a reluat ideea promovată de CEO-ul NVIDIA, Jensen Huang : fiecare stat trebuie să decidă dacă va produce AI sau doar va consuma tehnologie creată în alte țări. În acest cadru, Evans a invocat o discuție între Jensen Huang și premierul Indiei, Narendra Modi, ca argument pentru „AI suveran” (dezvoltare locală a infrastructurii și modelelor, cu păstrarea controlului asupra datelor, limbii și culturii). Ce urmează: „fabrici de AI” și presiune pe recalificare Vicepreședintele NVIDIA a spus că apariția „fabricilor de AI” și a infrastructurilor suverane de calcul ar urma să devină o direcție majoră de investiții pentru guvernele europene, inclusiv pentru România. El a menționat că EuroHPC a anunțat recent prima fabrică de AI care va fi construită în România. Separat, Evans a indicat o vulnerabilitate structurală în Europa: nivelul redus al investițiilor în recalificare după terminarea studiilor universitare, într-un moment în care AI schimbă rapid piața muncii. El a afirmat că statele UE cheltuie 4,6% din PIB pentru educație (de la grădiniță la universitate) și 0,9% din PIB pentru recalificare și reeducare după facultate, și a invocat studii potrivit cărora aproximativ 100 de ore (trei săptămâni) de training în AI ar crește șansele de angajare cu 60%. În final, Evans a susținut că transformarea digitală trebuie să includă administrația publică, avertizând că birocrația tradițională nu mai poate susține economiile moderne fără integrarea tehnologiei și a inteligenței artificiale. [...]