Știri
Știri din categoria Inteligență artificială

Anunțurile pentru management intermediar scad, pe fondul „aplatizării” organizațiilor și al folosirii AI, iar companiile cer tot mai des ca șefii să facă și muncă operațională, nu doar coordonare, potrivit Libertatea. Semnalul vine din datele Indeed și din decizii recente anunțate de lideri din tehnologie, unde restructurările sunt însoțite de schimbări de model organizațional.
În 2025, platforma de angajări Indeed a raportat o scădere de 12,3% a anunțurilor pentru poziții de management intermediar față de anul precedent, un indicator că firmele reduc „straturile” de management și cresc așteptările de productivitate de la lideri.
Într-un context economic descris ca tot mai dificil, organizațiile din tehnologie tind să devină mai „plate”, iar rolurile clasice de manager sunt puse sub presiune. Libertatea notează că CEO-ul Coinbase, Brian Armstrong, a anunțat reducerea cu 14% a personalului și a transmis intern că fiecare angajat trebuie să fie „un contributor individual puternic și activ”, cu echipe care pot ajunge să fie formate dintr-o singură persoană și agenții săi de inteligență artificială. Potrivit portalului sârb Blic (Ringier), Armstrong a confirmat și că firma nu va mai menține poziții de „manager”.
Un mesaj similar a venit de la Jack Dorsey, CEO-ul Block, care a anunțat în aprilie 2026 o reducere cu 40% a forței de muncă și a cerut ca managerii să devină „jucători-antrenori”, adică să participe direct la proiectele echipelor pe care le conduc. În același registru, directorul Snap Inc., Evan Spiegel, a anunțat reducerea cu 1.000 de posturi și reorientarea către echipe mici, axate pe utilizarea inteligenței artificiale. În material sunt menționați și Mark Zuckerberg (Meta) și Mike Cannon-Brookes (Atlassian) ca susținători ai adaptării accelerate prin AI.
Transformările duc la un nou tip de lider, descris ca „megamanager”, în condițiile în care managerii ajung să aibă mai multe responsabilități și să preia sarcini care înainte erau strict operaționale.
Potrivit unui studiu Gallup citat de Blic, în ianuarie 2026 managerii supravegheau în medie 10,9 angajați, față de 12,1 în 2024. În plus, 97% dintre manageri au preluat sarcini operaționale suplimentare, care anterior nu le reveneau.
Profesorul Richard Lachman, de la Universitatea Metropolitană din Toronto, spune că tranziția este firească în industria tech, unde companiile adoptă primele pe scară largă inteligența artificială, iar așteptările de la manageri cresc.
Analistul HR Josh Bersin argumentează că modelul tradițional de manager – axat pe supraveghere – își are originea în Revoluția Industrială și este abandonat de decenii, iar AI accelerează schimbarea. El avertizează că, în unele situații, AI poate ajunge să „știe mai multe decât managerul” și susține că, pentru a rămâne relevanți în 2026, liderii trebuie să:
Un manager de la Coinbase, citat în material, spune că IA a schimbat deja semnificativ modul de lucru și că riscul crește pentru cei care nu știu să folosească inteligența artificială sau nu vin cu idei bune.
Libertatea mai notează că aceste schimbări nu se manifestă uniform în toate sectoarele și trimite la o listă separată cu joburi bine plătite considerate mai greu de înlocuit de AI.
Recomandate

Google își duce instrumentele de creație muzicală cu IA direct către artiști printr-un parteneriat cu Believe , care va oferi Flow Music (din Google Labs) și modelul de generare muzicală Lyria 3 Pro creatorilor din rețelele Believe și TuneCore, potrivit Google Blog . Miza este una operațională: accesul la astfel de instrumente intră într-un canal de distribuție deja folosit de artiști, nu rămâne doar un experiment de laborator. Parteneriatul vizează artiști, producători și compozitori care lucrează cu Believe și TuneCore, iar Flow Music este poziționat ca „colaborator creativ” pentru sarcini precum sprijin la versuri, explorarea de melodii sau genuri și chiar crearea de instrumente noi. Google precizează că nu revendică drepturi de proprietate asupra conținutului original generat cu Flow Music. Ce se schimbă pentru artiști: integrare și iterație rapidă În formularea Google, Believe va pune la dispoziție Flow Music ca spațiu de „explorare și iterație”, util atât în fazele incipiente ale unui proiect (de exemplu, căutarea unei direcții pentru un album), cât și la finalizarea unor elemente precum versurile. Cum va funcționa colaborarea cu Believe și TuneCore Pe lângă accesul la instrumente, parteneriatul include un mecanism de feedback: Believe și TuneCore vor selecta un grup de artiști și producători care se vor întâlni săptămânal cu echipa de produs. Rolul lor este să ofere feedback și să influențeze evoluția Flow Music. Motorul tehnic și condițiile de utilizare a datelor Flow Music este alimentat de Lyria 3 Pro, descris de Google drept cel mai nou model de generare muzicală al companiei. Modelul este construit pentru a înțelege structura compozițională (intro, strofe, refren, punte), pentru a experimenta cu stiluri diverse și pentru a genera ritmuri complexe sau a testa voci în altă limbă. Pe partea de utilizare responsabilă, Google afirmă că Lyria 3 Pro a fost proiectat și antrenat folosind materiale pe care YouTube și Google au dreptul să le folosească în baza termenilor de utilizare, a acordurilor cu parteneri și a legislației aplicabile. [...]

Google împinge mai multă „asistență” cu inteligență artificială în Căutare, prin funcții care folosesc camera și unelte generative pentru planificare și recomandări în timp real, într-un exemplu concret de mutare a utilizării AI din zona de „răspunsuri” în zona de „acțiuni” (vizualizare, plan, cumpărături, diagnostic). Detaliile apar într-un material publicat pe Google Blog , care descrie cinci moduri de a folosi AI Mode, Search Live și Shopping pentru activități de grădinărit. În esență, Google propune Căutarea ca „trusă digitală” pentru utilizatori: de la a vedea cum ar arăta o amenajare într-un spațiu real, până la a obține recomandări despre îngrijirea plantelor sau a găsi rapid produse disponibile în apropiere. Pentru utilizatori, miza este reducerea timpului de documentare și a incertitudinii; pentru Google, este o extindere a rolului Căutării spre fluxuri care pot duce direct la tranzacții (Shopping) și la interacțiuni mai lungi (conversații, planificare). Ce funcții pune Google în prim-plan Materialul enumeră cinci utilizări, toate centrate pe integrarea AI în experiența de căutare: Vizualizarea unei grădini în spațiul tău cu AI Mode în Search: utilizatorul face o fotografie a spațiului (de exemplu, un patio) și cere sugestii de amplasare și o reprezentare a rezultatului. Plan de plantare cu Canvas în AI Mode: o unealtă de tip „panou” (Canvas) poate genera un plan anual, cu sarcini lunare și alte elemente de organizare, pe baza unei cereri detaliate. Proiectarea unui „chaos garden” (grădină cu aspect „sălbatic”) cu AI Mode: recomandări pentru amestecuri de semințe și strategie, în funcție de lumină și spațiu. Aprovizionare locală prin Shopping: căutare de produse cu filtrul „nearby”/„în apropiere” și posibilitatea de a include „near me”; Google menționează și folosirea AI pentru a „suna” în legătură cu stocurile. Ajutor în timp real cu Search Live: prin Lens în aplicația Google, utilizatorul poate fotografia o plantă și poate continua cu întrebări succesive, într-o interacțiune de tip conversație, inclusiv cu opțiunea „Live”. Contextul de utilizare: interes în creștere pentru „chaos gardens” și grădini mici Google invocă date din Google Trends pentru a argumenta relevanța acestor funcții în sezon: în SUA, căutările pentru „how to start a chaos garden” au crescut cu 140% în această primăvară, iar interesul pentru „chaos garden seeds” s-a dublat . În paralel, căutările pentru „mini garden” au atins un maxim istoric în 2026, iar „tabletop garden” un maxim al ultimilor 15 ani. De ce contează, dincolo de grădinărit Din perspectivă operațională, exemplul arată direcția în care Google împinge Căutarea: interfețe care combină text, imagine și conversație, plus instrumente de planificare (Canvas) și integrare mai strânsă cu cumpărăturile locale. Practic, Căutarea este prezentată nu doar ca motor de informare, ci ca instrument de „executare” a unor sarcini, cu AI ca intermediar între intenție (ce vrei să faci) și rezultat (plan, vizualizare, achiziție, diagnostic). [...]

Mira Murati , fost CTO al OpenAI , a declarat sub jurământ că Sam Altman a mințit-o despre procedurile interne de siguranță , într-o mărturie prezentată în procesul „Musk v. Altman”, potrivit The Verge . Afirmația ridică miza de reglementare și de guvernanță corporativă în jurul OpenAI, într-un moment în care controalele de siguranță pentru modelele de inteligență artificială sunt tot mai des invocate ca argument pentru intervenție publică și reguli mai stricte. Într-o depoziție video difuzată în instanță, Murati a spus că Altman i-ar fi transmis în mod fals că departamentul juridic al OpenAI a decis că un nou model de inteligență artificială nu trebuie să treacă prin comitetul intern de siguranță pentru lansare (deployment safety board). Întrebată direct dacă Altman spunea adevărul, Murati a răspuns: „Nu”. Ce spune mărturia despre controlul intern al riscurilor Murati a descris episodul ca pe un exemplu al felului în care, în perioada în care a lucrat la OpenAI, Altman i-ar fi îngreunat activitatea. Critica ei ar fi „complet legată de management”, susținând că avea „o muncă incredibil de grea” într-o organizație complexă și că îi cerea lui Altman „să conducă, să conducă cu claritate” și să nu-i submineze capacitatea de a-și face treaba. În cazul concret al unui model din familia GPT, Murati a spus că, după discuția cu Altman, a verificat situația cu Jason Kwon (venit la OpenAI în 2021 ca director juridic și ajuns între timp director de strategie). Potrivit mărturiei, a constatat o „nepotrivire” între ce îi spusese Kwon și ce îi spusese Altman și, „pentru siguranță”, s-a asigurat că modelul a trecut totuși prin comitetul de siguranță. Context: acuzații mai vechi privind conduita lui Altman Materialul notează că nu este prima dată când Altman este acuzat că ar fi mințit. Cofondatorul Ilya Sutskever ar fi afirmat, într-un memoriu de 52 de pagini către board-ul OpenAI (citit într-o depoziție), că Altman „manifestă un tipar constant de minciună, subminare a executivilor și punerea executivilor unii împotriva altora”. De ce contează pentru piață și pentru reglementare Dincolo de disputa personală, mărturia lovește în credibilitatea mecanismelor interne prin care o companie de vârf din AI susține că își gestionează riscurile înainte de lansarea unor modele noi. Dacă deciziile privind trecerea prin filtrele de siguranță pot fi ocolite sau prezentate eronat în interior, presiunea pentru supraveghere externă și reguli mai stricte poate crește, inclusiv prin cerințe de audit și trasabilitate a deciziilor de lansare. Procesul „Musk v. Altman” este în desfășurare, iar informațiile provin din depoziții prezentate în instanță; articolul nu oferă, în acest fragment, poziția lui Altman sau a OpenAI la aceste afirmații. [...]

SpaceX își monetizează infrastructura de calcul AI printr-un acord care oferă Anthropic acces complet la centrul de date „Colossus 1”. Potrivit Mediafax , parteneriatul permite startup-ului american să folosească întreaga capacitate de procesare a facilității din Memphis, Tennessee, pentru a crește performanța asistenților Claude și pentru a depăși blocajele de capacitate generate de cererea în creștere. Acordul este relevant economic și operațional: pe de o parte, Anthropic își asigură accesul la resurse de calcul la scară mare, esențiale pentru antrenarea și rularea modelelor avansate; pe de altă parte, SpaceX își consolidează poziția în infrastructura AI ca linie de business, într-un moment în care compania caută să atragă investitori înaintea unui posibil IPO al diviziei sale AI, conform materialului. Ce câștigă Anthropic: capacitate pentru Claude Pro, Claude Max și Claude Code Anthropic va folosi capacitatea Colossus 1 pentru a îmbunătăți Claude Pro și Claude Max și pentru a reduce limitările apărute pe fondul cererii ridicate, în special pentru instrumentul de programare asistată de inteligență artificială Claude Code. În contextul competiției globale din AI, accesul la infrastructură devine un diferențiator practic, nu doar tehnologic. Ce livrează SpaceX: un centru de date cu peste 220.000 de procesoare Nvidia Colossus 1 este descris ca unul dintre cele mai mari centre de date dedicate inteligenței artificiale la nivel mondial. Facilitatea găzduiește peste 220.000 de procesoare Nvidia, inclusiv H100, H200 și acceleratoare GB200, utilizate pentru antrenarea și operarea modelelor AI de ultimă generație. Miza pe termen lung: centre de date „spațiale” și finanțare suplimentară Dincolo de utilizarea infrastructurii existente, Anthropic și-a exprimat interesul pentru dezvoltarea unor centre de date spațiale „de ordinul gigawaților”, un proiect considerat prioritar de Elon Musk . Ideea este ca astfel de facilități să fie amplasate în spațiu pentru energie solară continuă și costuri operaționale mai mici pe termen lung, însă proiectul este prezentat ca „extrem de costisitor” și unul dintre motivele pentru care SpaceX pregătește noi surse de finanțare și o posibilă listare publică. Extinderea spre companii: funcția „dreaming”, în test Parteneriatul a fost anunțat la un eveniment Anthropic în San Francisco, unde compania a prezentat și o funcție nouă pentru Claude AI, numită „dreaming”, disponibilă experimental. Aceasta ar permite agenților AI să își analizeze activitatea între sesiuni, să identifice tipare și să actualizeze automat fișiere cu preferințele utilizatorilor și alte informații relevante. În paralel, Anthropic încearcă să își întărească poziția pe segmentul corporate, într-o piață care pune presiune pe companiile tradiționale de software; startup-ul este susținut de Google și Amazon și a anunțat recent și agenți AI specializați pentru sectorul financiar, mai notează materialul. [...]

Europa și SUA ar trebui să-și coordoneze investițiile în infrastructura pentru inteligență artificială , în condițiile în care costurile estimate până în 2030 ajung la aproape 7 trilioane de dolari (aprox. 31,5 trilioane lei), iar competiția globală cu China se intensifică, a declarat vicepreședintele Parlamentului European , Victor Negrescu , potrivit Mediafax . Negrescu a susținut că Statele Unite „nu pot câștiga” cursa inteligenței artificiale fără un parteneriat solid cu Europa, argumentând că miza nu este doar tehnologică, ci și una de capacitate de finanțare și de construire a infrastructurii necesare. Infrastructura: SUA conduce, Europa urmează În intervenția sa la CNN, Negrescu a indicat dimensiunea actuală a infrastructurii de procesare (centre de date), esențială pentru dezvoltarea și rularea modelelor de inteligență artificială: SUA: aproximativ 4.000 de centre de date Europa: aproximativ 3.000 de centre de date Pe acest fundal, el a avertizat că, până în 2030, ar fi nevoie de investiții comune de aproape 7 trilioane de dolari (aprox. 31,5 trilioane lei), pe care le-a descris drept „sume uriașe de bani”. Lanțuri de aprovizionare și materii prime: apel la o politică comună Negrescu a pledat pentru reducerea competiției interne între aliați și pentru o abordare coordonată pe lanțul de aprovizionare, inclusiv printr-o politică comună privind „mineralele” și „materiile prime” necesare industriei. „De ce să concurăm unii împotriva altora? Trebuie să ne gândim cu adevărat la lanțul de aprovizionare, să ne asigurăm că avem și o politică comună în ceea ce privește mineralele, materiile prime.” Relația cu China: „strategie reală” înainte de discuții Oficialul european a mai spus că Occidentul ar trebui să-și alinieze poziția față de China, menționând că urmează o discuție între președintele SUA, Donald Trump, și președintele Chinei. În acest context, Negrescu a cerut ca statele occidentale să discute între ele înainte de interacțiunea cu Beijingul și să aibă „o strategie reală” privind transformarea prin inteligență artificială. [...]

Peste 600 de milioane de chinezi folosesc deja AI generativă , iar ritmul de adopție transformă China într-o piață-„laborator” care poate împinge înainte produse și modele de inteligență artificială prin testare la scară uriașă, potrivit G4Media . Datele citate de publicație indică o creștere de 142% față de anul anterior, ceea ce ridică miza competiției globale: nu doar cine are cel mai bun model, ci cine poate construi cel mai repede un ecosistem folosit zilnic. La mai bine de un an după ce startupul chinez DeepSeek a atras atenția internațională cu modele avansate, utilizarea aplicațiilor AI a intrat în rutina de zi cu zi, de la rezervări și cumpărături până la recrutare, sănătate și administrarea afacerilor, conform AP, citată de Mediafax. Adopție accelerată și integrare în platforme mari Potrivit Centrului de Informare privind Internetul din China, la finalul anului trecut peste 600 de milioane de chinezi utilizau aplicații de inteligență artificială generativă, în creștere cu 142% față de anul anterior. În paralel, AI este integrată în platforme populare precum WeChat , unde utilizatorii pot comanda mâncare, face plăți sau organiza călătorii cu ajutorul funcțiilor bazate pe inteligență artificială. În acest context, companii precum Tencent, Alibaba și Baidu investesc în integrarea AI în servicii, iar studenți și antreprenori folosesc instrumente pentru sarcini precum generarea de site-uri, clipuri video și administrarea conturilor de social media. De ce contează pentru piață: „testare în timp real” la scară națională În Beijing și Shenzhen, sute de persoane au participat la evenimente dedicate instalării și configurării unor asistenți AI, inclusiv OpenClaw, descris ca un sistem capabil să execute sarcini complexe și să automatizeze activități digitale. Un utilizator citat, Sun Lei, manager de resurse umane, spune că vrea să folosească AI pentru selecția și analiza CV-urilor, pe fondul temerii că ar putea rămâne în urmă tehnologic. Un element central al avantajului Chinei, potrivit experților citați, este viteza de adopție: Lizzi Lee, analist la Asia Society Policy Institute, afirmă că „competiția nu mai este doar între modele AI, ci între ecosisteme întregi”, iar utilizatorii chinezi ajung să funcționeze ca „testeri în timp real” pentru noile tehnologii. Presiunea restricțiilor SUA și reorientarea către soluții locale Materialul notează că SUA domină în continuare zona cipurilor avansate și a infrastructurii de calcul, însă restricțiile la export către China au avut și efecte secundare: companiile chineze au accelerat dezvoltarea propriilor soluții hardware și software. În acest context, DeepSeek a anunțat recent că noul său model AI utilizează parțial cipuri produse de Huawei, reducând dependența de producători americani precum NVIDIA. Totodată, un raport al Institutului pentru Inteligență Artificială Centrată pe Om al Stanford University arată că diferența dintre modelele AI dezvoltate în SUA și cele din China „s-a redus semnificativ”. Ce urmează Pe termen scurt, direcția indicată de articol este extinderea utilizării AI în servicii și în sectorul public, în linie cu planul național „AI Plus”, care vizează integrarea în domenii precum sănătatea, educația, justiția și industria. În unele instanțe din Shenzhen, instrumentele AI sunt deja folosite pentru analiza dosarelor și asistarea proceselor judiciare. [...]