Știri
Știri din categoria Inteligență artificială

Ucraina își apropie de utilizare un laser anti-dronă ghidat de AI, cu rază declarată de 5 km, într-un moment în care apărarea împotriva dronelor rămâne o presiune operațională constantă pe front. Potrivit Tom's Hardware, sistemul „Tryzub”, montat pe remorcă, este în stadii finale de testare, iar producătorul susține că poate „arde găuri” în dronele Shahed de la 5 km (aprox. 3,1 mile).
Într-un clip distribuit pe rețele sociale de compania ucraineană Celebra Tech, Tryzub este prezentat perforând o placă de blindaj în trei-patru secunde, iar apoi lovind o dronă aflată în zbor, care se prăbușește la scurt timp după ce este „țintită” în vizorul asistat de AI.
Pe lângă laserul de putere mare, rolul central este atribuit componentei de inteligență artificială pentru achiziția țintei și urmărire, plus integrării unui radar în platforma mobilă. Materialul nu precizează explicit cum este folosit radarul în lanțul de angajare, însă sugerează că acesta poate ajuta la poziționarea sistemului pentru interceptare.
Conform informațiilor citate, Tryzub ar avea următoarele performanțe declarate, în funcție de tipul țintei:
Totodată, sistemul ar putea „interfera” cu camerele dronelor FPV, deci nu doar să le distrugă fizic.
O altă utilizare menționată este sprijinul pentru operațiuni de deminare, ceea ce ar putea transforma sistemul într-o capabilitate relevantă și în afara luptei anti-dronă, dacă războiul se încheie.
În privința maturității industriale, Celebra Tech afirmă că designul este pregătit pentru producție de masă după trecerea testelor. Nu există însă, în sursele citate, o dată fermă pentru intrarea în serviciu activ, iar testarea continuă.
Euromaidan Press notează că sistemul ar fi în dezvoltare cel puțin din 2024, iar clipul de prezentare este asociat companiei Celebra Tech, care a publicat materialul pe social media. În lipsa unor detalii suplimentare despre rezultate standardizate de testare sau despre condițiile exacte ale demonstrației, performanțele rămân, deocamdată, la nivel de capabilități declarate și demonstrații publice.
Recomandate

Presiunea internă pentru livrări rapide pe AI generativ ar afecta moralul și retenția la Meta , potrivit Neowin , care relatează despre un „push” agresiv al companiei în această direcție și despre nemulțumiri în rândul angajaților. Din perspectiva operațională, miza pentru Meta nu este doar accelerarea dezvoltării de produse bazate pe inteligență artificială generativă, ci și costul intern al acestei accelerări: epuizare, frustrare și un climat de lucru descris ca tot mai apăsător, conform relatării. Într-o companie care concurează direct cu alți giganți tehnologici pentru talente și pentru viteză de execuție, degradarea moralului poate deveni un risc de management cu efecte în lanț asupra proiectelor. Ce ar alimenta tensiunile interne Materialul indică faptul că presiunea vine din intensificarea priorităților legate de AI generativ și din așteptări ridicate privind ritmul de livrare. În acest context, angajații ar resimți: schimbări rapide de direcție și priorități; cerințe mai dure legate de performanță și rezultate; o stare generală de nemulțumire asociată cu modul în care este împinsă agenda de AI. Neowin prezintă aceste elemente ca parte a unui tablou mai larg despre cum se traduce, în interiorul companiei, ambiția de a recupera sau depăși competiția pe zona de produse și funcționalități de AI generativ. De ce contează pentru business Pentru Meta, o strategie „agresivă” pe AI generativ poate aduce avantaje competitive, însă relatarea sugerează un compromis: dacă presiunea internă se transformă în plecări, scăderea productivității sau dificultăți de recrutare, compania riscă să plătească operațional pentru viteza pe care încearcă să o câștige. În lipsa unor date publice suplimentare în textul disponibil (de exemplu, cifre despre plecări, reorganizări sau termene), amploarea exactă a fenomenului nu poate fi cuantificată din această sursă. Rămâne de urmărit dacă Meta va aborda public situația sau va ajusta modul de implementare a programelor interne legate de AI generativ. [...]

Managerii care fac doar „people management” și angajații care refuză schimbarea riscă să fie scoși din joc pe măsură ce AI intră în fluxurile de lucru , avertizează CEO-ul Airbnb , Brian Chesky, într-o intervenție citată de HotNews . Mesajul are o miză operațională directă: rolurile de coordonare și execuție vor fi evaluate tot mai mult prin capacitatea de a lucra efectiv cu instrumente de inteligență artificială, nu doar prin supraveghere sau rutină. Chesky spune că două categorii „nu vor supraviețui erei inteligenței artificiale”: managerii care se ocupă exclusiv de gestionarea oamenilor și angajații „rigizi”, care nu vor să se schimbe și să evolueze. Declarațiile au fost făcute în podcastul „Invest Like The Best”, potrivit revistei Fortune. Ce se schimbă în rolul de manager În viziunea CEO-ului Airbnb, pe măsură ce AI modifică structurile companiilor și felul în care se muncește, șefii trebuie să devină „manageri de personal hibrizi”. Concret, asta înseamnă o abordare mai tehnică și o legătură mai strânsă cu produsul sau rezultatul final, nu doar coordonare administrativă. „Nu cred că managerii de personal vor avea vreo valoare în viitor. Când mă refer la managerii de personal, mă refer la oameni care gestionează doar oameni.” Chesky adaugă că relațiile cu echipa rămân importante, dar „simpla supraveghere” nu mai este suficientă; accentul se mută pe gestionarea oamenilor „pe parcursul activității”, în contextul concret al muncii. Presiunea pe angajați: adaptarea devine criteriu de performanță CEO-ul Airbnb susține că nici angajaților care cred că pot evita noua tehnologie nu le va fi mai ușor. În același timp, el își păstrează o perspectivă relativ optimistă, argumentând că instrumentele pot fi învățate „foarte ușor”, dacă există o „mentalitate de creștere”. În context, HotNews amintește și alte avertismente din industrie: CEO-ul Anthropic, Dario Amodei, a spus că AI ar putea afecta jumătate din munca de birou de nivel începător, iar șeful departamentului de AI al Microsoft, Mustafa Suleyman , a estimat că „majoritatea, dacă nu toate” sarcinile de birou ar putea fi automatizate în 12–18 luni (menționat de HotNews într-un material separat). La ce să se aștepte companiile Mesajul central al lui Chesky mută discuția de la „AI va lua joburi” la „AI va schimba conținutul joburilor”: companiile vor cere tot mai mult competențe practice de lucru cu AI, inclusiv de la manageri. În acest cadru, rolurile care nu se conectează la livrarea efectivă a muncii – sau care resping schimbarea – devin mai vulnerabile. [...]

NVIDIA spune că a început deja să obțină câștiguri măsurabile de productivitate după ce a pus la dispoziția angajaților aplicația Codex de la OpenAI , alimentată de noul model GPT‑5.5 și rulată pe sisteme NVIDIA GB200 NVL72 , potrivit NVIDIA Blog . Miza, dincolo de „lansare”, este una operațională: compania descrie scurtarea ciclurilor de depanare și accelerarea livrării de funcționalități în proiecte complexe, pe fondul unor costuri și performanțe de inferență (rulare a modelului) pe care le consideră viabile la scară de întreprindere. În material, NVIDIA afirmă că peste 10.000 de angajați din arii precum inginerie, produs, juridic, marketing, finanțe, vânzări, HR, operațiuni și programe pentru dezvoltatori folosesc deja Codex cu GPT‑5.5. Inginerii ar fi avut acces „de câteva săptămâni”, iar compania susține că efectele se văd în timpii de lucru: cicluri de debugging care „se întindeau pe zile” s-ar închide acum „în ore”, iar experimente care necesitau „săptămâni” ar ajunge la progres „peste noapte” în baze de cod complexe, cu mai multe fișiere. De ce contează: productivitate internă, susținută de infrastructură și costuri de inferență NVIDIA leagă aceste rezultate de rularea pe GB200 NVL72, despre care spune că poate livra „de 35 de ori” cost mai mic per milion de tokeni și „de 50 de ori” mai mult output de tokeni pe secundă per megawatt față de generația anterioară. În interpretarea companiei, această „economie” ar face inferența pentru modele de vârf fezabilă la scară enterprise, adică suficient de ieftină și eficientă energetic pentru utilizare pe scară largă în organizații. Compania mai susține că echipele pot livra funcționalități „end-to-end” pornind de la prompturi în limbaj natural, cu fiabilitate mai bună și mai puține cicluri irosite decât la modele anterioare, fără a detalia însă indicatori cantitativi interni (de tip ore economisite, costuri sau rate de defecte). Cum a fost „împachetat” pentru medii corporate: VM-uri, audit și acces limitat Un element central al implementării descrise este controlul asupra datelor și al accesului. Codex ar suporta conexiuni SSH (Secure Shell) la mașini virtuale (VM) aprobate în cloud, astfel încât agenții să lucreze cu date reale ale companiei fără expunere externă, potrivit NVIDIA. Pentru „securitate și auditabilitate”, NVIDIA IT ar fi livrat câte o mașină virtuală în cloud pentru fiecare angajat, ca „sandbox” dedicat. Implementarea ar include: politică de „zero data retention” (fără păstrarea datelor), acces la sisteme de producție în regim „read-only” (doar citire) prin interfețe de linie de comandă și „Skills” (un set de unelte pentru agenți, folosite și în automatizările interne ale companiei). Context: colaborarea NVIDIA–OpenAI și dimensiunea infrastructurii NVIDIA plasează rollout-ul GPT‑5.5/Codex într-un parteneriat cu OpenAI început în 2016, când Jensen Huang ar fi livrat personal primul supercomputer NVIDIA DGX‑1 la sediul OpenAI din San Francisco. Compania mai afirmă că OpenAI s-a angajat să implementeze „peste 10 gigawați” de sisteme NVIDIA pentru infrastructura sa de generație următoare, o extindere care „va pune milioane de GPU-uri NVIDIA” la baza antrenării și inferenței pentru anii următori. În același context, NVIDIA menționează un „milestone” comun: aducerea în funcțiune a „primului cluster GB200 NVL72 cu 100.000 de GPU-uri”, despre care spune că a rulat antrenări la scară mare și a stabilit un nou reper de fiabilitate la nivel de sistem. Într-un e-mail intern citat de companie, CEO-ul Jensen Huang le-ar fi cerut angajaților să folosească Codex: „Să trecem la viteza luminii. Bine ați venit în era AI.” Pentru detalii despre model, NVIDIA trimite la anunțul OpenAI: OpenAI . [...]

Marile companii tech își reduc personalul ca să elibereze bugete pentru investițiile în AI , într-un context în care costurile cu infrastructura (centre de date, procesoare grafice și alte echipamente) cresc rapid, potrivit Mobilissimo . Ideea centrală: disponibilizările sunt prezentate mai degrabă ca o decizie de finanțare și reechilibrare a cheltuielilor, nu ca efect direct al înlocuirii angajaților cu inteligență artificială. Meta : concedieri și cheltuieli de capital în creștere În cazul Meta, compania ar urma să elimine aproximativ 8.000 de locuri de muncă pe 20 mai 2026, pe fondul accelerării investițiilor în infrastructura necesară dezvoltării AI. Într-o întâlnire internă de la finalul lunii aprilie, Mark Zuckerberg le-ar fi transmis angajaților că presiunea vine din nevoia de a echilibra bugetul, în condițiile „exploziei” cheltuielilor pentru AI. Meta și-a majorat estimările privind cheltuielile de capital pentru 2026 la 125–145 de miliarde de dolari (aprox. 563–653 mld. lei). „Salariile sunt printre puținele costuri ajustabile rapid” Potrivit materialului, dezbaterea a fost amplificată de un schimb de poziții în care cofondatorul Zoho, Sridhar Vembu, comentează un mesaj al inginerului Meta Arnav Gupta despre viitoare concedieri. Vembu susține că firmele tehnologice reduc personalul deoarece salariile sunt una dintre puținele categorii de costuri care pot fi ajustate rapid. Totodată, el pune sub semnul întrebării eficiența economică a investițiilor masive în AI, argumentând că industria nu a demonstrat încă faptul că aceste cheltuieli se traduc în productivitate și venituri proporționale. Amploarea restructurărilor: date pentru T1 2026 Datele citate de The Kobeissi Letter indică o accelerare puternică a concedierilor în sectorul tehnologic: Concedieri în T1 2026: 81.747 Creștere față de T4 2025: 580% Posturi eliminate în martie 2026: 45.800 Nivelul concedierilor: cel mai ridicat din ultimii peste doi ani Nu e doar Meta: Oracle și alți jucători Fenomenul ar depăși cazul Meta. Oracle ar fi eliminat până la 30.000 de locuri de muncă pentru a elibera între 8 și 10 miliarde de dolari anual (aprox. 36–45 mld. lei) destinați extinderii infrastructurii AI, potrivit TD Cowen. În același context sunt menționate restructurări și la Amazon, Microsoft, Coinbase și Block, în paralel cu majorarea investițiilor în inteligență artificială. Arnav Gupta avertizează că disponibilizările ar putea continua până când companiile vor reuși să transforme investițiile în AI în venituri măsurabile și profit, nu doar în infrastructură costisitoare. [...]

Google testează în Gemini Live un selector de modele AI cu 7 variante , o schimbare care ar muta o parte din controlul experienței de conversație de la companie către utilizator, potrivit unei analize de tip teardown citate de Mobilissimo , realizată pe aplicația Google (versiunea 17.18.22), cu câteva zile înainte de Google I/O 2026. Miza operațională este semnificativă: până acum, Google ar fi gestionat automat ce model rulează în funcție de context sau de abonament, în timp ce noul mecanism ar permite alegerea manuală a modelului folosit în conversațiile din Gemini Live. Ce s-a găsit în aplicație și de ce contează În codul aplicației ar fi apărut un „selector intern” de modele AI, cu șapte opțiuni, unele orientate spre raționament avansat, altele spre personalizare. Google nu a confirmat public existența acestor modele, iar informația rămâne la nivel de indicii din aplicație, nu de anunț oficial. Separat, în aceeași zonă de funcții în lucru apare și un nou „Thinking Mode”, descris ca un mod în care modelul ar „gândi” mai mult înainte să răspundă, pentru rezultate mai detaliate. Mobilissimo notează că, potrivit unor informații publicate anterior de 9to5Google , acest mod ar extinde capabilitățile de „reasoning” (raționament) deja disponibile în Gemini 3 Pro. Funcții asociate: memorie, cameră și personalizare Tot din referințele identificate în aplicație sunt menționate mai multe direcții de dezvoltare pentru Gemini Live: memorie multimodală; gestionare mai bună a zgomotului ambiental; răspunsuri bazate pe ceea ce vede camera; personalizare folosind aplicațiile Google ale utilizatorului; funcții experimentale integrate în Gemini Live. Android Authority ar susține, de asemenea, că Google pregătește eliminarea unor opțiuni mai vechi de voce pentru Gemini, un indiciu că interfața și experiența de utilizare ar urma să fie redesenate. Context: Google I/O 2026, cu AI în prim-plan Google I/O 2026 este programat în perioada 19–20 mai, iar compania a confirmat că accentul principal va fi pe inteligența artificială. Invitațiile oficiale menționează „actualizări Gemini” și tehnologii de tip „agentic coding” (instrumente care pot executa pași de programare în mod semi-autonom). În paralel, în ultimele săptămâni au circulat zvonuri despre modele precum Gemini 3.5 Pro și Gemini 3.2 Flash, dar și despre alte produse/inițiative (inclusiv Aluminium OS, ochelari Android XR și funcții noi pentru Android 17). Mobilissimo mai notează și o posibilă reproiectare a interfeței Gemini, inclusiv eliminarea modului fullscreen din Gemini Live și integrarea unui model video cu numele intern „Omni”. Deocamdată, fără confirmare oficială din partea Google, rămâne de văzut dacă selectorul de modele și „Thinking Mode” vor fi anunțate la I/O și în ce formă vor ajunge la utilizatori. [...]

Apple își ține cheltuielile de capital departe de „cursa AI” și preferă să-și conserve marjele și randamentele pentru acționari, într-un moment în care rivalii direcționează sume uriașe către infrastructură de inteligență artificială, potrivit G4Media . În timp ce Microsoft, Amazon, Meta și Alphabet își cresc masiv investițiile pentru modele AI și centre de date, Apple rămâne singurul gigant tech care nu a intrat „agresiv” în această competiție, arată Il Post, citat de Mediafax. Conform estimărilor menționate, Alphabet, Amazon, Microsoft și Meta ar urma să investească împreună aproximativ 700 de miliarde de dolari (aprox. 3.150 miliarde lei) în acest an în infrastructură AI și data center-e. Reducerea capex și dependența parțială de parteneri În contrast cu trendul din industrie, Apple și-a redus cu 36% cheltuielile de capital în ultimul an, potrivit aceleiași surse. Compania ar fi ales să nu dezvolte pe scară largă propriile modele lingvistice și nici infrastructura necesară pentru antrenarea lor. În plus, „ Apple Intelligence ”, lansată în 2024, se bazează parțial pe tehnologia OpenAI, iar Apple a anunțat recent și un acord cu Google pentru integrarea modelului Gemini în Siri și alte servicii. Miza economică: hardware și răscumpărări de acțiuni G4Media notează că Apple își bazează în continuare modelul de business în principal pe vânzarea de hardware, în special iPhone și Mac, mizând că utilizatorii vor accesa servicii AI prin dispozitivele sale indiferent cine furnizează tehnologia din spate. Strategia „funcționează, cel puțin deocamdată”, în contextul în care Apple a raportat recent o creștere anuală de 17% a vânzărilor nete, susținută inclusiv de succesul noului MacBook Neo. Tim Cook a declarat că „cererea a fost extrem de mare”, iar G4Media menționează că acesta urmează să fie înlocuit în septembrie de John Ternus . Pe partea de alocare a capitalului, Apple continuă programul de răscumpărare a propriilor acțiuni și a anunțat un nou buyback de 100 de miliarde de dolari (aprox. 450 miliarde lei), o practică folosită de peste un deceniu pentru a crește valoarea acțiunilor și randamentele pentru investitori. Ce riscă și ce ar putea urma Potrivit materialului, o parte dintre analiști văd în această prudență o evitare a riscului unei posibile bule speculative în jurul AI, în condițiile în care investițiile sunt foarte costisitoare, iar GPU-urile (plăci grafice specializate pentru calcule) își pot pierde rapid valoarea, uneori în mai puțin de doi ani. Pe de altă parte, există avertismente că Apple ar putea repeta erori strategice ale unor foști giganți precum Nokia sau Motorola, care nu au anticipat revoluția smartphone-urilor și au fost depășiți. G4Media mai arată că, potrivit unor informații apărute în presa americană, Apple lucrează la dispozitive noi pentru „era AI”, inclusiv ochelari inteligenți și dispozitive purtabile, pe o piață unde competiția se intensifică (OpenAI cu Jony Ive, respectiv Meta cu ochelari smart împreună cu EssilorLuxottica). Sub viitorul CEO John Ternus, compania ar putea totuși să-și ajusteze strategia, în condițiile în care a raportat deja o creștere a cheltuielilor de cercetare-dezvoltare de la 8,5 la 11,4 miliarde de dolari (aprox. 38,3–51,3 miliarde lei) într-un singur an, pe fondul proiectelor legate de inteligența artificială. [...]