Știri
Știri din categoria Inteligență artificială

Nvidia investește 4 miliarde de dolari în Lumentum și Coherent pentru a accelera infrastructura AI, într-un pariu major pe tehnologia interconectărilor optice necesare viitoarelor centre de date dedicate inteligenței artificiale. Potrivit Channel News Asia, compania americană va aloca câte 2 miliarde de dolari fiecărei firme, în cadrul unor acorduri strategice multianuale.
Investițiile sunt însoțite de angajamente de achiziții de ordinul miliardelor de dolari și de drepturi de acces la capacități viitoare de producție pentru echipamente laser și soluții avansate de rețelistică optică. În paralel, Nvidia a anunțat parteneriatul direct cu Lumentum printr-un comunicat oficial publicat pe site-ul companiei Nvidia.

Ambele acorduri au o componentă strategică internă. Lumentum intenționează să construiască o nouă unitate de fabricație în Statele Unite, în timp ce Coherent va folosi finanțarea pentru a-și extinde operațiunile americane și capacitățile de cercetare și dezvoltare. Obiectivul este consolidarea lanțului de aprovizionare local pentru componente esențiale centrelor de date AI.
Directorul executiv al Nvidia, Jensen Huang, a declarat că dezvoltarea inteligenței artificiale generează „cea mai amplă construcție de infrastructură de calcul din istorie”, iar fotonica pe siliciu va sta la baza noii generații de centre de date la scară de gigawați.
Pe măsură ce centrele de date AI conectează mii sau chiar milioane de unități de procesare grafică, cablurile tradiționale din cupru devin limitative din punct de vedere al latenței și al consumului energetic. Soluțiile optice oferă viteze mai mari și eficiență energetică superioară pentru legăturile dintre rack-uri și clădiri.
Acordurile poziționează Lumentum și Coherent drept furnizori-cheie în tranziția către infrastructuri optice pentru inteligență artificială. Reacția pieței a fost imediată: acțiunile ambelor companii au crescut cu peste 7% în tranzacțiile pre-deschidere, potrivit relatărilor financiare.
Prin această mișcare, Nvidia își consolidează controlul asupra lanțului tehnologic necesar expansiunii globale a centrelor de date AI, într-un moment în care competiția pentru infrastructură devine la fel de intensă ca dezvoltarea cipurilor în sine.
Recomandate

Meta își extinde supravegherea internă a muncii pentru a genera date de antrenare IA , printr-un instrument care va rula pe computerele și aplicațiile interne și va înregistra activitatea angajaților, inclusiv tastele apăsate și clicurile de mouse, potrivit G4Media . Miza operațională este dublă: compania își accelerează dezvoltarea de inteligență artificială folosind date „din producție”, dar crește și presiunea asupra angajaților într-un moment în care sunt așteptate noi reduceri de personal. Instrumentul a fost comunicat angajaților marți și, conform informațiilor din material, va înregistra activitatea din sistemele interne pentru a fi folosită ca set de date la antrenarea tehnologiei de inteligență artificială. BBC a aflat că activitatea angajaților pe un computer Meta ar fi fost accesibilă companiei și înainte, însă utilizarea explicită a urmăririi și înregistrării în scop de instruire și îmbunătățire a instrumentelor IA este elementul nou. Ce se schimbă în practică Din descrierea din articol, noul instrument ar urma să ruleze pe: computerele angajaților Meta; aplicațiile interne ale companiei, și să înregistreze activitatea acestora pentru a o transforma în date de antrenare pentru modele de inteligență artificială. Reacțiile interne citate de BBC indică tensiuni: un angajat care a cerut anonimatul a descris situația drept „foarte distopică”, iar o persoană care a părăsit recent compania a spus că este „doar cea mai recentă modalitate prin care ne impun IA pe gât”. Context: reduceri de personal și înghețarea angajărilor Schimbarea vine pe fondul restructurărilor. Meta a concediat deja aproximativ 2.000 de angajați în acest an, în valuri mai mici, iar angajații se așteaptă la pierderi de locuri de muncă mai mari în lunile următoare, conform articolului. Totodată, luna trecută compania a adoptat o înghețare parțială a angajărilor, care „pare să aibă o amploare mai mare”: site-ul de recrutare folosit de Meta afișa aproximativ 800 de anunțuri în martie, iar acum promovează doar șapte. Un purtător de cuvânt al Meta a refuzat să comenteze eliminarea anunțurilor sau planurile de reduceri, potrivit materialului. De ce contează pentru business Din perspectivă operațională, Meta încearcă să-și alimenteze rapid proiectele de inteligență artificială cu date generate din activitatea internă, într-un moment în care Mark Zuckerberg s-a angajat să crească cheltuielile pentru IA în acest an și să poziționeze compania în fruntea tehnologiei. În același timp, măsura amplifică riscurile de climat intern și de retenție a talentelor, mai ales pe fondul concedierilor și al înghețării angajărilor descrise în articol. [...]

Posibila numire a lui John Ternus la conducerea Apple ar muta accentul strategiei AI spre dispozitive , nu doar spre modele și servicii, iar asta poate conta direct în competiția cu rivalii care împing masiv „AI în cloud”, potrivit unei analize publicate de CNET . Textul pornește de la ideea că un CEO cu profil puternic de „hardware” (adică orientat spre proiectarea și integrarea componentelor și a produsului final) ar putea fi un avantaj pentru planurile Apple în inteligență artificială, tocmai pentru că diferențiatorul companiei a fost istoric combinația strânsă dintre dispozitive, software și servicii. De ce contează pentru AI: controlul asupra „cutiei” în care rulează tehnologia În logica CNET, AI-ul Apple are mai multe șanse să se distingă dacă este împachetat în produse și funcții care rulează eficient pe dispozitivele companiei, unde Apple controlează atât arhitectura hardware, cât și sistemele de operare. Un lider format în zona de hardware ar înclina natural spre această abordare: optimizare la nivel de dispozitiv, integrare și livrare de funcții AI ca parte din experiența produsului. Această direcție ar putea susține o strategie în care AI-ul nu este perceput ca un „add-on” (o funcție adăugată ulterior), ci ca o componentă proiectată împreună cu produsul. Limitările informației din sursă Materialul CNET este un comentariu/analiză și nu oferă, în fragmentul disponibil, detalii operaționale verificabile despre un plan concret de implementare, termene sau investiții. De asemenea, nu sunt prezentate cifre sau indicatori financiari care să permită o evaluare a impactului economic pe termen scurt. În consecință, concluzia rămâne una de interpretare editorială: un CEO „de hardware” ar putea fi potrivit pentru o strategie AI centrată pe dispozitive, însă direcția efectivă depinde de deciziile companiei și de execuție. [...]

Google își separă noile TPU-uri pentru antrenare și inferență, o schimbare care poate reduce consumul de energie în centrele de date, dar fără garanții că economiile se vor vedea în prețurile plătite de clienți , potrivit Android Authority . La Cloud Next 2026, compania a anunțat a opta generație de Tensor Processing Units (TPU) pentru centrele sale de date, împărțită în două familii: TPU 8t pentru antrenarea modelelor de inteligență artificială și TPU 8i pentru inferență (rularea efectivă a modelelor, adică generarea de răspunsuri și predicții pe baza a ceea ce au învățat). Miza operațională este folosirea de hardware diferit pentru sarcini cu cerințe diferite, în locul unei abordări „un singur cip pentru toate”. De ce contează separarea: energie, răcire și costuri de operare Google susține că această separare răspunde diferențelor de consum și putere de calcul dintre antrenare și inferență. În practică, compania spune că abordarea poate reduce consumul de energie al centrelor de date, ceea ce ar însemna atât costuri operaționale mai mici, cât și un impact de mediu redus. Publicația notează și un efect colateral invocat în text: dacă inferența devine mai eficientă energetic, utilizarea unor servicii precum Gemini ar putea necesita mai puțină apă pentru răcirea centrelor de date (mențiune formulată ca speranță, nu ca angajament ferm). Context tehnic, pe scurt: de ce antrenarea „cere” alt hardware decât inferența Android Authority explică diferența prin natura celor două procese: Antrenarea rețelelor neuronale este intensă: folosește memorie cu lățime mare de bandă și clustere mari de procesoare, deoarece presupune actualizarea a miliarde de parametri în fiecare secundă. Include „propagarea inversă a erorilor” (backpropagation), adică bucle repetate de feedback prin care modelul este optimizat pe setul de antrenament. Inferența este, în general, mai puțin solicitantă și poate rula pe hardware mai puțin capabil, cu consum mai mic de memorie. Concluzia operațională a sursei: folosirea aceluiași hardware pentru ambele tipuri de sarcini poate duce la costuri mai mari, ceea ce ridică „costul efectiv” al inferenței. Întrebarea rămasă: cine păstrează beneficiul economic Deși Google pune accent pe beneficiile de mediu ale TPU-urilor dedicate inferenței, Android Authority spune că nu a văzut promisiuni explicite privind reducerea costurilor pentru clienți. Rămâne de văzut dacă economiile din eficiență vor fi transferate către consumatori sau vor rămâne la companie și partenerii săi. În același context, sursa amintește că Google a mai avut TPU v5e (unde „e” ar veni de la eficiență) pentru operațiuni la scară mai mică, iar TPU 8i ar părea o adaptare pentru scară mare. În paralel, Amazon urmărește o direcție similară cu AWS Inferentia. [...]

România rămâne la coada Europei la utilizarea inteligenței artificiale, cu implicații directe pentru productivitate și competitivitate , în condițiile în care doar 18% dintre persoane spun că au folosit instrumente AI în ultimele trei luni, arată o analiză preluată de Economedia , pe baza datelor Eurostat și IAB UK, citate de Visual Capitalist . Diferențele între state sunt mari și conturează o separare între nordul continentului, unde folosirea AI a devenit uzuală, și sud-estul Europei, unde nivelurile rămân semnificativ mai scăzute. Nordul Europei trage media în sus În fruntea clasamentului este Norvegia, cu 56,3% dintre respondenți care declară că au folosit AI în ultimele trei luni. În grupul țărilor cu adopție ridicată apar și: Danemarca: 48,4% Elveția: 47% Estonia: 46,6% Malta: 46,5% Finlanda: 46,3% Irlanda: 44,9% Țările de Jos: 44,7% Sudul și estul Europei, mult sub lideri. România, ultima În Europa de Sud și Sud-Est, utilizarea raportată este considerabil mai redusă: Italia este la aproximativ 20%, Turcia la 19%, iar România rămâne ultima, cu 18%. În același timp, analiza indică diferențe mari chiar în interiorul aceleiași regiuni: Grecia și Cipru sunt la aproximativ 44%, iar Malta ajunge la 47%. Economiile mari nu domină adopția AI Datele arată că mărimea economiei nu se traduce automat într-o utilizare mai mare a inteligenței artificiale. Germania și Regatul Unit sunt la aproximativ o treime din populație, iar Franța și Spania se află în zona de mijloc, cu 30–40%. Tinerii accelerează utilizarea Analiza semnalează și o diferență generațională: în Marea Britanie, deși media generală este de 34%, în rândul tinerilor de 15–24 de ani aproximativ un sfert folosesc zilnic instrumente AI, ceea ce sugerează că avansul viitor al adopției poate veni din schimbarea generațiilor. (Analiza originală este publicată de Visual Capitalist: Visual Capitalist .) [...]

Apple pregătește o schimbare operațională majoră pentru Siri, trecând de la comenzi punctuale la conversații continue și integrare între aplicații , potrivit TechRadar . Miza este ca asistentul să poată păstra contextul și să execute sarcini în mai mulți pași, într-un mod mai apropiat de experiența oferită de ChatGPT și alte instrumente de inteligență artificială conversațională. Apple ar urma să prezinte noua versiune la Worldwide Developers Conference (WWDC), care se deschide pe 8 iunie, iar schimbările sunt asociate cu iOS 27 , conform materialului. Ce se schimbă în utilizarea Siri Cea mai vizibilă modificare ar fi modul de interacțiune: în loc de solicitări izolate („setează un timer”, „care e vremea”), Siri ar urma să permită dialoguri cu întrebări de continuare și solicitări combinate în aceeași sesiune. Practic, asistentul ar „ține minte” firul conversației, astfel încât utilizatorul să nu fie nevoit să reia cererea de la zero de fiecare dată. TechRadar notează că această direcție aliniază Siri la așteptările formate deja de utilizatori în interacțiunea cu chatboți precum ChatGPT. Integrare între aplicații și folosirea „contextului personal” Dincolo de interfață, schimbarea cu impact practic este extinderea funcționării „peste” aplicații și servicii. Siri ar urma să poată folosi context personal și informația de pe ecran pentru a duce la capăt sarcini în mai mulți pași, inclusiv prin referințe la mesaje, e-mailuri și alte date. Un exemplu de utilizare descris în articol: Siri ar putea analiza o conversație, extrage un detaliu relevant și apoi acționa pe baza lui, fără instrucțiuni separate pentru fiecare etapă. Interfață nouă și experiență de tip „chat” Publicația mai scrie că Apple ar muta Siri din modul tradițional de afișare pe tot ecranul către o prezență mai integrată, inclusiv în Dynamic Island pe iPhone-urile mai noi, unde asistentul s-ar extinde la activare. În paralel, ar exista indicii despre o aplicație dedicată Siri, cu istoric de conversații și o prezentare familiară utilizatorilor de chatboți, deși transformarea principală ar fi „sub capotă”, în capabilitățile de procesare și integrare. Ce tehnologie ar putea sta în spate TechRadar menționează că Apple ar miza pe capabilități de tip „model lingvistic mare” (LLM – sisteme antrenate pe volume mari de text pentru a genera și înțelege limbaj), cu suport din partea modelelor Gemini ale Google . În acest scenariu, întrebări care înainte necesitau căutare pe web sau un chatbot separat ar putea fi rezolvate direct de Siri. De ce contează pentru piață și utilizatori Schimbarea vine pe fondul percepției că Apple a rămas în urmă în zona de inteligență artificială conversațională, în timp ce competitori au avansat cu sisteme generative. Articolul subliniază și o diferență de strategie: Apple ar integra aceste capabilități direct în Siri, nu ca parte a brandului Apple Intelligence. Rămâne de văzut cât de completă va fi implementarea la momentul prezentării și ce funcții vor fi disponibile efectiv odată cu iOS 27, întrucât informațiile descrise se bazează pe detalii „scăpate” și pe relatări din piață, nu pe specificații confirmate oficial. [...]

Meta testează în WhatsApp o funcție de rezumare cu inteligență artificială care procesează mesajele într-un mediu izolat , o abordare menită să reducă riscurile de confidențialitate atunci când utilizatorii cer sinteze ale mai multor conversații necitite, potrivit WinFuture . Funcția vizează în special utilizatorii care participă în multe grupuri active și se confruntă cu „avalansa” de mesaje după perioade mai lungi în care nu au folosit telefonul. În loc să deschidă fiecare chat pe rând pentru o privire de ansamblu, utilizatorii ar urma să poată genera dintr-un singur loc un rezumat al mai multor discuții. Cum ar funcționa rezumarea direct din inbox Noutatea ar apărea în inbox atunci când este activ filtrul pentru mesaje necitite. În acel context, WhatsApp ar afișa un buton dedicat, iar apăsarea lui ar genera un „rezumat compact” al discuțiilor ratate, pentru mai multe chat-uri simultan. Până acum, conform descrierii, utilizatorii trebuie să intre în fiecare conversație în parte pentru a solicita o sinteză, ceea ce face procesul mai lent când există multe mesaje necitite. Miza: confidențialitatea, prin „Private Processing” Potrivit informațiilor citate de publicație din WABetaInfo , funcția este în testare pentru Android și iOS și folosește o tehnologie numită „Private Processing”, gândită să păstreze confidențialitatea comunicării. Implementarea se bazează pe „ Trusted Execution Environments ” (TEE) – zone izolate, la nivel de hardware, în interiorul procesorului, folosite pentru procesarea sigură a datelor sensibile. WinFuture notează câteva elemente-cheie ale arhitecturii descrise: procesarea are loc într-un mediu izolat; transferul datelor către sistemul de inteligență artificială se face prin canale securizate care „ascund identitatea” utilizatorilor; mesajele ar urma să fie șterse imediat după procesare; conținutul nu ar fi folosit pentru antrenarea modelelor; Meta și WhatsApp nu ar avea acces la conținutul conversațiilor rezumate. Publicația mai menționează că firme independente de securitate, precum NCC Group, au verificat deja arhitectura pentru fiabilitate. Limitări și disponibilitate Un posibil minus, potrivit sursei, este că în conversații foarte complexe rezumatul automat poate pierde nuanțe sau context, ceea ce înseamnă că utilizatorul ajunge să se bazeze pe interpretarea software-ului. Nu este clar când va fi disponibilă funcția pentru toți utilizatorii. Instrumentul ar urma să fie opțional și ar necesita activare explicită din setările aplicației. [...]