Știri
Știri din categoria Inteligență artificială

Într-un episod recent al podcastului realizat de Dwarkesh Patel și John Collison, cofondatorul Stripe, Elon Musk a declarat că, în următorii cinci ani, majoritatea infrastructurii globale de inteligență artificială va funcționa din spațiu, nu de pe Pământ, estimând că, anual, va fi lansată în orbită mai multă putere de calcul AI decât întreaga capacitate cumulată de pe planetă.
Musk susține că în mai puțin de trei ani spațiul va deveni „cea mai rentabilă locație pentru a instala sisteme AI”, iar planul său presupune lansarea unei mega-constelații de până la un milion de sateliți alimentați cu energie solară, care să funcționeze ca centre de date orbitale. Afirmațiile sale vin la scurt timp după ce SpaceX a depus o cerere oficială la Comisia Federală de Comunicații (FCC) din SUA pentru a lansa acest sistem global, intitulat „SpaceX Orbital Data Center System”.
Aceste planuri fac parte dintr-un proiect mai amplu ce a culminat cu fuziunea dintre SpaceX și compania de inteligență artificială xAI, fondată de Musk. Finalizată pe 2 februarie 2026, tranzacția a dus la formarea celei mai valoroase companii private din istorie, evaluată la circa 1,25 trilioane dolari. Aceasta reunește rachetele Starship, chatbotul Grok, rețeaua socială X și noile ambiții orbitale AI sub o singură structură corporativă.
Musk estimează că vor fi necesare până la 10.000 de lansări anuale pentru atingerea viziunii sale, de peste 60 de ori mai multe decât recordul de 165 lansări pe care SpaceX l-a atins în 2025.
Deși ideea pare revoluționară, mulți specialiști sunt sceptici:
Pe de altă parte, Musk susține că răcirea naturală din spațiu și eliminarea limitărilor de energie și spațiu de pe Pământ justifică mutarea infrastructurii AI în afara atmosferei.
FCC a acceptat cererea și a deschis perioada de consultare publică, în timp ce investitorii privesc cu interes o posibilă listare la bursă a noului colos format de fuziunea SpaceX–xAI, care ar putea atrage până la 50 miliarde dolari, potrivit The New York Times.
Dacă planurile lui Musk vor deveni realitate, următorii cinci ani ar putea marca o schimbare radicală în modul în care omenirea gestionează datele și energia necesare dezvoltării inteligenței artificiale.
Recomandate

Jensen Huang spune că AI declanșează „cea mai mare construcție de infrastructură tehnologică” și împinge economia spre reindustrializare. Într-un discurs la ceremonia de absolvire a Carnegie Mellon University , CEO-ul NVIDIA a descris, potrivit NVIDIA , inteligența artificială drept motorul unei transformări care va schimba „fiecare industrie”, cu efecte directe asupra investițiilor în infrastructură și asupra modului în care se organizează munca. Huang a tras o paralelă între începutul carierei sale în perioada „revoluției PC” și momentul actual, pe care îl numește începutul „revoluției AI”. Mesajul central: schimbarea de platformă tehnologică este mai amplă decât cele anterioare (PC, internet, mobil, cloud) deoarece „inteligența” este „fundamentală” pentru toate domeniile economiei. De ce contează: AI ca val de investiții și reorganizare a muncii În discurs, Huang a susținut că AI alimentează „cea mai mare extindere a infrastructurii tehnologice din istoria omenirii” și o „oportunitate o dată pe generație” de a „reindustrializa America” și de a reconstrui capacitatea țării „de a produce/ a construi”. El a extins impactul dincolo de sectorul tehnologic, indicând că beneficiile și cererea de competențe vor apărea într-o plajă largă de ocupații, inclusiv în meserii și roluri operaționale precum electricieni, instalatori, muncitori în construcții metalice, tehnicieni și „toate tipurile de constructori”. Automatizare vs. valoare adăugată: cum descrie NVIDIA efectul asupra joburilor Huang a argumentat că AI „automatizează sarcini, dar ridică nivelul lucrătorilor”, insistând asupra diferenței dintre „sarcină” și „scopul” unei profesii. Exemplul folosit a fost radiologia: AI poate automatiza citirea imaginilor (sarcina), dar rolul medicului rămâne îngrijirea pacientului (scopul), ceea ce ar muta accentul spre activități cu valoare mai mare. Reguli și responsabilitate: „siguranța” AI, în paralel cu avansul tehnologic O parte importantă a mesajului a vizat riscurile și guvernanța (setul de reguli și mecanisme de control) pentru AI. Huang a spus că „responsabilitatea generației noastre” este să avanseze AI „înțelept” și a cerut ca dezvoltarea capabilităților să meargă împreună cu „siguranța AI”. În același timp, a atribuit un rol explicit decidenților publici, care ar trebui să creeze „balize/limite” („guardrails”) pentru protecția societății, fără a bloca inovația. Recomandarea lui pentru a „răspunde momentului” a fost un set de patru direcții urmărite simultan: avans „în siguranță”; politici „gândite”; acces larg la AI; încurajarea implicării cât mai multor oameni. Context: discurs la Carnegie Mellon și recunoaștere academică Discursul a fost ținut duminică, la ceremonia de absolvire (a 128-a) a Carnegie Mellon University, în Pittsburgh, Pennsylvania. Huang a amintit rolul universității în istoria AI și roboticii și a primit titlul onorific de Doctor în Știință și Tehnologie, una dintre distincțiile majore ale instituției. În final, el a îndemnat absolvenții să se implice activ în modelarea direcției tehnologiei, avertizând că retragerea societății din fața tehnologiei nu oprește progresul, ci reduce capacitatea de a-i influența efectele. [...]

Google extinde în Europa o versiune de Google Finance cu funcții pe bază de inteligență artificială , mizând pe acces mai rapid la informații financiare și pe instrumente de analiză direct în produs, potrivit Google Blog . Lansarea are loc „săptămâna aceasta” și include suport complet pentru limbile locale, într-o versiune „reimaginată” a Google Finance, care adaugă capabilități orientate spre documentare, vizualizare și urmărirea evenimentelor de piață în timp real. Ce se schimbă pentru utilizatori și pentru fluxul de analiză Noul Google Finance introduce un set de funcții care mută o parte din munca de căutare și sinteză în interiorul platformei: Cercetare asistată de AI : utilizatorii pot întreba despre acțiuni individuale sau tendințe mai largi de piață și primesc un răspuns generat de AI, însoțit de linkuri pentru aprofundare. Pentru întrebări mai complexe, este disponibil „ Deep Search ”, menționat ca fiind acum disponibil global în Google Finance. Vizualizări avansate : instrumente noi de graficare permit afișarea unor indicatori tehnici (de exemplu, „moving average envelopes” – benzi construite în jurul unei medii mobile, folosite în analiza tehnică) și identificarea momentelor-cheie din grafice, cu explicații despre motivele mișcării de preț din ziua respectivă. Informații în timp real : un flux de știri refăcut și date extinse pentru mărfuri și criptomonede, pentru urmărirea piețelor pe măsură ce se mișcă. Rezultate financiare „live” : urmărirea teleconferințelor de raportare (earnings calls) cu audio live, transcrieri sincronizate și „insight-uri” generate de AI, inclusiv evidențieri adnotate. De ce contează: presiune pe viteza de documentare și pe instrumentele clasice Din perspectiva utilizării, extinderea în Europa cu suport local de limbă sugerează o încercare de a standardiza, la scară regională, un mod de lucru în care utilizatorul obține rapid o sinteză și apoi aprofundează prin surse linkuite, fără să iasă din produs. În același timp, integrarea transcrierilor și a „insight-urilor” pentru teleconferințe poate reduce timpul necesar pentru a parcurge integral apelurile cu investitorii, mai ales în zilele aglomerate de raportări. Google nu oferă în material o listă de țări, un calendar detaliat pe piețe sau indicatori de adopție; informațiile disponibile se limitează la faptul că lansarea are loc în Europa „săptămâna aceasta” și că include suport complet pentru limbile locale. [...]

Managerii care fac doar „people management” și angajații care refuză schimbarea riscă să fie scoși din joc pe măsură ce AI intră în fluxurile de lucru , avertizează CEO-ul Airbnb , Brian Chesky, într-o intervenție citată de HotNews . Mesajul are o miză operațională directă: rolurile de coordonare și execuție vor fi evaluate tot mai mult prin capacitatea de a lucra efectiv cu instrumente de inteligență artificială, nu doar prin supraveghere sau rutină. Chesky spune că două categorii „nu vor supraviețui erei inteligenței artificiale”: managerii care se ocupă exclusiv de gestionarea oamenilor și angajații „rigizi”, care nu vor să se schimbe și să evolueze. Declarațiile au fost făcute în podcastul „Invest Like The Best”, potrivit revistei Fortune. Ce se schimbă în rolul de manager În viziunea CEO-ului Airbnb, pe măsură ce AI modifică structurile companiilor și felul în care se muncește, șefii trebuie să devină „manageri de personal hibrizi”. Concret, asta înseamnă o abordare mai tehnică și o legătură mai strânsă cu produsul sau rezultatul final, nu doar coordonare administrativă. „Nu cred că managerii de personal vor avea vreo valoare în viitor. Când mă refer la managerii de personal, mă refer la oameni care gestionează doar oameni.” Chesky adaugă că relațiile cu echipa rămân importante, dar „simpla supraveghere” nu mai este suficientă; accentul se mută pe gestionarea oamenilor „pe parcursul activității”, în contextul concret al muncii. Presiunea pe angajați: adaptarea devine criteriu de performanță CEO-ul Airbnb susține că nici angajaților care cred că pot evita noua tehnologie nu le va fi mai ușor. În același timp, el își păstrează o perspectivă relativ optimistă, argumentând că instrumentele pot fi învățate „foarte ușor”, dacă există o „mentalitate de creștere”. În context, HotNews amintește și alte avertismente din industrie: CEO-ul Anthropic, Dario Amodei, a spus că AI ar putea afecta jumătate din munca de birou de nivel începător, iar șeful departamentului de AI al Microsoft, Mustafa Suleyman , a estimat că „majoritatea, dacă nu toate” sarcinile de birou ar putea fi automatizate în 12–18 luni (menționat de HotNews într-un material separat). La ce să se aștepte companiile Mesajul central al lui Chesky mută discuția de la „AI va lua joburi” la „AI va schimba conținutul joburilor”: companiile vor cere tot mai mult competențe practice de lucru cu AI, inclusiv de la manageri. În acest cadru, rolurile care nu se conectează la livrarea efectivă a muncii – sau care resping schimbarea – devin mai vulnerabile. [...]

YouTube testează o căutare cu AI care schimbă modul în care utilizatorii găsesc conținut , trecând de la o listă de rezultate la răspunsuri structurate și conversații interactive, potrivit Antena 3 . Noua funcție, descrisă ca un instrument de căutare bazat pe inteligență artificială, este gândită să ofere utilizatorilor răspunsuri „mai clare și ghidate”, inclusiv pentru întrebări mai complexe, cum ar fi planificarea unei excursii. Antena 3 notează că informația este preluată de la TechCrunch. Ce aduce „ Ask YouTube ” în căutare Funcția, numită „Ask YouTube”, permite utilizatorilor să formuleze întrebări, iar sistemul răspunde într-un format interactiv, cu pași și recomandări. În locul afișării clasice a unei liste de videoclipuri, rezultatele combină: text explicativ; clipuri video scurte și lungi, integrate în răspuns. Un element central este continuitatea: utilizatorii pot reveni cu întrebări suplimentare, iar sistemul păstrează formatul interactiv și poate sugera locuri sau opțiuni relevante, conform aceleiași surse. Cine are acces și ce urmează Deocamdată, funcția este disponibilă doar pentru abonații YouTube Premium din Statele Unite, cu vârsta de peste 18 ani, care aleg să participe la test. Google lucrează la extinderea accesului și pentru restul utilizatorilor, însă articolul nu precizează un calendar sau piețe vizate pentru lansarea mai largă. De ce contează schimbarea Inițiativa este prezentată ca parte din strategia mai amplă de integrare a inteligenței artificiale în experiența de căutare, cu accent pe răspunsuri mai complexe, interactive și adaptate nevoilor utilizatorilor. În practică, miza este o schimbare operațională în felul în care oamenii navighează pe YouTube: mai puțin „căutare și filtrare” și mai mult „întrebare și ghidare” direct în interfață. [...]

Guvernul SUA își extinde controlul asupra AI prin testare înainte de lansare , după ce Google, Microsoft și xAI au acceptat ca modelele lor să fie evaluate de autorități înainte de a ajunge la public, potrivit Mediafax , care citează Euronews. Miza este reducerea riscurilor de securitate națională asociate noilor sisteme de inteligență artificială. Evaluările vor fi coordonate de CAISI , care va analiza riscuri precum securitatea cibernetică, biosecuritatea și posibile utilizări în dezvoltarea armelor chimice. Instituția spune că testarea va include teste tehnice, cercetare comună și elaborarea unor bune practici pentru dezvoltarea modelelor comerciale. „Măsurătorile independente și riguroase sunt esențiale pentru a înțelege impactul AI asupra securității naționale”, a declarat directorul CAISI, Chris Fall. Ce se schimbă pentru companii: verificări înainte de lansare Pentru industria tech, acordul introduce un filtru suplimentar înainte de lansarea publică a unor modele avansate, într-un moment în care autoritățile americane tratează tot mai explicit AI ca pe o tehnologie cu implicații strategice și militare, pe fondul competiției dintre SUA și China. Microsoft a transmis că evaluările guvernamentale ar urma să ajute compania să identifice mai devreme riscurile asociate platformei Copilot, inclusiv posibile atacuri cibernetice bazate pe AI. În paralel, OpenAI a confirmat că a furnizat guvernului american modelul ChatGPT5.5 înainte de lansarea publică, pentru testare de securitate națională. Compania dezvoltă și GPT-5.5-Cyber, un model specializat în apărare cibernetică, destinat unui grup restrâns de utilizatori instituționali. Context politic: o nuanțare a discursului anti-reglementare Decizia este prezentată ca o schimbare de ton în administrația Donald Trump , care a susținut în repetate rânduri că reglementările excesive pot încetini inovația și pot oferi Chinei un avantaj strategic. În martie, Casa Albă a prezentat un nou cadru național privind inteligența artificială, care prevede accelerarea adoptării AI și eliminarea obstacolelor birocratice pentru industrie, dar exclude crearea unei noi agenții federale dedicate exclusiv reglementării AI. Cât s-a testat deja și ce rămâne neclar CAISI afirmă că a realizat până acum aproximativ 40 de evaluări pentru modele AI, inclusiv pentru sisteme de ultimă generație care nu au fost încă lansate public. Autoritățile americane nu au precizat însă ce modele au fost testate și nici ce modificări au fost negociate în noile acorduri cu industria. [...]

NVIDIA și partenerii săi au deschis ca standard MRC, un protocol care crește reziliența rețelelor pentru antrenarea AI la scară foarte mare , după ce a fost folosit în producție pe infrastructura Spectrum‑X, potrivit NVIDIA . Miza este una operațională: în clustere cu mii de GPU-uri, întreruperile sau congestia de rețea pot încetini ori opri antrenări lungi și costisitoare, iar MRC este proiectat să reducă aceste blocaje prin rutare pe mai multe căi și recuperare rapidă la pierderi de pachete. Ce este MRC și de ce contează pentru „fabricile” de AI MRC (Multipath Reliable Connection) este descris ca un protocol de transport RDMA (Remote Direct Memory Access – tehnologie care permite transferuri de date cu latență mică, ocolind o parte din procesarea clasică a sistemului de operare). Concret, MRC permite ca o singură conexiune RDMA să distribuie traficul pe mai multe rute din rețea, cu efecte urmărite direct în exploatare: creșterea debitului (throughput) prin folosirea simultană a mai multor căi; echilibrarea încărcării (load balancing) pentru a evita „punctele fierbinți”; disponibilitate mai bună, prin ocolirea automată a segmentelor cu probleme. NVIDIA susține că MRC ajută la menținerea unui nivel ridicat de utilizare a GPU-urilor, tocmai prin faptul că „ține” lățimea de bandă necesară pe durata antrenării și reduce timpii morți generați de problemele de rețea. Cum funcționează reziliența: rerutare în microsecunde și retransmisie „inteligentă” În arhitectura descrisă, MRC folosește mecanisme care vizează două tipuri de incidente frecvente la scară mare: congestia și pierderile de date. Pe congestie, protocolul ar evita dinamic rutele supraîncărcate „în timp real”, pentru a susține lățime de bandă ridicată chiar și când rețeaua este aglomerată. La pierderi de date, NVIDIA indică o retransmisie „rapidă și precisă”, menită să limiteze efectul întreruperilor scurte asupra joburilor de lungă durată. Un element cheie este „failure bypass”: tehnologia ar detecta o cădere de rută și ar reruta traficul automat, în hardware, „în doar microsecunde” — un detaliu relevant pentru antrenarea distribuită, unde sincronizarea între mii de GPU-uri este sensibilă la întreruperi. Cine îl folosește și cum ajunge un standard deschis NVIDIA indică drept utilizatori ai Spectrum‑X Ethernet (în acest context) OpenAI, Microsoft și Oracle. În plus, compania afirmă că centrele de date Microsoft Fairwater și Oracle Cloud Infrastructure (OCI) Abilene se bazează pe MRC pentru cerințe de performanță, scalare și eficiență. Un punct cu impact de industrie este că MRC, după utilizarea în producție cu performanță optimizată pe hardware Spectrum‑X, a fost „lansat ca specificație deschisă” prin Open Compute Project (OCP) — o mișcare care, în mod tipic, facilitează adoptarea mai largă și interoperabilitatea între furnizori. NVIDIA mai precizează că a colaborat la dezvoltarea MRC cu AMD, Broadcom, Intel, Microsoft și OpenAI. „Implementarea MRC în generația Blackwell a avut mult succes și a fost posibilă datorită unei colaborări puternice cu NVIDIA”, a declarat Sachin Katti, șeful diviziei de industrial compute la OpenAI. „Abordarea end‑to‑end a MRC ne-a permis să evităm o mare parte din încetinirile și întreruperile tipice legate de rețea și să menținem eficiența antrenărilor de frontieră la scară.” Implicația practică: flexibilitate de transport RDMA pe aceeași infrastructură Pe Spectrum‑X Ethernet, clienții ar avea opțiuni de modele de transport RDMA: atât Adaptive RDMA, cât și MRC, plus alte protocoale personalizate, care rulează nativ pe NVIDIA ConnectX SuperNICs și switch-urile Spectrum‑X și susțin designuri de rețea „multiplanar”. În această arhitectură, o rețea multiplanară înseamnă mai multe „plane” (fabrice) independente, fiecare oferind rute alternative între GPU-uri. NVIDIA afirmă că funcția Spectrum‑X Multiplane adaugă echilibrare de sarcină accelerată în hardware între plane, pentru reziliență și scalare, menținând latențe predictibile și permițând extinderea la „sute de mii de GPU-uri”. Pentru piață, mesajul operațional este că, pe măsură ce infrastructura de antrenare AI crește, diferențiatorul nu mai este doar viteza brută, ci capacitatea rețelei de a evita congestia și de a „supraviețui” defectelor fără a opri joburile — iar standardizarea deschisă a MRC urmărește să transforme aceste mecanisme într-o practică mai ușor de adoptat la scară. [...]