Știri
Știri din categoria Inteligență artificială

SpaceX a cerut aprobarea FCC pentru până la 1 milion de sateliți „AI”, potrivit Reuters, într-un demers care mută discuția despre infrastructura de calcul pentru inteligență artificială din centrele de date terestre către orbită. Cererea a fost depusă la autoritatea americană de reglementare în comunicații (Federal Communications Commission, FCC) și vizează o constelație de sateliți descriși ca „centre de date” alimentate solar.
În documentația depusă, compania susține că sistemul ar urma să răspundă creșterii accelerate a cererii de procesare generate de aplicațiile de inteligență artificială, prin „mutarea” unei părți din capacitatea de calcul în spațiu. Ideea centrală este că sateliții ar putea beneficia de acces aproape constant la energia solară, reducând dependența de infrastructura terestră.
„Sistemul este destinat să «acomodeze creșterea explozivă a cererilor de date determinate de AI»”, a transmis SpaceX în documentul depus la FCC, citat de Reuters.
Propunerea descrie o rețea de sateliți care ar opera la altitudini între 500 km și 2.000 km, interconectați prin comunicații laser și poziționați astfel încât să mențină acces aproape permanent la lumină solară, cu o dependență mai mică de baterii. Pentru răcire, SpaceX indică o abordare diferită de cea a centrelor de date clasice, care folosesc frecvent sisteme cu consum mare de apă: compania menționează răcirea radiativă, adică disiparea căldurii prin radiație în vidul spațiului.
Un element-cheie al planului este dezvoltarea rachetei Starship, vehiculul reutilizabil de mare capacitate al SpaceX, pe care compania îl leagă direct de posibilitatea de a scala rapid „capacitatea de procesare pe orbită”. În același timp, dimensiunea cererii – până la 1 milion de sateliți – ar depăși cu mult numărul total de sateliți aflați în prezent pe orbită, estimat în material la aproximativ 15.000.
Materialul notează și un context de piață: deși SpaceX cere acum permisiunea pentru 1 milion de sateliți, compania a mai solicitat anterior aprobări pentru volume mai mari decât cele implementate efectiv.
SpaceX a cerut inițial autorizare pentru 42.000 de sateliți și operează în prezent în jur de 9.500.
Recomandate

Google a lansat Stitch , o platformă AI care creează interfețe din comenzi vocale și text , potrivit The Decoder , printr-un anunț făcut de Google Labs pe 18 martie 2026. Noul instrument este prezentat drept un „canvas de design nativ AI”, capabil să genereze aplicații și interfețe complete fără a mai fi nevoie de wireframe-uri sau desen manual. Conceptul introdus, denumit „vibe design”, permite utilizatorilor să descrie simplu ce își doresc - fie obiective de business, fie idei vizuale - iar sistemul generează automat designuri detaliate. Platforma poate integra text, imagini și cod, analizând contextul întregului proiect pentru a propune variante și îmbunătățiri. Printre funcționalitățile principale ale Stitch se numără: un spațiu de lucru nelimitat asistat de AI un agent inteligent care înțelege contextul proiectului interacțiune prin comandă vocală în timp real generare instantă de prototipuri interactive formatul DESIGN.md pentru sisteme de design reutilizabile Una dintre cele mai vizibile noutăți este controlul vocal, care permite utilizatorilor să modifice designul spunând comenzi precum schimbarea culorilor sau generarea mai multor variante de interfață. În plus, platforma poate transforma automat un design static într-un prototip funcțional, conectând ecranele și completând fluxurile lipsă. Impactul pe piață a fost imediat: acțiunile Figma au scăzut cu aproape 9% după anunț, semn că investitorii văd Stitch ca pe un concurent serios în zona designului digital. Google poziționează platforma atât pentru profesioniști, cât și pentru utilizatori fără experiență, inclusiv fondatori aflați la început de drum. Stitch este disponibil prin Google Labs în regiunile unde funcționează Gemini, fără un model de plată separat anunțat deocamdată. [...]

Apple a blocat actualizări pentru unele aplicații de „vibe coding” pe App Store , potrivit 9to5Mac , care citează un raport al The Information și o poziție transmisă ulterior de companie. Relatează The Information, prin jurnaliștii Stephanie Palazzolo și Aaron Tilley, că Apple ar fi împiedicat discret aplicații precum Replit și Vibecode să lanseze actualizări în App Store, dacă nu fac modificări, conform unor persoane familiarizate cu situația. Miza ține de categoria de aplicații care permit utilizatorilor să creeze jocuri sau alte instrumente prin introducerea de comenzi în limbaj natural către un sistem de inteligență artificială („ vibe coding ”, adică dezvoltare asistată de AI pe baza de prompturi). Poziția Apple, inclusă în material, este că nu e vorba despre o politică nouă, ci despre aplicarea unor reguli existente: compania ar fi transmis unor dezvoltatori că aceste capabilități încalcă prevederi vechi care interzic unei aplicații să ruleze cod ce îi schimbă funcționalitatea după ce a trecut de procesul de evaluare din App Store. The Information mai notează că astfel de aplicații pot deveni o amenințare comercială, deoarece ar facilita crearea de aplicații web care ocolesc App Store, o sursă importantă de venit și profit pentru Apple. 9to5Mac explică faptul că tensiunea cu regulile App Store pornește de la principiul că aplicațiile nu ar trebui să-și schimbe comportamentul după aprobare. În schimb, aplicațiile de „vibe coding” pot genera și rula pe dispozitivul utilizatorului software nou, care poate arăta și funcționa diferit față de aplicația inițială, chiar dacă acel „nou” produs nu este distribuit prin App Store . Apple indică drept referință Ghidul App Store 2.5.2, care interzice descărcarea, instalarea sau executarea de cod ce introduce ori schimbă funcții sau caracteristici ale aplicației (inclusiv ale altor aplicații), cu o excepție limitată pentru aplicații educaționale ce permit testarea de cod executabil, în condiții stricte (codul să fie complet vizibil și editabil). Potrivit The Information, una dintre soluțiile posibile pentru cel puțin una dintre aplicații ar fi ca previzualizările pentru aplicațiile generate să fie făcute în browser, nu în interiorul aplicației de „vibe coding”. În actualizarea publicată de 9to5Mac, Apple spune că nu are reguli App Store „specifice” împotriva aplicațiilor de „vibe coding” și mai indică secțiunea 3.3.1(B) din licența Developer Program, care permite descărcarea de cod interpretat doar dacă acesta nu schimbă scopul principal al aplicației prin funcții incompatibile cu scopul intenționat și promovat. Compania mai afirmă că a comunicat consecvent cu dezvoltatorii, explicând încălcările și pașii pentru conformare, inclusiv prin trei convorbiri telefonice în două luni. [...]

Samsung, SK Hynix și Micron își dispută supremația memoriei AI la GTC 2026 , potrivit Digitimes , într-un moment în care cererea pentru infrastructură dedicată inteligenței artificiale transformă profund industria semiconductorilor. Conferința NVIDIA GTC, desfășurată începând cu 16 martie 2026 la San Jose, a devenit principala scenă unde liderii pieței – SK Hynix, Samsung și Micron – își prezintă cele mai avansate soluții HBM4 și își consolidează relațiile cu gigantul american. Samsung a adus în prim-plan noua generație HBM4E , un cip de memorie de generația a șaptea, capabil să atingă viteze de până la 16 Gbps per pin și o lățime de bandă de aproximativ 4,0 TB/s. Compania mizează pe integrarea completă a componentelor pentru servere AI, incluzând atât memoria HBM, cât și soluții de stocare și module dedicate procesoarelor, în special pentru platforma NVIDIA Vera Rubin . SK Hynix, considerată lider în livrările actuale de HBM, a prezentat o gamă extinsă de produse deja utilizate în ecosistemul NVIDIA, dar și soluții noi orientate spre eficiență și scalabilitate: memorii HBM4 și HBM3E integrate în acceleratoare AI module LPDDR5X utilizate în supercomputere AI soluții de stocare avansate, inclusiv eSSD optimizate pentru centre de date În paralel, Micron își accelerează intrarea în producția de masă pentru HBM4, încercând să recupereze decalajul și să obțină contracte strategice în zona platformelor AI. Contextul este unul de presiune majoră asupra industriei: cererea pentru AI crește rapid, iar estimările indică scumpiri semnificative ale memoriei și posibile blocaje în aprovizionare până spre finalul deceniului. În acest ecosistem, NVIDIA joacă rolul central, stabilind standardele tehnologice și direcția de dezvoltare. GTC 2026 confirmă astfel o schimbare de paradigmă: memoria de mare viteză nu mai este un element secundar, ci devine nucleul competiției globale pentru performanță în inteligența artificială. [...]

Google Cloud și Nvidia introduc GPU-uri fracționate pentru costuri mai mici în AI , potrivit Google Cloud , într-un parteneriat extins anunțat la GTC 2026, care vizează accelerarea adoptării inteligenței artificiale în mediul enterprise. GPU-uri „la porție” pentru companii Noutatea centrală este lansarea mașinilor virtuale G4 fracționate, care permit împărțirea unui GPU Nvidia RTX Pro 6000 în mai multe segmente: 1/8 GPU – pentru sarcini ușoare, precum desktopuri virtuale 1/4 GPU – pentru aplicații AI moderate 1/2 GPU – pentru inferență avansată și simulări Această abordare reduce costurile și oferă flexibilitate, permițând companiilor să plătească doar pentru resursele utilizate, într-un context în care cererea pentru infrastructură AI crește rapid. Integrare software și modele AI Parteneriatul merge dincolo de hardware și include integrarea profundă a tehnologiilor Nvidia în ecosistemul Google: Nvidia NeMo integrat în Vertex AI Nvidia Dynamo conectat la GKE Inference Gateway modele Nemotron 3 disponibile în Vertex AI Model Garden Aceste instrumente sunt concepute pentru a accelera dezvoltarea și implementarea modelelor AI complexe, inclusiv a celor de tip „agentic AI”, considerate următorul val în industrie. Infrastructură de nouă generație Google Cloud a confirmat și că va adopta sistemele Vera Rubin NVL72 în a doua jumătate a lui 2026. Acestea includ: Componentă Specificație GPU-uri 72 unități Rubin CPU-uri 36 procesoare Vera Utilizare antrenare și inferență la scară mare Clienți importanți, precum General Motors sau Salesforce, folosesc deja infrastructura comună pentru aplicații AI avansate, inclusiv platforme autonome și sisteme de analiză complexă. Miza: dominația în AI enterprise Anunțul reflectă o direcție clară: transformarea infrastructurii AI într-un serviciu flexibil și scalabil pentru companii. Nvidia și Google Cloud încearcă astfel să răspundă competiției din partea Amazon și Microsoft, dar și să capitalizeze cererea tot mai mare pentru modele AI capabile să opereze autonom. În paralel, Nvidia promovează ideea că „tokenii devin o resursă economică”, sugerând că viitorul industriei va depinde nu doar de puterea de calcul, ci și de eficiența utilizării acesteia. [...]

Nvidia a lansat DLSS 5 și un cip AI pentru centre de date spațiale , potrivit CNBC , marcând o dublă direcție strategică: grafică avansată pentru jocuri și extinderea inteligenței artificiale în orbită. Anunțul a fost făcut de CEO-ul Jensen Huang în cadrul conferinței GTC 2026 din San Jose. DLSS 5: un salt major în grafica jocurilor Noua versiune DLSS 5 schimbă abordarea clasică a randării, introducând un model neuronal capabil să reconstruiască în timp real lumina, materialele și detaliile scenelor la rezoluții de până la 4K. Spre deosebire de versiunile anterioare, care îmbunătățeau performanța prin upscaling, această tehnologie „înțelege” scena și adaugă detalii fotorealiste direct la nivel de pixeli. Printre elementele cheie: randare neuronală în timp real control artistic păstrat pentru dezvoltatori suport anunțat de studiouri mari precum Ubisoft, Capcom sau Warner Bros. DLSS 5 este programat pentru lansare în toamna lui 2026, însă demonstrațiile actuale arată cerințe hardware ridicate, fiind necesare două plăci video RTX 5090 pentru rulare optimă. AI în spațiu: Vera Rubin Space-1 Nvidia a prezentat și Vera Rubin Space-1 , un modul de calcul proiectat pentru funcționare în orbită, destinat centrelor de date spațiale. Acesta ar oferi de până la 25 de ori mai multă putere de procesare AI comparativ cu GPU-ul H100. Caracteristici principale: optimizat pentru analiză în timp real și operațiuni autonome adaptat condițiilor extreme din spațiu (radiații, lipsa convecției) destinat viitoarelor infrastructuri de tip „data center orbital” Compania colaborează deja cu parteneri precum Axiom Space și Planet Labs, iar primul test ar putea avea loc în noiembrie 2026, prin lansarea unui satelit echipat cu acest modul. Provocări și miză Deși ambițiile sunt mari, Nvidia recunoaște dificultățile tehnice, în special legate de răcirea sistemelor în spațiu. Totuși, interesul pentru centre de date orbitale crește, pe fondul accesului la energie solară continuă și al cererii uriașe pentru putere de calcul AI. Prin aceste anunțuri, Nvidia încearcă să își consolideze poziția atât în industria jocurilor, cât și în infrastructura globală de inteligență artificială, extinzând competiția dincolo de Pământ. [...]

OpenAI își schimbă strategia și se concentrează pe programare și clienți business , potrivit The Wall Street Journal , într-o mișcare care marchează o retragere din proiectele secundare și o încercare de a valorifica mai eficient avantajul tehnologic. Decizia este analizată de CEO-ul Sam Altman și de Mark Chen , iar angajații urmează să primească detalii oficiale în perioada următoare, după ce planul a fost deja prezentat intern de Fidji Simo ca un efort de a fixa direcția companiei pe activitățile esențiale. Schimbarea nu vine din senin, ci continuă o serie de ajustări începute încă din 2025, când OpenAI a suspendat inițiative precum publicitatea, agenți pentru sănătate sau funcții de cumpărături, pentru a redirecționa resursele către îmbunătățirea ChatGPT. Noua etapă merge însă mai departe și stabilește două priorități clare: dezvoltarea instrumentelor de programare extinderea soluțiilor pentru companii Această repoziționare apare pe fondul unei competiții intense, în special cu Anthropic, ale cărei modele sunt percepute ca fiind mai performante în sarcini de codare. Deși OpenAI susține că produsul său Codex și-a triplat numărul de utilizatori săptămânali din ianuarie 2026, piața rămâne una disputată, iar integrarea în ecosisteme populare devine decisivă. În paralel, conducerea companiei consideră că principala problemă nu mai este capacitatea tehnologică, ci implementarea în mediul real. Directorul financiar Sarah Friar sublinia încă din ianuarie că obiectivul pentru 2026 este „adopția practică”, adică transformarea capabilităților AI în instrumente utilizate zilnic de companii și instituții. Câteva repere relevante pentru contextul actual: Indicator Valoare estimată Utilizatori săptămânali ChatGPT peste 900 milioane Venituri recurente anuale peste 20 miliarde dolari Evaluare companie (martie 2026) aproximativ 730 miliarde dolari În acest context, presiunea este dublă: competiția tehnologică și nevoia de a demonstra că investițiile masive pot genera venituri sustenabile, mai ales în perspectiva unei posibile listări la bursă spre finalul anului 2026. Practic, OpenAI încearcă să treacă de la statutul de lider în cercetare la cel de jucător dominant în aplicații comerciale. [...]