Știri
Știri din categoria Inteligență artificială

$195.29
-2.50%
GOOGL
$310.88
+2.56%
MSFT
$399.44
-1.10%
NFLX
$94.38
+0.25%
NVDA
$181.86
-1.33%
SNOW
$174.55
-3.06%
Claude Code, asistentul AI dezvoltat de Anthropic, a devenit noul fenomen viral din lumea tehnologiei, după ce Microsoft a început să-l utilizeze intern în paralel cu propriul GitHub Copilot. Potrivit Fortune, instrumentul a fost folosit pentru a construi o aplicație completă, Cowork, în doar o săptămână și jumătate, folosind metoda vibe coding – o abordare în care utilizatorii descriu ce își doresc, iar AI-ul generează automat codul necesar.
Modelul Claude Opus 4.5, care alimentează Claude Code, a impresionat industria prin capacitatea de a dezvolta proiecte software complexe, aproape complet autonom. Impactul a fost resimțit inclusiv la cel mai înalt nivel: la Forumul Economic Mondial de la Davos, CEO-ul Nvidia, Jensen Huang, a declarat că „Anthropic a făcut un salt uriaș în codare și raționament” și a recomandat tuturor companiilor de software să adopte tehnologia.
Microsoft a dat deja curs acestui sfat: conform The Verge, mii de angajați din diviziile CoreAI și Experiences + Devices (Windows, Office, Teams, Edge) folosesc Claude Code pentru prototipare rapidă, alături de Copilot. Mai mult, chiar și angajați non-tehnici, precum designeri sau manageri de proiect, sunt încurajați să experimenteze cu noul asistent AI.
Un moment viral care a amplificat notorietatea Claude Code a venit din partea unei ingineri de la Google, Jaana Dogan, care a dezvăluit că AI-ul a prototipat în doar o oră un sistem de orchestrare distribuită, proiect la care echipa sa lucrase timp de un an. Deși prototipul nu era pregătit pentru producție, demonstrația a confirmat potențialul tehnologic al Claude Code.
În doar șase luni de la lansare, Claude Code a generat venituri anuale de un miliard de dolari, fiind adoptat de companii majore precum Netflix, Spotify, Uber, Salesforce, Accenture și Snowflake. În urma succesului, Anthropic a lansat Cowork, o variantă destinată publicului larg, capabilă să gestioneze fișiere și sarcini automatizate. Lansarea a avut loc pe 12 ianuarie.
Dezbaterea privind viitorul meseriei de programator s-a intensificat după declarațiile CEO-ului Anthropic, Dario Amodei, la Davos: „S-ar putea ca în 6 până la 12 luni, modelul să facă tot ce fac programatorii de la un capăt la altul”. Acesta a adăugat că unii ingineri din propria companie nu mai scriu cod deloc, ci doar îl corectează pe cel generat de AI.
Între timp, Anthropic se află în negocieri pentru o nouă rundă de finanțare de 10 miliarde de dolari, care ar ridica evaluarea companiei la 350 de miliarde, susținută de fonduri precum Coatue și GIC, conform CNBC. Întrebarea care planează acum este dacă Claude Code democratizează dezvoltarea software sau dacă marchează începutul sfârșitului pentru meseria tradițională de programator.
Categoriile de impact ale Claude Code includ:
Tabel comparativ între Claude Code și GitHub Copilot:
| Funcționalitate | Claude Code | GitHub Copilot |
|---|---|---|
| Limbaj natural în input | Da | Limitat |
| Capacitate end-to-end | Avansată | Medie |
| Proiecte complexe autonome | Da | Parțial |
| Interfață non-tehnică | Cowork disponibil | Nu |
| Suport pentru prototipare | Da, inclusiv non-tech | Limitat la dezvoltatori |
PE SCURT: Claude Code pare să fie într-un moment definitoriu pentru viitorul dezvoltării software. Fie că va rămâne un instrument complementar sau va deveni standardul dominant în industrie, tranziția este deja în curs – și se produce mai repede decât anticipa majoritatea experților.
Recomandate

Inteligența artificială începe să schimbe radical modul în care este scris software-ul , iar mulți programatori spun că rolul lor se transformă din autori de cod în „arhitecți” care coordonează agenți AI, potrivit unei analize publicate de The New York Times . Articolul, bazat pe interviuri cu peste 70 de dezvoltatori de la companii precum Google, Amazon sau Microsoft, descrie o schimbare majoră în industrie: în tot mai multe cazuri, inteligența artificială scrie cea mai mare parte a codului , iar programatorii doar explică în limbaj natural ce vor să construiască și verifică rezultatul. Programatorii discută cu AI-ul, nu mai scriu cod Un exemplu este Manu Ebert, cofondator al start-up-ului Hyperspell, care folosește Claude Code – un instrument dezvoltat de compania Anthropic. În trecut, dezvoltarea unei funcții software putea dura o zi întreagă; acum, AI-ul poate genera și testa codul în aproximativ 30 de minute. În loc să scrie manual fiecare linie de program, dezvoltatorii: descriu ce trebuie să facă aplicația analizează planul propus de AI verifică testele și rezultatele generate automat Astfel, munca programatorilor devine mai apropiată de designul și arhitectura sistemelor software decât de scrierea efectivă a codului. Productivitatea ar putea crește de zeci de ori Mai mulți dezvoltatori spun că AI-ul le crește productivitatea semnificativ. Unele estimări indică: creșteri de 10 până la 20 de ori în start-up-uri până la 100 de ori mai rapid pentru anumite sarcini simple aproximativ 10% creștere a eficienței în companii foarte mari precum Google În firmele mari, unde există miliarde de linii de cod vechi, AI-ul este util mai ales pentru: analizarea codului existent găsirea erorilor sugerarea de modificări sau optimizări Programatorii devin „arhitecți” ai sistemelor În noul model de lucru, dezvoltatorii se concentrează mai mult pe: proiectarea sistemului software coordonarea agenților AI verificarea calității codului generat Mulți programatori spun că se simt mai degrabă „arhitecți” care proiectează sistemul , în timp ce AI-ul face munca de construcție. Impactul asupra pieței muncii Schimbarea ridică însă și întrebări despre viitorul profesiei. Date analizate de economiști de la Stanford arată că numărul locurilor de muncă pentru programatori foarte tineri a scăzut cu aproximativ 16% din 2022 , sugerând că posturile de început ar putea fi cele mai afectate. În același timp, există și argumentul invers: dacă dezvoltarea software devine mult mai ieftină și rapidă, mai multe companii vor crea propriile aplicații, ceea ce ar putea crește cererea totală pentru programatori. O schimbare similară cu evoluția limbajelor de programare Unii veterani din industrie cred că transformarea actuală este doar o nouă etapă a evoluției programării. În trecut, limbaje precum Python sau JavaScript au simplificat mult scrierea codului, eliminând sarcini tehnice complexe precum gestionarea memoriei. Acum, inteligența artificială reprezintă un nou nivel de abstractizare , în care programatorii descriu intenția, iar sistemele automate transformă acea descriere în cod funcțional. [...]

Microsoft reduce discret integrarea Copilot în Windows 11 , potrivit Windows Central , renunțând la mai multe funcții anunțate încă din 2024 și schimbând strategia privind inteligența artificială din sistemul de operare. Decizia vizează în special eliminarea sau amânarea unor integrări directe în zone cheie precum Setări, notificări și File Explorer, acolo unde Copilot ar fi trebuit să devină un asistent omniprezent. Inițial, Microsoft promitea o integrare profundă a Copilot în Windows 11, inclusiv sugestii inteligente în notificări sau acțiuni directe în File Explorer fără deschiderea altor aplicații. La aproape doi ani de la anunț, aceste funcții nu au mai fost lansate, nici măcar în versiuni de test. În schimb, compania a ales să păstreze unele funcționalități de inteligență artificială, dar fără eticheta Copilot și cu o prezență mai discretă. Ce se schimbă concret în Windows 11: integrarea Copilot în notificări este, cel mai probabil, abandonată; aplicația Setări include căutare semantică, dar fără branding Copilot; File Explorer oferă acțiuni asistate de AI, însă trimite utilizatorul către alte aplicații; infrastructura „Copilot Runtime” a fost redenumită în „Windows AI APIs”. Microsoft recunoaște că unele funcții prezentate public pot fi modificate sau chiar eliminate în funcție de feedback-ul utilizatorilor. Surse citate de publicație indică faptul că gigantul american încearcă în 2026 să reducă ceea ce este perceput drept „supraîncărcare cu AI” în Windows 11 , după critici legate de aglomerarea inutilă a sistemului. Noua direcție nu înseamnă renunțarea la inteligența artificială, ci o utilizare mai atentă și opțională a acesteia. Funcțiile AI vor rămâne acolo unde sunt utile, dar vor putea fi dezactivate mai ușor, iar brandingul Copilot va fi rezervat în special serviciilor din ecosistemul Microsoft 365. În esență, Microsoft încearcă să corecteze percepția negativă creată de integrarea agresivă a AI, mizând pe o experiență mai echilibrată și mai puțin intruzivă pentru utilizatori. [...]

Microsoft a lansat Copilot Health , un spațiu dedicat în asistentul său AI care analizează datele personale de sănătate , noul serviciu agregă informații provenite din dispozitive purtabile, dosare medicale electronice și rezultate de laborator pentru a crea ceea ce compania descrie drept „o poveste coerentă” a stării de sănătate a utilizatorului. Platforma a deschis lista de așteptare pe 12 martie 2026 și va fi lansată treptat, inițial pentru adulții vorbitori de limba engleză din Statele Unite. Prin această inițiativă, Microsoft intră direct pe piața aplicațiilor de sănătate bazate pe inteligență artificială, alăturându-se unor servicii similare lansate recent de OpenAI și Anthropic. Copilot Health apare ca un tab separat în interfața Copilot, atât pe web, cât și în aplicația mobilă. Utilizatorii își creează un profil de sănătate introducând informații de bază precum vârsta și sexul, după care pot conecta diferite surse de date. Sistemul poate analiza rezultatele analizelor medicale, interpreta datele provenite de la dispozitive wearable și identifica conexiuni între diferite tipuri de informații, ajutând utilizatorii să își înțeleagă mai bine starea de sănătate sau să pregătească întrebări pentru consultațiile medicale. Platforma folosește trei tipuri principale de conectări pentru colectarea datelor. Informațiile provenite de la dispozitive purtabile, inclusiv activitatea fizică, somnul sau semnele vitale, pot fi integrate din peste 50 de dispozitive, printre care Apple Health, Oura sau Fitbit. Dosarele medicale electronice sunt conectate prin infrastructura HealthEx, care include date de la zeci de mii de organizații medicale, iar rezultatele analizelor de laborator pot fi integrate prin compania Function, specializată în testări medicale. Microsoft afirmă că datele de sănătate și conversațiile utilizatorilor sunt stocate separat de restul interacțiunilor Copilot, sunt criptate și nu sunt utilizate pentru antrenarea modelelor AI. Compania subliniază că utilizatorii pot revoca oricând accesul la orice sursă de date conectată. În același timp, compania promovează Copilot Health ca un pas către ceea ce numește „superinteligență medicală”, o viziune în care inteligența artificială ar combina cunoștințele generale ale unui medic de familie cu expertiza specializată din diverse domenii medicale. Această direcție este susținută de sistemul experimental Microsoft AI Diagnostic Orchestrator, aflat încă în fază de cercetare. Totuși, lansarea serviciului ridică și întrebări privind reglementarea și protecția datelor. Microsoft a confirmat că Copilot Health nu este supus legii americane HIPAA privind protecția datelor medicale, deoarece serviciul funcționează direct pentru consumatori, care își furnizează singuri informațiile. Această situație înseamnă că platforma nu intră sub aceleași reguli stricte aplicate instituțiilor medicale. Reacțiile inițiale din mediul medical sunt prudente. Unii specialiști consideră că instrumentele de acest tip ar putea ajuta pacienții să înțeleagă mai bine informațiile medicale și să se pregătească pentru consultații, într-un context în care sistemele de sănătate sunt tot mai aglomerate. În același timp, există îngrijorări legate de confidențialitatea datelor și de posibilitatea ca interpretarea automată a unor informații să creeze anxietate sau să determine consultații medicale inutile. Microsoft subliniază că Copilot Health nu este conceput pentru a diagnostica sau trata boli și nu înlocuiește consultul medical profesional. [...]

Modelul AI „Avocado” dezvoltat de Meta ar putea fi amânat , după ce testele interne au arătat că sistemul nu reușește să egaleze performanțele celor mai noi modele create de Google și Anthropic, potrivit Benzinga . Modelul „Avocado” este conceput ca un sistem de inteligență artificială fundamental care ar urma să stea la baza viitoarelor produse AI ale Meta, inclusiv chatboți, instrumente de programare asistată de inteligență artificială și alte aplicații integrate în platformele companiei. În cadrul testelor interne, sistemul a arătat rezultate mai bune decât generațiile anterioare de modele dezvoltate de Meta și chiar a depășit o versiune mai veche a modelului Google Gemini . Cu toate acestea, potrivit unor persoane familiarizate cu proiectul, performanțele sale nu reușesc să ajungă la nivelul celei mai recente versiuni Gemini și nici la cele ale modelelor dezvoltate de compania Anthropic. Din acest motiv, conducerea Meta ar fi decis să își reevalueze calendarul de lansare. Dacă inițial compania plănuia să prezinte modelul în martie 2026, lansarea ar putea fi amânată cel puțin până în luna mai. În paralel, există discuții interne privind posibilitatea ca Meta să licențieze temporar tehnologie bazată pe modelul Gemini al Google pentru a susține anumite produse AI, însă o decizie finală nu a fost anunțată. Întârzierea apare într-un moment în care Meta investește masiv în dezvoltarea inteligenței artificiale, domeniu considerat esențial pentru strategia companiei conduse de Mark Zuckerberg . Pentru anul 2026, Meta estimează cheltuieli de până la 135 de miliarde de dolari pentru infrastructură și dezvoltarea tehnologiilor AI, aproape dublu față de aproximativ 72 de miliarde de dolari investite anul trecut. În paralel cu „Avocado”, compania lucrează și la alte modele aflate în dezvoltare, printre care „Mango”, dedicat generării de imagini și video, și un sistem viitor cu numele de cod „Watermelon”, toate acestea făcând parte din planul Meta de a concura direct cu liderii actuali ai industriei AI. [...]

Giganți din industria tehnologică, printre care AMD, Microsoft, NVIDIA și OpenAI, au anunțat formarea unui consorțiu pentru dezvoltarea unui standard deschis de interconectare optică destinat infrastructurilor AI. Inițiativa poartă numele Optical Compute Interconnect Multi-Source Agreement ( OCI MSA ) și vizează modul în care vor fi conectate sistemele de calcul din centrele de date care rulează modele de inteligență artificială de mari dimensiuni. Consorțiul reunește șase membri fondatori: AMD, Broadcom, Meta, Microsoft, NVIDIA și OpenAI . Scopul principal este definirea unei specificații tehnice comune care să permită echipamentelor produse de companii diferite să funcționeze împreună în infrastructurile AI de tip hyperscale. De ce apare această inițiativă Creșterea rapidă a dimensiunii clusterelor AI pune presiune pe tehnologiile de interconectare utilizate în prezent în centrele de date. Conexiunile tradiționale pe cupru devin limitate în ceea ce privește lățimea de bandă, consumul energetic și distanța la care pot transmite date. Prin urmare, consorțiul propune trecerea către interconectări optice , care folosesc fibre și semnale optice pentru a transmite date între procesoare, acceleratoare AI și echipamente de rețea. Obiectivele consorțiului Potrivit anunțului, OCI MSA urmărește trei direcții principale: definirea unei specificații deschise și interoperabile pentru interconectările utilizate în clustere AI de mari dimensiuni; sprijinirea tranziției industriei de la conexiuni pe cupru la interconectări optice cu consum redus de energie ; dezvoltarea unui ecosistem multi-vendor , care să reducă dependența de soluții proprietare și să permită interoperabilitatea echipamentelor produse de companii diferite. Ce prevede prima specificație tehnică Prima specificație publicată de consorțiu descrie o interfață optică de aproximativ 200 Gbps , destinată conexiunilor din interiorul centrelor de date. Sistemul utilizează tehnici precum multiplexarea pe lungimi de undă și transmisia bidirecțională pe aceeași fibră, pentru a crește densitatea conexiunilor și eficiența energetică. Documentul tehnic stabilește și parametri pentru sincronizare, corecția erorilor și funcționarea transceiverelor optice pe distanțe tipice din centrele de date, de până la aproximativ 500 de metri de fibră optică . Context Standardele de interconectare sunt considerate critice pentru infrastructura AI deoarece performanța modelelor depinde nu doar de puterea GPU-urilor sau a acceleratoarelor, ci și de viteza cu care acestea pot comunica între ele. Prin crearea unui standard deschis, companiile implicate încearcă să faciliteze dezvoltarea infrastructurilor AI de mari dimensiuni și să accelereze adoptarea tehnologiilor optice în centrele de date. [...]

Samsung, SK Hynix și Micron își dispută supremația memoriei AI la GTC 2026 , potrivit Digitimes , într-un moment în care cererea pentru infrastructură dedicată inteligenței artificiale transformă profund industria semiconductorilor. Conferința NVIDIA GTC, desfășurată începând cu 16 martie 2026 la San Jose, a devenit principala scenă unde liderii pieței – SK Hynix, Samsung și Micron – își prezintă cele mai avansate soluții HBM4 și își consolidează relațiile cu gigantul american. Samsung a adus în prim-plan noua generație HBM4E , un cip de memorie de generația a șaptea, capabil să atingă viteze de până la 16 Gbps per pin și o lățime de bandă de aproximativ 4,0 TB/s. Compania mizează pe integrarea completă a componentelor pentru servere AI, incluzând atât memoria HBM, cât și soluții de stocare și module dedicate procesoarelor, în special pentru platforma NVIDIA Vera Rubin . SK Hynix, considerată lider în livrările actuale de HBM, a prezentat o gamă extinsă de produse deja utilizate în ecosistemul NVIDIA, dar și soluții noi orientate spre eficiență și scalabilitate: memorii HBM4 și HBM3E integrate în acceleratoare AI module LPDDR5X utilizate în supercomputere AI soluții de stocare avansate, inclusiv eSSD optimizate pentru centre de date În paralel, Micron își accelerează intrarea în producția de masă pentru HBM4, încercând să recupereze decalajul și să obțină contracte strategice în zona platformelor AI. Contextul este unul de presiune majoră asupra industriei: cererea pentru AI crește rapid, iar estimările indică scumpiri semnificative ale memoriei și posibile blocaje în aprovizionare până spre finalul deceniului. În acest ecosistem, NVIDIA joacă rolul central, stabilind standardele tehnologice și direcția de dezvoltare. GTC 2026 confirmă astfel o schimbare de paradigmă: memoria de mare viteză nu mai este un element secundar, ci devine nucleul competiției globale pentru performanță în inteligența artificială. [...]