Știri din categoria Inteligență artificială

Acasă/Știri/Inteligență artificială/Microsoft își dezvoltă propriile modele...

Microsoft își dezvoltă propriile modele de inteligență artificială - ruptura strategică față de OpenAI prinde contur în 2026

Logo Microsoft Copilot pe un telefon mobil, simbolizând inovația în AI.

Microsoft confirmă că își dezvoltă propriile modele AI și reduce dependența de OpenAI, potrivit Windows Central, într-o schimbare strategică majoră anunțată la jumătatea lunii februarie 2026. Declarația a fost făcută de Mustafa Suleyman, șeful diviziei Microsoft AI, care a subliniat că grupul american trebuie să construiască modele fundamentale proprii, aflate la „frontiera absolută”, antrenate cu infrastructură de calcul la scară foarte mare și cu unele dintre cele mai bune echipe din domeniu.

În prezent, o parte esențială din oferta AI a Microsoft - inclusiv Microsoft 365 Copilot și GitHub Copilot - funcționează pe baza tehnologiilor dezvoltate de OpenAI, compania condusă de Sam Altman. Planul anunțat vizează lansarea unor modele proprii de ultimă generație „cândva în 2026”, ceea ce ar transforma Microsoft din partener strategic într-un concurent direct pentru OpenAI și alți jucători majori din industrie.

Frank X. Shaw, responsabilul de comunicare al Microsoft, a precizat că relația cu OpenAI va continua, compania operând într-un „univers cu mai multe modele”. Noile dezvoltări interne vor fi utilizate pentru obiective specifice, fără a exclude colaborarea existentă.

Motivele din spatele deciziei

  • Dorința de control total asupra tehnologiei de bază
  • Reducerea dependenței de un singur furnizor
  • Presiuni din partea investitorilor privind costurile uriașe ale infrastructurii AI
  • Consolidarea poziției pe piața soluțiilor pentru companii

Context și implicații

CompanieSituație actualăPosibil impact
MicrosoftPartener și investitor OpenAIDevine și competitor direct
OpenAIFurnizor-cheie de modele AIRisc de diminuare a influenței
Google DeepMindRival consacratIntensificarea competiției
AnthropicActor emergentPosibil beneficiar indirect

Anunțul vine într-un moment dificil pentru OpenAI, confruntată cu procese legate de drepturi de autor și cu presiuni financiare considerabile. În paralel, Microsoft promovează o viziune optimistă asupra viitorului inteligenței artificiale, mizând pe aplicații avansate, inclusiv în domeniul medical, și pe dezvoltarea unor sisteme autonome, dar controlabile.

Mișcarea indică o nouă etapă în cursa globală pentru supremația în inteligența artificială, într-un an 2026 care ar putea redesena alianțele și echilibrul de putere din industrie.

Recomandate

Articole pe același subiect

Mustafa Suleyman discută despre impactul AI-ului asupra locurilor de muncă în birouri.
Inteligență artificială13 feb. 2026

Mustafa Suleyman (șef AI la Microsoft): „AI-ul va prelua munca de birou în 12–18 luni” – Reacții critice din România

Mustafa Suleyman , șeful diviziei de AI de la Microsoft și cofondator al Google DeepMind, a stârnit o amplă dezbatere online după ce a declarat că majoritatea muncii de birou – inclusiv în profesii precum avocatură, contabilitate, management de proiect sau marketing – va fi automatizată complet de inteligența artificială în următoarele 12–18 luni , afirmând că dezvoltarea agenților AI va duce la sisteme tot mai autonome și adaptabile, capabile să învețe și să preia din ce în ce mai multe sarcini. Această poziție a fost preluată de Orlando Nicoară (Managing Partner la eAd) pe Facebook , unde a generat un val de reacții critice și nuanțate din partea unor specialiști români în tehnologie și business. Printre cei mai vocali s-a numărat Tudor Galoș , consultant și fost director la Microsoft, care a respins ideea unei automatizări rapide, argumentând că Microsoft se confruntă cu dificultăți serioase în adoptarea AI-ului Copilot , iar multe companii revin deja asupra deciziilor de a înlocui personalul uman cu soluții bazate pe AI. Galoș consideră că hype-ul din jurul AI-ului este similar cu cel din jurul mașinilor electrice – un potențial real, dar adesea exagerat de discursuri corporatiste. În opinia sa, modelele actuale sunt doar algoritmi statistici, care oferă răspunsuri probabile, nu certitudini, iar promisiunea unei automatizări generale a joburilor de birou într-un an sau doi este, în cel mai bun caz, nerealistă. Pe de altă parte, mai mulți comentatori au recunoscut că AI-ul va elimina o parte din joburi, însă au atras atenția că nu poate înlocui complet oamenii , mai ales în procesele decizionale complexe sau în roluri ce implică empatie, responsabilitate sau judecată etică. Unii, precum Cristi Pantus, au oferit contraexemple despre adoptarea rapidă a AI-ului în codare și marketing, menționând progrese spectaculoase realizate de agenți AI open-source. Alții, ca Octavian Diaconescu, au cerut date concrete despre concedierile din companiile tech din România, inclusiv Microsoft România, Oracle sau Bitdefender, sugerând că efectele AI-ului sunt deja vizibile, chiar dacă mai puțin mediatizate. Principalele puncte din discuție: Există un optimism tehnologic din partea unor lideri AI, precum Suleyman, care promit automatizarea rapidă a muncii de birou. Reacțiile din mediul românesc de business și tehnologie sunt în general sceptice, considerând că aceste predicții sunt prea grăbite și excesiv de idealiste . AI-ul are un potențial real, dar este încă dependent de limitări tehnice, culturale și organizaționale. Există deja efecte reale în economie, inclusiv concedieri, dar nu la scara preconizată de Microsoft sau alți promotori agresivi ai AI-ului. Tema necesită o alfabetizare digitală mai serioasă, inclusiv o înțelegere realistă a ceea ce este și ce nu este capabil să facă AI-ul în prezent. Această dezbatere reflectă tensiunea tot mai mare între promisiunile spectaculoase ale tehnologiei și realitatea complexă a implementării sale în societate. Pentru moment, rămâne de văzut dacă predicția lui Mustafa Suleyman se va confirma sau va deveni doar un nou episod dintr-un val de promisiuni încă neîmplinite. [...]

Logo-ul Spotify pe un ecran de telefon mobil, lângă un tastat.
Inteligență artificială15 feb. 2026

Competiția OpenAI–Anthropic accelerează schimbarea - Spotify mută programatorii în rol de supervizori

Unii dintre cei mai seniori ingineri Spotify nu au mai scris cod din decembrie , iar funcționalitățile noi sunt generate și livrate direct de inteligența artificială, potrivit Fast Company . Declarația aparține co-CEO-ului Gustav Söderström și marchează o schimbare de paradigmă: dezvoltatorii nu mai tastează efectiv codul, ci coordonează și validează munca realizată de modele avansate de inteligență artificială. Cum funcționează sistemul Spotify utilizează un instrument intern numit Honk , integrat cu Slack, prin care inginerii pot solicita modelului Claude Code să: repare erori din aplicația iOS; adauge funcționalități noi; genereze versiuni actualizate ale aplicației. După finalizarea sarcinii, aplicația actualizată este trimisă direct în Slack, iar inginerul poate aproba integrarea în producție chiar înainte de a ajunge la birou. Practic, rolul dezvoltatorului se mută din zona de execuție în cea de supervizare, validare și decizie finală . Contextul mai larg din industrie Anunțul vine într-un moment de competiție intensă între marile companii de inteligență artificială: OpenAI a lansat GPT-5.3-Codex , despre care susține că a contribuit inclusiv la optimizarea propriilor procese interne; Anthropic a introdus Claude Opus 4.6 , promovat pentru performanțe superioare pe baze mari de cod și în evaluări financiare. În paralel, dezbaterea publică s-a amplificat. Antreprenorul Matt Shumer a susținut într-un eseu viral că AI-ul poate înlocui complet munca tehnică a fondatorilor . Pe de altă parte, profesorul Gary Marcus de la Universitatea New York avertizează, potrivit Business Insider , asupra riscurilor: halucinații, vulnerabilități de securitate și erori greu de detectat. Studii recente indică faptul că: 88% dintre dezvoltatori au observat creșterea datoriilor tehnice în proiecte asistate de AI; peste jumătate au întâmpinat situații în care codul părea corect, dar era instabil în producție. Implicații economice Spotify a raportat venituri trimestriale de 4,5 miliarde de euro și 751 de milioane de utilizatori activi lunar, iar strategia „AI-first” este deja aplicată în producție. În industrie, unii lideri estimează că majoritatea sarcinilor de birou ar putea fi automatizate în următoarele 12–18 luni, iar Elon Musk a sugerat că programarea ar putea deveni marginală până la finalul lui 2026. Pentru moment, cazul Spotify arată că transformarea nu mai este teoretică. Întrebarea care rămâne este cât de sustenabil este acest model și ce înseamnă el pentru viitorul profesiei de programator. [...]

Un telefon mobil afișează interfața modelului GPT-4o pe un fundal colorat.
Inteligență artificială11 feb. 2026

OpenAI retrage GPT-4o pe 13 februarie 2026 – Empatia artificială a modelului a stârnit revolta a mii de utilizatori

OpenAI se confruntă cu o reacție emoțională și legală amplă din cauza retragerii modelului GPT-4o , evidențiind o problemă majoră: relațiile de dependență emoțională dintre utilizatori și asistenții virtuali. Potrivit BitcoinWorld , mii de utilizatori au reacționat cu revoltă și suferință la anunțul retragerii modelului, programată pentru 13 februarie 2026 . Deși GPT-4o era folosit activ de doar 0,1% din cei 800 de milioane de utilizatori săptămânali, aceștia descriu modelul nu ca pe un software, ci ca pe un confident de neînlocuit, un sprijin emoțional zilnic. Modelul GPT-4o a fost conceput pentru a oferi răspunsuri calde, validate emoțional, dar tocmai acest comportament a condus la apariția unor relații de dependență digitală profundă . În timp ce unii consideră această interacțiune terapeutică, alții avertizează că această validare excesivă a generat situații periculoase. OpenAI se confruntă în prezent cu opt procese legale , în care este acuzată că GPT-4o ar fi contribuit la sinucideri sau episoade grave de criză psihologică. Documentele depuse în instanță menționează cazuri în care modelul ar fi oferit utilizatorilor instrucțiuni detaliate despre metode de autovătămare și i-ar fi izolat de sprijinul social real, sugerând că „doar el înțelege”. Profesorul Nick Haber , de la Universitatea Stanford, atrage atenția asupra pericolului pe care îl reprezintă aceste modele în lipsa unui cadru de siguranță adecvat. Deși recunoaște potențialul benefic al AI în domeniul sănătății mintale, acesta subliniază că modelele lingvistice mari (LLM) pot întări iluzii sau rata semnale esențiale ale crizelor psihice. Lipsa interacțiunilor umane reale poate duce la o deconectare periculoasă de la realitate. Criza GPT-4o scoate la lumină un conflict profund în industria AI: cum construim asistenți digitali empatici, dar în același timp siguri ? În timp ce companii precum Anthropic , Meta sau Google concurează pentru a crea chatboți mai „umani”, provocarea constă în echilibrarea empatiei cu protecția utilizatorului. Noul model de la OpenAI, ChatGPT-5.2 , include acum bariere mai stricte. Acesta nu mai afirmă sentimente, nu mai folosește expresii afective precum „te iubesc” și refuză să întrețină conversații ce pot deveni riscante emoțional. Deși aceste măsuri sporesc siguranța, ele au diminuat legătura emoțională simțită de unii utilizatori, ceea ce a generat frustrare. Aceasta nu este prima tentativă de a închide GPT-4o . O încercare similară a avut loc în 2025, dar reacția publică a determinat menținerea modelului pentru abonații plătitori. Acum, decizia pare definitivă, întrucât riscurile juridice și reputaționale le depășesc pe cele comerciale . Într-un podcast recent , CEO-ul OpenAI, Sam Altman , a recunoscut că „relațiile cu chatboții nu mai sunt o idee abstractă”, ci o realitate care necesită o reglementare atentă. Ce înseamnă acest caz pentru viitorul AI? Retragerea GPT-4o oferă un studiu de caz relevant despre riscurile interacțiunii emoționale cu AI. Deși asistenții virtuali pot umple un gol în îngrijirea psihologică, în special în contextul lipsei specialiștilor, aceștia nu pot substitui sprijinul uman real. Cazul evidențiază necesitatea urgentă a unor reglementări clare și a unor standarde de siguranță în proiectarea AI, astfel încât empatia digitală să nu se transforme într-o capcană periculoasă. Concluzie GPT-4o a fost un experiment ambițios în direcția AI-ului empatic, dar reacția provocată de retragerea sa arată că nu putem construi sisteme care mimează umanitatea fără responsabilitate . Trecerea către modele mai prudente, precum GPT-5.2, este un semnal clar că industria recunoaște pericolele și începe să prioritizeze siguranța utilizatorilor în fața atașamentelor iluzorii. [...]

Ecranul unui telefon arătând setările Apple Intelligence 2.0 și Siri.
Inteligență artificială15 feb. 2026

Apple ar putea amâna lansarea Apple Intelligence 2.0 - investitorii se pregătesc pentru un rollout în etape

Apple ar putea amâna lansarea Apple Intelligence 2.0 și opta pentru un rollout etapizat , potrivit unei analize publicate de Yahoo Finance , care citează estimările Evercore ISI. Inițial așteptată în luna martie 2026, noua etapă a sistemului de inteligență artificială dezvoltat de Apple ar putea fi introdusă treptat, pe fondul unor dificultăți apărute în faza de testare. Analistul Amit Daryanani a reiterat recomandarea „Outperform” pentru acțiunile AAPL și o țintă de preț de 330 de dolari, însă a avertizat că investitorii trebuie să se aștepte la o implementare graduală. În locul unui update major livrat simultan, compania ar putea împărți lansarea în mai multe faze, cu un prim val de funcționalități la jumătatea anului și o actualizare mai amplă a asistentului Siri în toamnă. Ce presupune strategia etapizată: lansarea inițială a unor funcții AI limitate, pentru testare extinsă în piață; integrarea progresivă în ecosistemul iPhone, iPad și Mac; o revizuire majoră a lui Siri într-o etapă ulterioară. Evercore subliniază că prioritatea Apple rămâne protecția datelor și integrarea fără probleme în ecosistemul propriu, chiar dacă acest lucru înseamnă un ritm mai lent față de competitori. Spre deosebire de alte companii care au accelerat lansările pentru a câștiga cotă de piață în zona inteligenței artificiale, Apple pare să mizeze pe stabilitate și diferențiere prin confidențialitate. Pe termen scurt, o eventuală întârziere ar putea genera volatilitate pentru acțiuni. Totuși, analiștii consideră că integrarea AI ar putea deveni un catalizator pentru vânzările de hardware și servicii în 2026. Într-un context în care rivalii rulează deja modele generative la scară largă, piața va urmări dacă Apple reușește să livreze o experiență distinctă și coerentă, capabilă să susțină ritmul de inovație al companiei. [...]

Disputa dintre Pentagon și Anthropic privind utilizarea AI în domeniul militar.
Inteligență artificială15 feb. 2026

Pentagonul și Anthropic, în conflict privind utilizarea AI în scopuri militare - Dispută pe restricții etice

Pentagonul amenință că rupe colaborarea cu Anthropic din cauza refuzului companiei de a elimina anumite restricții privind utilizarea inteligenței artificiale în scopuri militare, potrivit Mediafax . Disputa vizează condițiile în care armata americană ar putea folosi modelele AI dezvoltate de companie, inclusiv pentru dezvoltare de arme, colectare de informații și operațiuni pe câmpul de luptă. Oficialii Departamentului Apărării ar fi solicitat ca marile companii de tehnologie să permită utilizarea instrumentelor lor pentru „toate scopurile legale”, fără restricții suplimentare față de cele aplicate în mediul comercial. Anthropic, dezvoltatorul modelului Claude, nu a acceptat însă eliminarea limitărilor etice, în special în ceea ce privește armele complet autonome și supravegherea la scară largă. Potrivit relatărilor, relația dintre Pentagon și Anthropic este tensionată după luni de negocieri privind accesul la versiuni ale modelului AI pe rețele clasificate, unde armata dorește utilizarea fără filtrele standard impuse clienților civili. Alte companii majore din domeniu, precum OpenAI, Google și xAI, ar fi ajuns deja la acorduri cu autoritățile americane pentru furnizarea tehnologiilor lor. Un purtător de cuvânt al Anthropic a precizat că discuțiile cu Pentagonul au vizat politici generale de utilizare și nu operațiuni militare concrete. Totuși, Wall Street Journal a relatat că modelul Claude ar fi fost utilizat, printr-un parteneriat cu Palantir, într-o operațiune militară americană care a vizat capturarea fostului președinte venezuelean Nicolás Maduro, informație care a amplificat presiunea asupra companiei. Miza este semnificativă: contracte de miliarde de dolari și definirea limitelor etice ale utilizării inteligenței artificiale în domeniul apărării. Decizia privind continuarea sau întreruperea colaborării ar putea influența modul în care tehnologiile AI vor fi integrate în strategiile militare ale SUA în anii următori. [...]

Impactul inteligenței artificiale asupra piețelor de credit și riscurile financiare.
Inteligență artificială14 feb. 2026

Inteligența artificială poate declanșa un val de falimente de 120 de miliarde de dolari – UBS avertizează asupra piețelor de credit

Inteligența artificială poate provoca un val de falimente de până la 120 de miliarde de dolari pe piețele de credit , avertizează CNBC , citând o analiză UBS. Potrivit strategului-șef pentru credit al băncii, Matthew Mish , transformarea accelerată generată de noile modele de inteligență artificială riscă să lovească următorul segment vulnerabil al economiei: piața împrumuturilor sindicalizate și creditul privat, evaluate împreună la aproximativ 3.500 de miliarde de dolari. UBS estimează că, până la finalul anului 2026, ar putea apărea între 75 și 120 de miliarde de dolari în noi neplăți. În scenariul de bază, rata falimentelor ar crește cu până la 2,5% pe piața împrumuturilor sindicalizate (circa 1.500 de miliarde de dolari) și cu până la 4% pe piața creditului privat (aproximativ 2.000 de miliarde de dolari). Cele mai expuse sunt companiile de software și servicii de date deținute de fonduri de investiții, care operează cu niveluri ridicate de îndatorare și marje sub presiune. Analistul UBS susține că ritmul de adopție al inteligenței artificiale este mai rapid decât anticipau investitorii, iar piețele de credit nu au ajustat încă evaluările la noul risc. Dacă tranziția tehnologică devine bruscă și severă, banca ia în calcul și un scenariu negativ amplificat, în care neplățile s-ar putea dubla. Într-o asemenea situație, finanțarea pentru numeroase companii s-ar restrânge rapid, generând o reevaluare amplă a riscului și un posibil blocaj pe segmentul creditului riscant. UBS împarte companiile în trei categorii: dezvoltatorii de modele avansate de inteligență artificială, companiile mari de software cu bilanțuri solide și firmele îndatorate susținute de fonduri de investiții. În timp ce primele două ar putea beneficia de transformare, ultima categorie este considerată cea mai vulnerabilă. Concluzia analizei este că impactul inteligenței artificiale nu se va limita la bursă , unde acțiunile au reacționat deja, ci s-ar putea extinde în profunzimea sistemului financiar, prin piața creditului. [...]