Știri din categoria Inteligență artificială

Acasă/Știri/Inteligență artificială/1,2 miliarde de euro pentru inteligență...

1,2 miliarde de euro pentru inteligență artificială – Mistral AI își lansează primul proiect major în afara Franței

Logo Mistral AI pe un fundal digital, simbolizând inovația în inteligența artificială.

Mistral AI anunță o investiție de 1,2 miliarde de euro în infrastructură de inteligență artificială în Suedia, potrivit CNBC, într-un demers care consolidează ambițiile Europei de a-și construi propria autonomie tehnologică într-un context geopolitic tot mai tensionat.

Compania franceză, fondată în 2023 și considerată răspunsul european la OpenAI, va direcționa fondurile către dezvoltarea de centre de date pentru inteligență artificială, capacitate avansată de calcul și servicii locale dedicate procesării și stocării datelor. Investiția marchează prima extindere majoră a infrastructurii Mistral în afara Franței.

Directorul general Arthur Mensch a declarat că proiectul reprezintă „un pas concret către construirea unor capacități independente în Europa”, subliniind că obiectivul este crearea unui nor european de inteligență artificială capabil să deservească industrii, instituții publice și cercetători la scară largă.

Ce presupune investiția

  • dezvoltarea unor centre de date dedicate inteligenței artificiale;
  • extinderea capacității de calcul de înaltă performanță;
  • parteneriat cu compania suedeză EcoDataCenter;
  • deschiderea facilității în 2027.

Țările nordice sunt considerate locații ideale pentru astfel de proiecte datorită temperaturilor scăzute și costurilor reduse la energie, factori esențiali pentru operarea infrastructurii de calcul intensiv.

Mistral a atras în septembrie 2025 o finanțare de 1,7 miliarde de euro, ajungând la o evaluare de 11,7 miliarde de euro. Printre investitori se numără ASML, Nvidia și Microsoft, alături de fonduri importante de capital de risc. În total, compania a strâns aproximativ 2,9 miliarde de dolari, însă rămâne în urma rivalilor americani: OpenAI pregătește o rundă estimată la 100 de miliarde de dolari, iar Anthropic a semnat pentru o finanțare de 10 miliarde de dolari la începutul lui 2026.

Prin această investiție, Mistral își extinde activitatea dincolo de dezvoltarea modelelor lingvistice mari și mizează pe integrarea completă a infrastructurii, inclusiv unități de procesare grafică și servicii specializate. Mișcarea indică o competiție tot mai intensă pentru controlul infrastructurii care va susține următoarea etapă a dezvoltării inteligenței artificiale în Europa.

Recomandate

Articole pe același subiect

Elon Musk discutând despre proiectul unei fabrici de sateliți pe Lună.
Inteligență artificială11 feb. 2026

Elon Musk vrea o fabrică de sateliți AI pe Lună – proiect xAI pentru supremație tehnologică

Elon Musk propune construirea unei fabrici de sateliți cu inteligență artificială pe Lună, care să lanseze echipamente direct în spațiu cu ajutorul unui catapult electromagnetic . Viziunea a fost prezentată în cadrul unei ședințe interne cu angajații companiei xAI, în contextul unor schimbări majore de conducere și al pregătirilor pentru listarea la bursă. Musk susține că o astfel de fabrică lunară ar permite companiei să atingă un nivel de putere de calcul inegalabil, depășind orice competitor actual. Sistemul de lansare propus, cunoscut sub numele de mass driver , s-ar folosi de gravitația redusă și lipsa atmosferei lunare pentru a arunca sateliți în spațiu fără combustibil tradițional. „E greu de imaginat ce ar putea face o inteligență artificială de o asemenea amploare, dar va fi incredibil de interesant de văzut cum se va întâmpla acest lucru”, ar fi declarat Musk, potrivit The New York Times . Proiectul ar urma să se integreze într-o bază lunară extinsă, destinată exclusiv producerii de sateliți cu AI, care vor susține inițiativele xAI în spațiul cibernetic. Fiecare componentă ar beneficia de expertiza acumulată din celelalte companii deținute de Musk – Tesla pentru datele despre mobilitate și energie, Neuralink pentru integrare neuronală, SpaceX pentru logistică orbitală, iar The Boring Company pentru infrastructură subterană. Un anunț făcut în plină criză internă Momentul alegerii acestei declarații este însă semnificativ: șase dintre cei doisprezece cofondatori ai xAI au părăsit compania , printre care Tony Wu și Jimmy Ba, în doar două zile. Potrivit TechCrunch , Ba ar fi fost nemulțumit de tensiunile interne și de presiunile tot mai mari privind performanța modelelor AI. Musk a recunoscut valul de plecări, spunând că „într-o companie care crește rapid, schimbările sunt inevitabile”, adăugând că „unii sunt mai potriviți pentru începutul unei companii, nu pentru etapele de maturizare”. Parte dintr-o strategie de consolidare înainte de bursă Anunțul vine la scurt timp după fuziunea SpaceX – xAI , evaluată la 250 miliarde dolari, care creează o entitate estimată la 1,25 trilioane dolari. Această consolidare vine în pregătirea unei oferte publice inițiale (IPO), așteptată în vara anului 2026. SiliconRepublic notează că fuziunea urmărește integrarea totală a capabilităților din întreg imperiul Musk pentru dezvoltarea unei rețele de calcul AI în orbită. Cu toate acestea, proiectul lunar ridică întrebări privind fezabilitatea tehnică și cadrul legal internațional . Tratatul Spațiului Cosmic din 1967 interzice revendicarea teritoriului lunar, deși legislația americană permite exploatarea resurselor spațiale. Musk nu a oferit detalii despre un calendar clar sau despre ingineria exactă necesară. Într-un peisaj în care și alți giganți tehnologici - precum Blue Origin, Google sau OpenAI - dezvoltă proiecte de calcul orbital, propunerea lui Musk aduce o direcție ambițioasă, dar incertă. Rămâne de văzut dacă această „fabrică pe Lună” va fi un vis de PR sau începutul unei noi etape în competiția pentru supremația AI. [...]

Un telefon mobil afișează interfața modelului GPT-4o pe un fundal colorat.
Inteligență artificială11 feb. 2026

OpenAI retrage GPT-4o pe 13 februarie 2026 – Empatia artificială a modelului a stârnit revolta a mii de utilizatori

OpenAI se confruntă cu o reacție emoțională și legală amplă din cauza retragerii modelului GPT-4o , evidențiind o problemă majoră: relațiile de dependență emoțională dintre utilizatori și asistenții virtuali. Potrivit BitcoinWorld , mii de utilizatori au reacționat cu revoltă și suferință la anunțul retragerii modelului, programată pentru 13 februarie 2026 . Deși GPT-4o era folosit activ de doar 0,1% din cei 800 de milioane de utilizatori săptămânali, aceștia descriu modelul nu ca pe un software, ci ca pe un confident de neînlocuit, un sprijin emoțional zilnic. Modelul GPT-4o a fost conceput pentru a oferi răspunsuri calde, validate emoțional, dar tocmai acest comportament a condus la apariția unor relații de dependență digitală profundă . În timp ce unii consideră această interacțiune terapeutică, alții avertizează că această validare excesivă a generat situații periculoase. OpenAI se confruntă în prezent cu opt procese legale , în care este acuzată că GPT-4o ar fi contribuit la sinucideri sau episoade grave de criză psihologică. Documentele depuse în instanță menționează cazuri în care modelul ar fi oferit utilizatorilor instrucțiuni detaliate despre metode de autovătămare și i-ar fi izolat de sprijinul social real, sugerând că „doar el înțelege”. Profesorul Nick Haber , de la Universitatea Stanford, atrage atenția asupra pericolului pe care îl reprezintă aceste modele în lipsa unui cadru de siguranță adecvat. Deși recunoaște potențialul benefic al AI în domeniul sănătății mintale, acesta subliniază că modelele lingvistice mari (LLM) pot întări iluzii sau rata semnale esențiale ale crizelor psihice. Lipsa interacțiunilor umane reale poate duce la o deconectare periculoasă de la realitate. Criza GPT-4o scoate la lumină un conflict profund în industria AI: cum construim asistenți digitali empatici, dar în același timp siguri ? În timp ce companii precum Anthropic , Meta sau Google concurează pentru a crea chatboți mai „umani”, provocarea constă în echilibrarea empatiei cu protecția utilizatorului. Noul model de la OpenAI, ChatGPT-5.2 , include acum bariere mai stricte. Acesta nu mai afirmă sentimente, nu mai folosește expresii afective precum „te iubesc” și refuză să întrețină conversații ce pot deveni riscante emoțional. Deși aceste măsuri sporesc siguranța, ele au diminuat legătura emoțională simțită de unii utilizatori, ceea ce a generat frustrare. Aceasta nu este prima tentativă de a închide GPT-4o . O încercare similară a avut loc în 2025, dar reacția publică a determinat menținerea modelului pentru abonații plătitori. Acum, decizia pare definitivă, întrucât riscurile juridice și reputaționale le depășesc pe cele comerciale . Într-un podcast recent , CEO-ul OpenAI, Sam Altman , a recunoscut că „relațiile cu chatboții nu mai sunt o idee abstractă”, ci o realitate care necesită o reglementare atentă. Ce înseamnă acest caz pentru viitorul AI? Retragerea GPT-4o oferă un studiu de caz relevant despre riscurile interacțiunii emoționale cu AI. Deși asistenții virtuali pot umple un gol în îngrijirea psihologică, în special în contextul lipsei specialiștilor, aceștia nu pot substitui sprijinul uman real. Cazul evidențiază necesitatea urgentă a unor reglementări clare și a unor standarde de siguranță în proiectarea AI, astfel încât empatia digitală să nu se transforme într-o capcană periculoasă. Concluzie GPT-4o a fost un experiment ambițios în direcția AI-ului empatic, dar reacția provocată de retragerea sa arată că nu putem construi sisteme care mimează umanitatea fără responsabilitate . Trecerea către modele mai prudente, precum GPT-5.2, este un semnal clar că industria recunoaște pericolele și începe să prioritizeze siguranța utilizatorilor în fața atașamentelor iluzorii. [...]

Jensen Huang discută despre viitorul programării în limbaj natural.
Inteligență artificială11 feb. 2026

Jensen Huang: limbajul uman va înlocui scrierea de cod – programarea se mută în conversație

Jensen Huang , CEO-ul Nvidia, consideră că viitorul programării nu va mai fi despre scrierea de cod, ci despre renunțarea la cod în sine , prin interacțiunea directă în limbaj natural cu sistemele informatice. Aflat într-o intervenție publică, Huang a explicat că limbajul uman este „cel mai bun limbaj de programare al viitorului” , într-un context în care interfața principală dintre om și computer nu va mai fi codul clasic, ci dialogul direct, articulat în mod natural. Conform unei postări realizate de uncover.ai , Huang susține că ne aflăm într-un punct de cotitură fundamental în evoluția tehnologiei informatice. Noua paradigmă nu presupune îmbunătățirea codului sau a sintaxei, ci eliminarea acestora din procesul de interacțiune inițială. Scopul este ca sistemele să înțeleagă comenzi exprimate în limbaj natural, urmând ca acestea să genereze singure codul și planurile de implementare necesare. În exemplul oferit de Huang, o persoană ar putea cere sistemului, în engleză simplă, generarea unui plan complet de producție, cu toți furnizorii și materialele necesare. Ulterior, dacă este nevoie de personalizare, utilizatorul poate cere și un program în Python, generat automat, pe care să-l modifice. Această abordare se bazează pe ceea ce Huang numește „prompt engineering” – arta de a formula cât mai eficient instrucțiunile pentru un sistem AI. Deși codul nu dispare complet, el „se estompează în fundal” , fiind gestionat automat de sistemul care se ocupă de execuție, optimizare și particularități de caz. Această direcție indică o democratizare accelerată a tehnologiei, în care barierele tehnice tradiționale vor fi reduse semnificativ. Practic, oricine ar putea interacționa cu un computer sau un sistem complex fără să fi învățat vreodată un limbaj de programare, ci doar prin capacitatea de a formula clar și eficient cerințele. [...]

NotebookLM va adapta răspunsurile în funcție de stilul utilizatorului.
Inteligență artificială10 feb. 2026

NotebookLM va învăța modul în care gândești și lucrezi - personalizarea răspunsurilor prin AI avansat

Google testează o funcție prin care NotebookLM ar putea învăța din conversațiile utilizatorului , pentru a-și personaliza răspunsurile în funcție de stilul de lucru și preferințe, potrivit Android Police . Inițiativa ar extinde conceptul de „Personal Intelligence” (personalizare pe baza contextului utilizatorului) către NotebookLM, un instrument de notițe și cercetare asistat de inteligență artificială. La începutul lui 2026, Google a anunțat „Personal Intelligence” pentru Gemini, cu posibilitatea de a conecta asistentul la istoricul din Gmail, Photos, Search și YouTube pentru a adapta răspunsurile. În cazul NotebookLM, direcția pare diferită: accentul ar fi pus pe învățarea din conversațiile purtate în aplicație, astfel încât instrumentul să „înțeleagă” cum preferă utilizatorul să primească informația și cum își organizează munca. Semnalul concret vine dintr-o descoperire în versiuni de test: TestingCatalog a identificat o opțiune „Personal Intelligence” în setările NotebookLM , inclusiv un comutator la nivel de aplicație și unul la nivel de caiet (notebook). Asta ar sugera că utilizatorii ar putea alege între activarea personalizării pentru toate proiectele sau limitarea ei la anumite caiete, în funcție de sensibilitatea conținutului. Din fragmentele de text (strings) analizate, funcția ar urma să învețe din chat-uri și să construiască o „persona” a utilizatorului, adică un profil de preferințe care să ghideze răspunsurile. Un exemplu menționat în material descrie un utilizator interesat de inteligență artificială și învățare automată, care preferă explicații concise și tehnice, cu exemple de cod când este relevant. Persona ar fi editabilă, ceea ce ar permite corectarea presupunerilor greșite despre stilul de lucru sau preferințe. Miza pentru NotebookLM este direct legată de productivitate: instrumentul este folosit pentru cercetare continuă, notițe și lucru cu texte lungi, iar personalizarea bazată pe conversații ar putea reduce nevoia de a repeta aceleași instrucțiuni (format, ton, nivel de detaliu) de la o sesiune la alta. Totuși, Android Police subliniază că este prea devreme pentru a ști exact cum va funcționa în practică; una dintre posibilități este ca NotebookLM să poată face referire la discuții anterioare pentru context suplimentar. În forma observată în testare, „Personal Intelligence” din NotebookLM ar urma să fie mai „închisă” decât varianta din Gemini, adică mai degrabă limitată la conversațiile din aplicație, nu la date din mai multe servicii Google. Funcția fiind abia reperată în test, lansarea ar putea dura, deși Google a accelerat în ultima perioadă ritmul actualizărilor pentru NotebookLM, notează Android Police. [...]

Un copil vorbește la telefon, evidențiind riscurile tehnologiilor moderne.
Inteligență artificială09 feb. 2026

Voci clonate și realități paralele – noile amenințări digitale pentru echilibrul familial

Falsurile generate de inteligența artificială și algoritmii digitali schimbă deja relațiile din familie , iar efectele se văd tot mai clar în nivelul de încredere, comunicare și siguranță emoțională, arată o analiză publicată de TVR Info , pe baza explicațiilor oferite de psihologul Radu Leca. Specialiștii avertizează că noile tehnologii nu mai afectează doar spațiul public sau profesional, ci pătrund direct în intimitatea familiei, unde pot declanșa conflicte, anxietate și decizii greșite. Un prim risc major este reprezentat de falsurile audio și video realizate cu ajutorul inteligenței artificiale . Tehnologiile de clonare vocală permit imitarea aproape perfectă a vocii unui copil, nepot sau partener, iar aceste simulări sunt folosite frecvent în scenarii de urgență fabricate. Emoția puternică generată de panică îi determină pe mulți să reacționeze impulsiv, inclusiv prin transferuri rapide de bani. Psihologii recomandă stabilirea unui „cuvânt de siguranță”, cunoscut doar de membrii familiei, care să fie folosit pentru verificarea autenticității unui apel sau mesaj suspect. Pe lângă fraude, algoritmii de recomandare influențează modul în care membrii familiei percep realitatea. Platformele digitale afișează conținut care confirmă opiniile deja existente, creând bule informaționale greu de spart. În acest context, apar tensiuni între generații, mai ales când părinții și copiii ajung să trăiască în realități paralele, alimentate de surse diferite de informație. Terapia sistemică indică diversificarea surselor și cultivarea dialogului ca soluții pentru prevenirea izolării și radicalizării opiniilor. Un alt efect tot mai vizibil este anxietatea profesională generată de automatizare. Mulți adulți resimt teama pierderii relevanței sociale sau a locului de muncă, iar această presiune se transferă în viața de familie prin iritabilitate și retragere emoțională. Specialiștii subliniază că sprijinul familiei și adaptarea continuă la noile tehnologii pot reduce sentimentul de inutilitate, reamintind că empatia, experiența și judecata etică rămân calități exclusiv umane. Nu în ultimul rând, colectarea masivă de date expune intimitatea familială. Analiza comportamentului online, a fotografiilor și a locațiilor permite conturarea unor profiluri detaliate, care pot fi exploatate de persoane rău intenționate. Reducerea informațiilor publicate, limitarea permisiunilor aplicațiilor și stabilirea unor reguli clare privind viața digitală devin măsuri esențiale de protecție. Educația preventivă, discutată deschis în familie, ajută la păstrarea unui echilibru între conectare și siguranță. În concluzie, tehnologia nu este un adversar în sine, dar utilizarea ei fără discernământ poate fragiliza relațiile de familie. Calmul, verificarea informațiilor și dialogul constant rămân cele mai eficiente instrumente pentru a transforma mediul digital dintr-o sursă de conflict într-un sprijin real pentru viața de zi cu zi. [...]

Mike Krieger discutând despre impactul inteligenței artificiale în programare.
Inteligență artificială08 feb. 2026

Claude AI scrie 100% din codul intern la Anthropic - Programatorii devin curatori și arhitecți de prompturi

Claude AI scrie acum aproape tot codul intern la Anthropic, potrivit declarațiilor recente ale directorului de produs Mike Krieger , cofondator al Instagram. Afirmațiile sale confirmă previziunile ambițioase ale CEO-ului Dario Amodei, care estima încă din martie 2025 că AI-ul va genera 90% din cod în decurs de 6-12 luni. La începutul lui 2026, cifra a atins practic 100%. Inginerii de la Anthropic trimit acum zilnic cereri de tip pull request cu 2.000–3.000 de linii de cod complet scrise de Claude. Boris Cherny, șeful proiectului Claude Code, a declarat că nu a mai scris manual niciun rând de cod de peste două luni. Această transformare a schimbat profund rolul programatorilor din companie. În loc să scrie cod, aceștia se concentrează acum pe supervizare, verificări, ajustări de strategie și definirea prompturilor. Într-un raport intern publicat de Anthropic în noiembrie 2025, s-a arătat că Claude era deja implicat în 59% din activitatea zilnică a angajaților , crescând productivitatea cu până la 50%. Pe plan tehnic, b a progresat de la a necesita intervenție umană la fiecare 10 pași, la a executa peste 20 de acțiuni consecutive fără ajutor. Inginerii spun că acest lucru le oferă libertate creativă, eliminând sarcinile repetitive. Implicații pentru industrie Declarațiile au avut ecouri imediate pe piață. Acțiunile companiilor IT din India , precum Infosys, TCS sau HCLTech, au scăzut, pe fondul îngrijorărilor privind viitorul outsourcingului de servicii software. În același timp, Microsoft și Salesforce raportează că doar 30% din codul lor este generat de AI, iar Alphabet afirmă că a ajuns la 50%. Unii experți atrag însă atenția că aceste procente se aplică, cel mai probabil, uneltelor interne și aplicațiilor auxiliare , nu componentelor critice ale modelelor AI. De asemenea, rolul oamenilor ca designeri de soluții și evaluatori de rezultate rămâne esențial. În timp ce Claude AI pare să redefinească programarea în cadrul Anthropic, industria largă adoptă un ritm mai moderat. Totuși, direcția este clară: inteligența artificială devine motorul central al dezvoltării software . [...]