Știri
Știri din categoria Inteligență artificială

Primăria Capitalei ia în calcul semafoare coordonate de inteligență artificială, potrivit Gadget.ro, într-un proiect care ar viza peste 500 de intersecții și treceri de pietoni din București. Informațiile sunt prezentate de autorul Cosmin Mușat, care notează însă că inițiativa are, în acest moment, un obstacol major: finanțarea.
Conform articolului semnat de Cosmin Mușat, proiectul ar urma să fie implementat în patru etape, începând cu amenajarea unui centru de comandă la parterul clădirii în care funcționează Centrul Integrat Municipal pentru Situații de Urgență București. Ulterior, ar urma modernizarea succesivă a 92, 185 și 270 de intersecții și treceri de pietoni.
Modernizările ar include instalarea de senzori magnetometrici (senzori montați în asfalt și pe stâlpi, care pot detecta prezența vehiculelor), camere video, automate de dirijare a circulației, precum și butoane și dispozitive acustice pentru pietoni. Sistemul ar urma să sincronizeze semafoarele și să ajusteze timpii de semaforizare în timp real, în funcție de trafic, inclusiv cu prioritizare pentru transportul public.
„Momentan nu sunt bani.”
Costul proiectului este estimat la aproape 52 de milioane de euro, iar, potrivit sursei, în prezent se caută finanțare din fonduri europene. În același timp, studiile de fezabilitate nu sunt finalizate, ceea ce împinge orice decizie de implementare într-un orizont încă neclar.
Din perspectivă practică, asta înseamnă că proiectul rămâne, deocamdată, la nivel de intenție și planificare, iar calendarul depinde de două condiții: finalizarea documentației tehnico-economice și identificarea sursei de finanțare. În lipsa acestora, trecerea de la concept la execuție nu poate fi evaluată realist.
Recomandate

OLX lansează AutoGPT, un chatbot AI pentru căutarea mașinilor, disponibil și în România noul instrument, dezvoltat în parteneriat cu OpenAI , marchează extinderea utilizării inteligenței artificiale în platformele de anunțuri auto operate de grup și promite să simplifice modul în care utilizatorii își aleg vehiculele. AutoGPT funcționează ca un asistent conversațional care permite căutări în limbaj natural, astfel încât utilizatorii pot descrie direct ce tip de mașină își doresc, iar sistemul generează rapid recomandări personalizate. Instrumentul oferă în câteva secunde o listă scurtă de opțiuni, însoțite de informații relevante: caracteristici esențiale ale vehiculelor; tendințe privind valoarea de revânzare; diferențe regionale de preț; istoric verificat al mașinilor, pe baza datelor OLX. AutoGPT este deja disponibil pe platforma Otomoto din Polonia, urmând să fie lansat și pe LaCentrale (Franța), Autovit.ro (România) și Standvirtual (Portugalia). Accesul se face prin ChatGPT, în secțiunea dedicată aplicațiilor. Noul produs vine în completarea AutoIQ, un serviciu dedicat dealerilor auto lansat anterior de OLX, și face parte dintr-o strategie mai amplă a grupului de integrare a inteligenței artificiale în serviciile sale. OLX Group, cu sediul în Amsterdam și deținut de Prosus, operează mai multe platforme cunoscute, inclusiv OLX, Autovit.ro, Storia și Property24. Inițiativa reflectă direcția Prosus de a accelera adoptarea AI în companiile din portofoliu, inclusiv prin parteneriate tehnologice menite să extindă utilizarea acestor soluții la nivel global, inclusiv în Europa. [...]

Xiaomi spune că modelul său MiMo-V2-Pro a intrat în top 5 global în clasamentul Text Arena, potrivit ITHome , care citează o postare a fondatorului, președintelui și CEO-ului companiei, Lei Jun. Conform informațiilor prezentate, MiMo-V2-Pro a urcat în primele cinci modele la nivel mondial în dimensiunea „Model Rank” din Text Arena, pe baza performanțelor raportate la raționament logic complex, respectarea instrucțiunilor lungi și stabilitatea în dialoguri cu mai multe runde. Lei Jun afirmă că modelul Xiaomi este „doar în urma” Anthropic, OpenAI și Google în această evaluare. În același set de clasamente, Xiaomi apare și la nivel de „LabRank” (indicator care ar măsura capacitatea de cercetare și dezvoltare a laboratorului): Text Arena (ArenaExpert) plasează Xiaomi pe locul 4 la nivel global, iar Code Arena pe locul 5, mai notează publicația chineză. Lei Jun a descris și mecanismul de evaluare al Text Arena, susținând că acesta folosește un sistem de „testare dublu-orb”: identitatea modelelor ar fi ascunsă, iar utilizatori reali din întreaga lume ar vota în timp real calitatea răspunsurilor. Scopul ar fi reducerea practicilor de optimizare pentru seturi de date fixe („urcarea în clasament” prin antrenare țintită pe benchmark-uri). Potrivit Xiaomi MiMo, de la lansarea globală a seriei Xiaomi MiMo-V2, pe 19 martie 2026, modelele MiMo-V2-Pro și MiMo-V2-Omni au atras interes din partea dezvoltatorilor, iar varianta Pro ar fi ajuns pe primul loc în clasamentele zilnice, săptămânale și de tendință ale OpenRouter după volumul de apeluri. Pe scurt, informațiile anunțate de Xiaomi indică următoarele poziționări și repere: MiMo-V2-Pro: top 5 global în „Model Rank” pe Text Arena, pe criterii precum raționament logic, instrucțiuni lungi și dialog multi-rundă Xiaomi: locul 4 global în „LabRank” pe Text Arena (ArenaExpert) Xiaomi: locul 5 global în „LabRank” pe Code Arena MiMo-V2-Pro: locul 1 în OpenRouter la volum de utilizare, în clasamentele zilnic, săptămânal și de tendință (conform Xiaomi MiMo) Promoția „XiaomiMiMo” cu acces gratuit în prima perioadă ar fi fost extinsă până la 2 aprilie 2026, ora 24:00 (ora Beijingului), potrivit unei informări anterioare citate de IT之家 Pentru piață, astfel de rezultate contează în măsura în care clasamentele de tip „arena” sunt folosite ca semnal rapid al calității percepute de utilizatori, iar poziționarea în topuri poate influența adopția în rândul dezvoltatorilor și integrarea în platforme de acces la modele. În același timp, detaliile despre metodologie și replicabilitate rămân esențiale atunci când companiile își compară public performanțele. [...]

Jay Collins, un bancher de la Citi, avertizează că ascensiunea inteligenței artificiale (AI) și a roboticii ar putea duce la un „sfârșit tragic” pentru capitalism , potrivit HotNews.ro . Collins, președinte al Citigroup pentru sectorul public, a subliniat că aceste tehnologii reprezintă provocări majore pentru capitalism, care trebuie abordate de liderii politici și de afaceri. Collins susține că pentru a integra AI și robotica în societate, capitalismul trebuie ajustat și remodelat, similar cu transformările din timpul Revoluției Industriale. El avertizează că, fără aceste schimbări, capitalismul ar putea deveni un regim autoritar. Impactul asupra forței de muncă Bancherul explică faptul că AI și robotica vor afecta în primul rând locurile de muncă cognitive, începând cu cele de birou. Domenii precum software-ul, finanțele, media și consultanța sunt expuse riscului, iar clasa de mijloc ar putea fi afectată semnificativ. Collins atrage atenția asupra unei economii de tip „K”, în care inegalitatea între cei bogați și cei săraci se adâncește. În SUA, doar 10% din populație deține o avere netă considerabilă, în timp ce clasa de mijloc stagnează, neavând acces la active de capital. Collins avertizează că acest dezechilibru va crește odată cu avansul AI. Faze ale dezvoltării AI Collins identifică patru faze ale dezvoltării AI. Prima fază este cea a inteligenței artificiale generative, urmată de faza agentică, în care AI poate realiza sarcini autonom. A treia fază implică AI „fizică”, integrată în roboți, iar ultima fază, cea mai provocatoare pentru capitalism, este Inteligența Artificială Generală (AGI). „Gândiți-vă la ea ca trecând de la analiză și cercetare la acțiune. Un agent poate acționa”, subliniază Collins. Provocări și soluții Collins estimează că următorul val major de perturbări pe piața muncii va avea loc până la sfârșitul acestui deceniu. El subliniază că integrarea AI și roboticii în producție va afecta locurile de muncă fizice și că liderii din tehnologie ar prefera să încetinească acest proces, dar sunt constrânși de competiția geostrategică, în special cu China. Ca soluție, Collins propune un „dividend de productivitate”, care ar putea începe cu sume mici și ajustate treptat. Acesta ar putea fi finanțat prin impozitarea roboților, AI, activelor și miliardarilor, sau printr-o reproiectare a sistemului de protecție socială. Collins subliniază necesitatea unor experimente agresive pentru a găsi soluții viabile, avertizând că fără un răspuns adecvat, capitalismul și democrația ar putea suferi consecințe grave. [...]

Wikipedia a interzis folosirea inteligenței artificiale pentru generarea sau rescrierea conținutului în enciclopedia sa online, potrivit The Guardian . Decizia vizează în special utilizarea modelelor lingvistice de mari dimensiuni (LLM, sisteme de tip ChatGPT) și se aplică versiunii în limba engleză, care are peste 7,1 milioane de articole. Schimbarea de politică vine după dezbateri în comunitatea de editori voluntari, unde subiectul folosirii AI a fost disputat. Publicația notează că un vot al editorilor a susținut interdicția, conform 404 Media . Wikipedia motivează măsura prin faptul că utilizarea LLM „încalcă adesea” principiile de bază ale proiectului. Totuși, politica introduce două excepții: AI poate fi folosită pentru traduceri și pentru corecturi minore de stil, cu condiția ca un om să verifice rezultatul și ca instrumentul să nu adauge informații noi. „Editorilor li se permite să folosească LLM-uri pentru a sugera corecturi de bază ale propriilor texte și să includă unele dintre ele după o revizuire umană, cu condiția ca LLM-ul să nu introducă conținut propriu”, se arată în noua politică. În același document, Wikipedia avertizează că astfel de modele pot modifica sensul unui text dincolo de cerința inițială și pot ajunge la formulări care nu sunt susținute de sursele citate. Contextul mai larg este creșterea utilizării instrumentelor de AI pentru informare, The Guardian menționând că ChatGPT ar fi depășit Wikipedia la numărul de vizite lunare anul trecut. Articolul amintește și poziții anterioare ale lui Jimmy Wales, fondatorul Wikipedia, care a descris rezultatele înșelătoare sau „halucinate” ale AI drept „un dezastru” și a spus că, deși AI ar putea ajuta în anumite zone, nu ar trebui folosită pentru redactarea articolelor „cel puțin deocamdată”. [...]

Microsoft a lansat trei modele mari de inteligență artificială potrivit HotNews.ro , într-o mișcare care indică intenția companiei de a-și extinde propriul ecosistem de modele multimodale (capabile să lucreze cu mai multe tipuri de date, precum text, voce și imagini) și de a concura mai direct cu rivalii din piață. Lansarea vine în contextul în care Microsoft are o relație strânsă cu compania din spatele ChatGPT, dar continuă să dezvolte și modele proprii, notează TechCrunch . Noile modele anunțate se numesc MAI-Transcribe-1, MAI-Voice-1 și MAI-Image-2. Pe scurt, Microsoft descrie astfel rolul fiecărui model: MAI-Transcribe-1 : transformă vorbirea în text în 25 de limbi și ar fi de 2,5 ori mai rapid decât oferta „Azure Fast” a companiei; este proiectat să reducă zgomotul de fond și urmează să fie integrat în Microsoft Teams . MAI-Voice-1 : poate genera conținut audio, compania susținând că într-o secundă se pot produce 60 de secunde de sunet într-o voce aleasă. MAI-Image-2 : model pentru generarea de imagini (fără detalii suplimentare în material despre performanțe sau disponibilitate). Modelele au fost dezvoltate de echipa MAI Superintelligence, condusă de Mustafa Suleyman, CEO al Microsoft AI, venit în companie în 2024. Microsoft își consolidează, în paralel, infrastructura de calcul necesară pentru antrenarea și rularea unor modele mai versatile, iar Suleyman a spus că firma a început din octombrie să folosească un „cluster” (grup) de cipuri Nvidia GB200 și că își va crește treptat capacitatea în următoarele 12–18 luni, transmite Bloomberg . În plan comercial, Microsoft a investit 13 miliarde de dolari în laboratorul de cercetare AI și integrează modelele în produse printr-un parteneriat multianual, ceea ce sugerează o accelerare a strategiei de a împacheta capabilitățile AI direct în aplicațiile folosite la scară largă, inclusiv în zona de colaborare și productivitate. [...]

Google a anunțat Gemma 4, o nouă familie de modele AI open-source cu licență Apache 2.0 , potrivit Neowin . Compania spune că modelele sunt construite pe aceeași bază de cercetare ca Gemini 3 (modelele proprietare ale Google), dar, spre deosebire de acestea, Gemma 4 este publicat ca software cu cod sursă deschis și poate fi folosit comercial fără restricții, printr-o licență permisivă. Un element central al generației Gemma 4 este orientarea către „fluxuri de lucru agentice” (agentic workflows), adică scenarii în care un model poate acționa ca un „agent” care execută sarcini și interacționează cu servicii externe. Toate modelele Gemma 4 includ suport nativ pentru apelarea de funcții (function calling), ieșire JSON structurată și instrucțiuni de sistem, ceea ce ar permite dezvoltatorilor să construiască agenți autonomi care rulează local și pot apela API-uri externe. Google își susține poziționarea și cu rezultate din clasamente publice. Conform Google , varianta Gemma 4 „31B Dense” este pe locul 3 între modelele deschise în clasamentul Arena AI, iar modelul „26B” este pe locul 6, compania afirmând că acesta din urmă depășește competitori de până la 20 de ori mai mari ca dimensiune. Tot Google precizează că „greutățile” necuantizate (parametrii modelului, păstrați la precizie mai mare) pentru 26B și 31B încap pe un singur GPU NVIDIA H100 de 80 GB. Pentru dezvoltare locală, articolul notează și existența unui model 26B de tip „Mixture of Experts” (MoE), optimizat pentru latență. În acest tip de arhitectură, nu toți parametrii sunt folosiți la fiecare răspuns; în cazul de față, sunt activați 3,8 miliarde de parametri în timpul inferenței, ceea ce ar crește viteza de generare a tokenilor și ar ajuta la rularea unor asistenți de programare pe plăci grafice de consum. Pe partea de capabilități, Google pune accent și pe multimodalitate: familia Gemma 4 poate procesa nativ imagini și video la rezoluție înaltă, iar modelele „E2B” și „E4B” pentru dispozitive de tip edge (rulare aproape de utilizator, pe hardware local) adaugă intrare audio pentru recunoaștere vocală cu latență foarte mică. În plus, aceste modele vin cu o „fereastră de context” (context window) de 128.000 de tokeni pentru edge și până la 256.000 pentru variantele 26B/31B, adică pot păstra mai multă informație relevantă în aceeași sesiune. Din perspectiva pieței, Google își diferențiază Gemma 4 de iterațiile anterioare, care aveau termeni de utilizare mai restrictivi și erau contestate ca „open-source” în sens strict. Neowin consemnează că, prin licența Apache 2.0 fără limitări comerciale, Google intră mai direct în competiție cu modelele Llama ale Meta, care folosesc, de asemenea, o licențiere de tip Apache. În zona de distribuție și integrare, Gemma 4 este deja compatibil cu platforme precum Hugging Face, Ollama și vLLM și beneficiază de optimizări hardware de la NVIDIA, AMD, Qualcomm și MediaTek. Pentru dezvoltatorii de aplicații mobile, modelele pot fi testate în AICore Developer Preview, Google indicând și compatibilitate viitoare cu Gemini Nano 4. Principalele noutăți menționate pentru Gemma 4: licență Apache 2.0 permisivă, cu utilizare comercială fără restricții; suport nativ pentru function calling, JSON structurat și instrucțiuni de sistem (orientare către agenți AI); modele 26B/31B care, potrivit Google, încap ca „greutăți” necuantizate pe un GPU NVIDIA H100 de 80 GB; variantă 26B MoE optimizată pentru latență, cu 3,8 miliarde de parametri activați la inferență; multimodalitate (imagini/video), plus intrare audio pe modelele edge E2B/E4B; ferestre de context de 128K tokeni (edge) și până la 256K (26B/31B). [...]