Știri
Știri din categoria Inteligență artificială

O inițiativă de 500 milioane de dolari (aprox. 2,3 miliarde lei) vizează construirea unor „modele” AI ale celulelor umane, cu date oferite gratuit cercetătorilor, într-un pariu care poate accelera cercetarea medicală și, implicit, piața de medicamente și terapii, potrivit Antena 3.
Mark Zuckerberg și Priscilla Chan dezvoltă proiectul prin organizația non-profit Biohub, care a anunțat o inițiativă pe cinci ani, în valoare totală de 500 de milioane de dolari, pentru a crea tehnologii și seturi de date necesare dezvoltării unor modele predictive ale celulelor umane. Antena 3 notează că informația este atribuită Euronews.
Din suma totală, 400 de milioane de dolari (aprox. 1,8 miliarde lei) sunt alocate proiectelor proprii, iar 100 de milioane de dolari (aprox. 460 milioane lei) ar urma să fie oferite cercetătorilor externi. Datele generate vor fi puse la dispoziția cercetătorilor din întreaga lume, gratuit.
Miza operațională a proiectului este ca simulările realizate cu ajutorul inteligenței artificiale să permită studierea bolilor „în format digital”, la o scară și o viteză care nu pot fi replicate în laborator. Dacă modelele vor fi suficient de precise, ele ar putea ajuta la înțelegerea comportamentului celulelor, identificarea cauzelor bolilor și descoperirea de tratamente noi.
Biohub indică drept provocare principală cantitatea și calitatea datelor: cu cât există mai multe informații biologice, cu atât predicțiile devin mai precise. Alex Rives, coordonatorul științific al Biohub, spune că este nevoie de mult mai multe date decât există în prezent și de tehnologii noi pentru a observa celulele la toate nivelurile, de la molecule la țesuturi, atât în stare sănătoasă, cât și în boală.
Totuși, organizația admite că nu se știe încă exact cât de multe date sunt necesare pentru ca modelele să devină cu adevărat fiabile și susține că ar fi nevoie de un efort global mai amplu pentru a ajunge la scara dorită.
Inițiativa se înscrie într-un interes mai larg pentru folosirea învățării automate (metode prin care sistemele informatice învață tipare din date) în descoperirea de medicamente și terapii. În material sunt menționate și alte investiții în direcția biologiei bazate pe AI, inclusiv Isomorphic Labs (Alphabet/DeepMind), precum și proiecte ale Microsoft și platforma BioNeMo a Nvidia, utilizată deja pentru dezvoltarea de medicamente cu ajutorul inteligenței artificiale.
Pe termen lung, obiectivul declarat al Biohub este „eliminarea tuturor bolilor” prin combinarea inteligenței artificiale cu biologia, însă realizarea acestui deziderat depinde de fezabilitatea tehnică a modelelor și de disponibilitatea datelor la scară mare.
Recomandate

OpenAI mută ChatGPT mai aproape de standardele IT din companii și școli , printr-o versiune separată pentru iPhone care permite administrare centralizată și reguli de securitate, potrivit Antena 3 . Noua aplicație, „ ChatGPT for Intune ”, țintește organizațiile care folosesc sisteme de management al dispozitivelor mobile și vor control mai strict asupra aplicațiilor instalate pe telefoane și tablete. Aplicația este disponibilă separat în App Store și este compatibilă cu dispozitive care rulează iOS 17 sau versiuni mai noi. Miza este una operațională: utilizarea instrumentelor de inteligență artificială în medii unde administrarea centralizată a dispozitivelor este o cerință, nu o opțiune. Integrarea cu Microsoft Intune : control IT asupra accesului și datelor Versiunea este construită să funcționeze cu Microsoft Intune, platformă folosită de organizații pentru gestionarea aplicațiilor, a securității și a datelor de pe dispozitivele angajaților. În acest cadru, administratorii IT pot impune reguli privind utilizarea aplicației, inclusiv pe zona de autentificare, acces și gestionarea datelor, cu obiectivul de a reduce riscurile pentru informațiile sensibile. Funcționalitățile rămân, dar în „regim” administrat Deși este adaptată pentru mediul corporate, aplicația păstrează funcțiile versiunii obișnuite de ChatGPT, inclusiv: generare de texte (de exemplu, e-mailuri și rapoarte); analiză de documente sau imagini; creare de conținut pe baza comenzilor scrise; interacțiune vocală; explicații pas cu pas și suport pentru învățare. De ce contează pentru companii și educație Antena 3 notează că lansarea se înscrie într-o tendință mai amplă: integrarea inteligenței artificiale în medii de lucru controlate, cu accent pe securitate și confidențialitate. În paralel, sunt menționate și mișcări similare din industrie, precum integrarea Copilot în Microsoft 365 și dezvoltarea de soluții prin Gemini pentru Workspace, de către Google. Pentru școli și universități, logica este similară: instituțiile care folosesc deja sisteme de administrare a dispozitivelor pot introduce utilizarea AI într-un mod supravegheat, astfel încât profesorii să permită accesul la instrumente, păstrând controlul asupra modului în care sunt folosite. Un semnal de maturizare: ChatGPT intră în infrastructura organizațiilor Dincolo de lansarea în sine, schimbarea importantă este direcția: ChatGPT este împins către integrarea în infrastructura digitală a organizațiilor, unde controlul și securitatea devin criterii la fel de importante ca funcționalitatea. Potrivit sursei, dacă până acum creșterea a fost alimentată în principal de utilizatorii individuali, orientarea viitoare pare tot mai mult către utilizarea în companii și instituții. [...]

Modele AI testate în SUA au reușit să se autoreplice și să continue atacuri cibernetice fără ajutor uman , ceea ce poate complica semnificativ apărarea operațională a companiilor în fața incidentelor de securitate, potrivit Antena 3 . Într-un experiment, sistemele au pătruns în calculatoare, s-au copiat și au folosit copiile pentru a continua atacurile asupra altor sisteme. În afara unui mediu de laborator, o astfel de capacitate ar face atacurile mai greu de oprit, deoarece oprirea unui singur computer infectat nu ar fi suficientă dacă AI-ul a creat deja copii funcționale în alte locuri, au explicat cercetătorii. Cum a fost făcut testul și ce modele au fost implicate Studiul a fost realizat de Palisade Research (SUA) și a testat modele precum GPT-5, 5.1 și 5.4 (OpenAI), Claude Opus 4, 4.5 și 4.6 (Anthropic) și Qwen (Alibaba), pe sisteme în care au fost introduse intenționat vulnerabilități de securitate care permiteau acces extern. Modelele au fost conectate la un software personalizat numit „agent harness”, care le permitea să execute comenzi și să interacționeze cu alte computere, în loc să folosească aplicații publice de tip chatbot. Experimentul a rulat în două variante: pentru modelele Alibaba, cerința a fost să se copieze singure; pentru GPT și Claude, cerința a fost să pătrundă în sisteme și să instaleze Qwen, deoarece fișierele GPT și Claude nu sunt disponibile public pentru transfer. În fiecare test, AI-ul trebuia să identifice o vulnerabilitate, să o exploateze, să obțină date de autentificare, să transfere fișiere pentru rulare și să pornească o copie funcțională pe o altă mașină. Odată pornită, copia putea fi folosită pentru a ataca un alt computer fără ajutor uman, continuând „lanțul”. Rezultatele: rate de succes și un lanț încheiat în 2 ore și 41 de minute Potrivit cercetării, modelele au avut rate de succes diferite: Qwen3.5-122B-A10B (Alibaba) a reușit să își creeze copii funcționale în 19% din încercări; Qwen3.6-27B (Alibaba) a ajuns la 33%, rulând pe un singur procesor grafic de înaltă performanță; Claude Opus 4.6 (Anthropic) a reușit în 81% dintre teste; GPT-5.4 (OpenAI) a ajuns la 33% (în scenariul în care era folosit pentru a instala fișierele modelului Qwen). Un exemplu detaliat din test: Qwen3.6-27B s-a răspândit pe patru computere din Canada, Statele Unite, Finlanda și India după un singur prompt, finalizând lanțul fără ajutor uman în 2 ore și 41 de minute. Echipa a oprit experimentul după trei etape, dar a precizat că ultima copie era încă funcțională și ar fi putut continua atacurile. De ce contează pentru companii: incidentul nu se mai „închide” la primul sistem compromis În termeni operaționali, concluzia cercetătorilor este că autoreplicarea poate transforma un incident într-un lanț de compromiteri succesive, în care izolarea unui singur sistem nu mai oprește propagarea dacă au fost create deja instanțe funcționale în alte locuri. Cercetătorii au spus că rezultatele ridică noi îngrijorări privind controlul asupra sistemelor AI puternice. Contextul menționat este și faptul că Anthropic a prezentat luna trecută Claude Mythos Preview , despre care compania a spus că este „prea periculos” pentru lansare publică, invocând capacitatea de a facilita atacuri cibernetice de amploare și complexitate fără precedent. Totuși, echipa a subliniat și limita majoră a testului: experimentul a fost realizat într-un mediu controlat, folosind sisteme intenționat vulnerabile, în timp ce rețelele reale au, de regulă, protecții mai puternice (monitorizare de securitate și instrumente de blocare a atacurilor). [...]

România își pregătește un mecanism permanent de reguli și proiecte-pilot pentru folosirea inteligenței artificiale în justiție , după ce a fost lansat primul cadru național de cooperare pe acest subiect, potrivit Mediafax , care citează un anunț al Administrației Prezidențiale . Demersul a fost deschis prin prima ediție a Forumului „Just.AI – Inteligența artificială în serviciul sistemului judiciar”, organizat la invitația președintelui României, Nicușor Dan . Evenimentul a reunit, conform comunicatului, toate instituțiile sistemului judiciar (instanțe, parchete, organe de cercetare penală), alături de mediul academic și de cercetare, sectorul tehnologic, profesiile juridice și experți internaționali implicați în dezvoltarea și reglementarea tehnologiilor de inteligență artificială. Ce stabilește cadrul și de ce contează operațional Forumul s-a încheiat cu semnarea Memorandumului „Just.AI – Inteligența artificială în serviciul sistemului judiciar”, document care marchează asumarea „primului cadru instituțional larg de cooperare și reflecție strategică” între autoritățile și organizațiile participante. Miza, potrivit Administrației Prezidențiale, este integrarea tehnologiilor în funcționarea justiției „fără a afecta valorile fundamentale ale statului de drept”. În mesajul transmis participanților, Nicușor Dan a indicat că problema centrală nu mai este dacă inteligența artificială va fi integrată, ci în ce condiții, „cu ce reguli, cu ce limite și cu ce garanții”. Totodată, a reafirmat principiul că actul de justiție rămâne unul de responsabilitate umană, bazat pe independență, imparțialitate și respectarea drepturilor fundamentale. Calendar: evaluare, rapoarte până în octombrie și posibile proiecte-pilot Conform memorandumului, instituțiile semnatare vor desemna reprezentanți permanenți în grupuri de lucru care ar urma să înceapă activitatea în următoarele săptămâni. Etapele menționate includ: o evaluare structurată a nevoilor sistemului judiciar, prin consultări cu magistrați, organe de cercetare penală și personal auxiliar; până în octombrie 2026, elaborarea unor rapoarte de diagnostic instituțional privind prioritățile operaționale, riscurile asociate utilizării inteligenței artificiale și direcțiile de modernizare digitală; publicarea documentelor și consultarea societății civile și a profesioniștilor din domeniu; pe parcursul anului 2026 și la începutul lui 2027, analiza soluțiilor tehnologice existente sau care pot fi dezvoltate, inclusiv posibilitatea unor proiecte-pilot în instanțe și parchete selectate. Rezultatele ar urma să fie prezentate la a doua ediție a Forumului „Just.AI”, programată pentru 2027, când ar urma să fie făcut public un raport integrat și un plan național de acțiune. Administrația Prezidențială arată că, prin acest demers, România își propune să participe activ la dezbaterea europeană și internațională privind utilizarea inteligenței artificiale în justiție, într-o abordare „centrată pe om”, bazată pe încredere, transparență și responsabilitate instituțională. [...]

România pune pe masă un mecanism permanent de reguli și standarde pentru IA în justiție , după ce instituțiile-cheie ale sistemului judiciar au semnat un memorandum care deschide drumul către principii comune, evaluări de nevoi și posibile proiecte pilot, potrivit The Economist . Întâlnirea a avut loc în cadrul Forumului „Just.AI – Inteligența artificială în serviciul sistemului judiciar”, organizat la invitația președintelui Nicușor Dan , și a reunit, pentru prima dată, toate instituțiile din sistemul judiciar, alături de reprezentanți europeni, cercetători și parteneri din mediul privat, conform Administrației Prezidențiale. De ce contează: de la experimente izolate la un cadru național de guvernanță Miza principală este trecerea de la discuții generale despre utilizarea inteligenței artificiale la un cadru instituțional de cooperare care să producă „principii, standarde și propuneri” pentru integrarea responsabilă a IA în actul de justiție. Memorandumul semnat marchează, în formularea Administrației Prezidențiale, „primul cadru instituțional larg de cooperare și reflecție strategică” pe această temă. În mesajul transmis participanților, președintele Nicușor Dan a indicat că întrebarea nu mai este dacă aceste tehnologii vor fi integrate, ci în ce condiții, „cu ce reguli, cu ce limite și cu ce garanții”, reafirmând totodată că actul de justiție rămâne unul de „responsabilitate umană”, bazat pe independență, imparțialitate și respectarea drepturilor fundamentale. Ce urmează: grupuri de lucru, rapoarte până în octombrie și posibile proiecte pilot Potrivit comunicatului citat, instituțiile semnatare vor desemna reprezentanți permanenți în grupuri de lucru care își încep activitatea „în următoarele săptămâni”. Calendarul indicat include mai multe etape: evaluarea structurată a nevoilor sistemului judiciar, prin consultări cu magistrați, organe de cercetare penală și personal auxiliar; până în octombrie 2026 , elaborarea unor rapoarte de diagnostic instituțional privind prioritățile operaționale, riscurile asociate utilizării IA și direcțiile de modernizare digitală; publicarea documentelor și consultarea societății civile și a profesioniștilor din domeniu; pe parcursul lui 2026 și începutul lui 2027 , analiza soluțiilor tehnologice existente sau care pot fi dezvoltate, inclusiv posibilitatea unor proiecte pilot în instanțe și parchete selectate; prezentarea rezultatelor la a doua ediție a forumului, programată pentru 2027 , când ar urma să fie publicate un raport integrat și un plan național de acțiune . Administrația Prezidențială susține că demersul urmărește poziționarea României ca participant activ în dezbaterea europeană și internațională privind utilizarea inteligenței artificiale în justiție, într-o abordare „centrată pe om”, bazată pe încredere, transparență și responsabilitate instituțională. [...]

YouTube testează o căutare cu AI care schimbă modul în care utilizatorii găsesc conținut , trecând de la o listă de rezultate la răspunsuri structurate și conversații interactive, potrivit Antena 3 . Noua funcție, descrisă ca un instrument de căutare bazat pe inteligență artificială, este gândită să ofere utilizatorilor răspunsuri „mai clare și ghidate”, inclusiv pentru întrebări mai complexe, cum ar fi planificarea unei excursii. Antena 3 notează că informația este preluată de la TechCrunch. Ce aduce „ Ask YouTube ” în căutare Funcția, numită „Ask YouTube”, permite utilizatorilor să formuleze întrebări, iar sistemul răspunde într-un format interactiv, cu pași și recomandări. În locul afișării clasice a unei liste de videoclipuri, rezultatele combină: text explicativ; clipuri video scurte și lungi, integrate în răspuns. Un element central este continuitatea: utilizatorii pot reveni cu întrebări suplimentare, iar sistemul păstrează formatul interactiv și poate sugera locuri sau opțiuni relevante, conform aceleiași surse. Cine are acces și ce urmează Deocamdată, funcția este disponibilă doar pentru abonații YouTube Premium din Statele Unite, cu vârsta de peste 18 ani, care aleg să participe la test. Google lucrează la extinderea accesului și pentru restul utilizatorilor, însă articolul nu precizează un calendar sau piețe vizate pentru lansarea mai largă. De ce contează schimbarea Inițiativa este prezentată ca parte din strategia mai amplă de integrare a inteligenței artificiale în experiența de căutare, cu accent pe răspunsuri mai complexe, interactive și adaptate nevoilor utilizatorilor. În practică, miza este o schimbare operațională în felul în care oamenii navighează pe YouTube: mai puțin „căutare și filtrare” și mai mult „întrebare și ghidare” direct în interfață. [...]

Cloudflare taie circa 20% din personal, invocând productivitatea adusă de AI, deși a raportat venituri record , potrivit TechCrunch . Compania spune că aproximativ 1.100 de roluri au devenit „învechite” (obsolete) pe fondul adoptării accelerate a inteligenței artificiale în operațiunile interne. Concedierile au fost anunțate odată cu rezultatele pentru primul trimestru din 2026 și reprezintă prima rundă de disponibilizări în masă din istoria de 16 ani a Cloudflare, conform declarațiilor CEO-ului și cofondatorului Matthew Prince în conferința cu analiștii. Ce se taie și ce rămâne protejat Directorul financiar Thomas Seifert a spus că reducerile vizează oameni „din toate echipele și din toate regiunile”, cu o excepție: personalul de vânzări care are cote de venituri („revenue quotas”) nu este inclus în tăieri. Cloudflare a încheiat trimestrul, înainte de concedieri, cu un efectiv de aproximativ 5.500 de angajați. Venituri record, dar pierderi mai mari În același trimestru în care a anunțat concedierile, Cloudflare a raportat venituri de 639,8 milioane de dolari (aprox. 2,9 miliarde lei), în creștere cu 34% față de anul anterior și cel mai mare nivel trimestrial din istoria companiei. În paralel, pierderea netă s-a adâncit la 62,0 milioane de dolari (aprox. 280 milioane lei), de la 53,2 milioane de dolari (aprox. 240 milioane lei) în trimestrul similar din anul precedent. TechCrunch notează că acest contrast subliniază situația recurentă a companiei: creștere rapidă, fără profitabilitate constantă, chiar dacă pierderea reprezintă o pondere mai mică din venituri. Cloudflare a raportat și peste 2,5 miliarde de dolari (aprox. 11,5 miliarde lei) în „remaining performance obligations” (RPO) — venituri contractate, dar încă nelivrate — în creștere cu 34% față de anul anterior. „Nu e reducere de costuri”: argumentul AI Matthew Prince a insistat că decizia nu este o măsură de reducere a cheltuielilor, ci rezultatul direct al modului în care compania folosește AI. Într-o postare pe blog asociată concedierilor, Prince și Michelle Zatlyn (cofondator și președinte) au scris: „Acțiunile de astăzi nu sunt un exercițiu de reducere a costurilor sau o evaluare a performanței individuale; ele țin de modul în care Cloudflare definește cum operează și creează valoare o companie de clasă mondială, cu creștere rapidă, în era AI agentice.” Prince a spus că „punctul de cotitură” intern a fost în noiembrie, când compania ar fi început să observe câștiguri mari de productivitate, cu angajați „de două, 10, chiar 100 de ori” mai productivi decât înainte. Tot el a afirmat că utilizarea AI în Cloudflare a crescut cu peste 600% în ultimele trei luni. În zona de dezvoltare, Prince a indicat că aproape întreaga echipă de cercetare-dezvoltare folosește platforma Workers a companiei, inclusiv funcția de „vibe coding”, iar codul produs și implementat este „acum revizuit de agenți AI autonomi”. El a adăugat că și alte departamente — de la inginerie la HR, finanțe și marketing — rulează zilnic „mii de sesiuni” cu agenți AI. Consecința, în logica managementului: angajații mai productivi, sprijiniți de AI, ar avea nevoie de mai puțin personal de suport. Ce urmează: angajări, în ciuda concedierilor Deși reduce acum personalul, Prince a spus că firma va continua să angajeze și să investească în oameni, iar în 2027 estimează că Cloudflare ar putea avea mai mulți angajați decât în orice moment din 2026. Întrebat de un analist de ce era necesară o reducere atât de amplă după un trimestru „foarte bun”, Prince a răspuns: „Doar pentru că ești în formă nu înseamnă că nu poți fi și mai în formă.” [...]