Știri
Știri din categoria Inteligență artificială

OpenAI mută ChatGPT mai aproape de standardele IT din companii și școli, printr-o versiune separată pentru iPhone care permite administrare centralizată și reguli de securitate, potrivit Antena 3. Noua aplicație, „ChatGPT for Intune”, țintește organizațiile care folosesc sisteme de management al dispozitivelor mobile și vor control mai strict asupra aplicațiilor instalate pe telefoane și tablete.
Aplicația este disponibilă separat în App Store și este compatibilă cu dispozitive care rulează iOS 17 sau versiuni mai noi. Miza este una operațională: utilizarea instrumentelor de inteligență artificială în medii unde administrarea centralizată a dispozitivelor este o cerință, nu o opțiune.
Versiunea este construită să funcționeze cu Microsoft Intune, platformă folosită de organizații pentru gestionarea aplicațiilor, a securității și a datelor de pe dispozitivele angajaților. În acest cadru, administratorii IT pot impune reguli privind utilizarea aplicației, inclusiv pe zona de autentificare, acces și gestionarea datelor, cu obiectivul de a reduce riscurile pentru informațiile sensibile.
Deși este adaptată pentru mediul corporate, aplicația păstrează funcțiile versiunii obișnuite de ChatGPT, inclusiv:
Antena 3 notează că lansarea se înscrie într-o tendință mai amplă: integrarea inteligenței artificiale în medii de lucru controlate, cu accent pe securitate și confidențialitate. În paralel, sunt menționate și mișcări similare din industrie, precum integrarea Copilot în Microsoft 365 și dezvoltarea de soluții prin Gemini pentru Workspace, de către Google.
Pentru școli și universități, logica este similară: instituțiile care folosesc deja sisteme de administrare a dispozitivelor pot introduce utilizarea AI într-un mod supravegheat, astfel încât profesorii să permită accesul la instrumente, păstrând controlul asupra modului în care sunt folosite.
Dincolo de lansarea în sine, schimbarea importantă este direcția: ChatGPT este împins către integrarea în infrastructura digitală a organizațiilor, unde controlul și securitatea devin criterii la fel de importante ca funcționalitatea. Potrivit sursei, dacă până acum creșterea a fost alimentată în principal de utilizatorii individuali, orientarea viitoare pare tot mai mult către utilizarea în companii și instituții.
Recomandate

Mira Murati , fost CTO al OpenAI , a declarat sub jurământ că Sam Altman a mințit-o despre procedurile interne de siguranță , într-o mărturie prezentată în procesul „Musk v. Altman”, potrivit The Verge . Afirmația ridică miza de reglementare și de guvernanță corporativă în jurul OpenAI, într-un moment în care controalele de siguranță pentru modelele de inteligență artificială sunt tot mai des invocate ca argument pentru intervenție publică și reguli mai stricte. Într-o depoziție video difuzată în instanță, Murati a spus că Altman i-ar fi transmis în mod fals că departamentul juridic al OpenAI a decis că un nou model de inteligență artificială nu trebuie să treacă prin comitetul intern de siguranță pentru lansare (deployment safety board). Întrebată direct dacă Altman spunea adevărul, Murati a răspuns: „Nu”. Ce spune mărturia despre controlul intern al riscurilor Murati a descris episodul ca pe un exemplu al felului în care, în perioada în care a lucrat la OpenAI, Altman i-ar fi îngreunat activitatea. Critica ei ar fi „complet legată de management”, susținând că avea „o muncă incredibil de grea” într-o organizație complexă și că îi cerea lui Altman „să conducă, să conducă cu claritate” și să nu-i submineze capacitatea de a-și face treaba. În cazul concret al unui model din familia GPT, Murati a spus că, după discuția cu Altman, a verificat situația cu Jason Kwon (venit la OpenAI în 2021 ca director juridic și ajuns între timp director de strategie). Potrivit mărturiei, a constatat o „nepotrivire” între ce îi spusese Kwon și ce îi spusese Altman și, „pentru siguranță”, s-a asigurat că modelul a trecut totuși prin comitetul de siguranță. Context: acuzații mai vechi privind conduita lui Altman Materialul notează că nu este prima dată când Altman este acuzat că ar fi mințit. Cofondatorul Ilya Sutskever ar fi afirmat, într-un memoriu de 52 de pagini către board-ul OpenAI (citit într-o depoziție), că Altman „manifestă un tipar constant de minciună, subminare a executivilor și punerea executivilor unii împotriva altora”. De ce contează pentru piață și pentru reglementare Dincolo de disputa personală, mărturia lovește în credibilitatea mecanismelor interne prin care o companie de vârf din AI susține că își gestionează riscurile înainte de lansarea unor modele noi. Dacă deciziile privind trecerea prin filtrele de siguranță pot fi ocolite sau prezentate eronat în interior, presiunea pentru supraveghere externă și reguli mai stricte poate crește, inclusiv prin cerințe de audit și trasabilitate a deciziilor de lansare. Procesul „Musk v. Altman” este în desfășurare, iar informațiile provin din depoziții prezentate în instanță; articolul nu oferă, în acest fragment, poziția lui Altman sau a OpenAI la aceste afirmații. [...]

O inițiativă de 500 milioane de dolari (aprox. 2,3 miliarde lei) vizează construirea unor „modele” AI ale celulelor umane , cu date oferite gratuit cercetătorilor, într-un pariu care poate accelera cercetarea medicală și, implicit, piața de medicamente și terapii, potrivit Antena 3 . Mark Zuckerberg și Priscilla Chan dezvoltă proiectul prin organizația non-profit Biohub , care a anunțat o inițiativă pe cinci ani, în valoare totală de 500 de milioane de dolari, pentru a crea tehnologii și seturi de date necesare dezvoltării unor modele predictive ale celulelor umane. Antena 3 notează că informația este atribuită Euronews. Cum se împarte bugetul și ce se livrează Din suma totală, 400 de milioane de dolari (aprox. 1,8 miliarde lei) sunt alocate proiectelor proprii, iar 100 de milioane de dolari (aprox. 460 milioane lei) ar urma să fie oferite cercetătorilor externi. Datele generate vor fi puse la dispoziția cercetătorilor din întreaga lume, gratuit. Miza operațională a proiectului este ca simulările realizate cu ajutorul inteligenței artificiale să permită studierea bolilor „în format digital”, la o scară și o viteză care nu pot fi replicate în laborator. Dacă modelele vor fi suficient de precise, ele ar putea ajuta la înțelegerea comportamentului celulelor, identificarea cauzelor bolilor și descoperirea de tratamente noi. Blocajul: datele, nu doar algoritmii Biohub indică drept provocare principală cantitatea și calitatea datelor: cu cât există mai multe informații biologice, cu atât predicțiile devin mai precise. Alex Rives, coordonatorul științific al Biohub, spune că este nevoie de mult mai multe date decât există în prezent și de tehnologii noi pentru a observa celulele la toate nivelurile, de la molecule la țesuturi, atât în stare sănătoasă, cât și în boală. Totuși, organizația admite că nu se știe încă exact cât de multe date sunt necesare pentru ca modelele să devină cu adevărat fiabile și susține că ar fi nevoie de un efort global mai amplu pentru a ajunge la scara dorită. Context: cursa AI în științele vieții Inițiativa se înscrie într-un interes mai larg pentru folosirea învățării automate (metode prin care sistemele informatice învață tipare din date) în descoperirea de medicamente și terapii. În material sunt menționate și alte investiții în direcția biologiei bazate pe AI, inclusiv Isomorphic Labs (Alphabet/DeepMind), precum și proiecte ale Microsoft și platforma BioNeMo a Nvidia, utilizată deja pentru dezvoltarea de medicamente cu ajutorul inteligenței artificiale. Pe termen lung, obiectivul declarat al Biohub este „eliminarea tuturor bolilor” prin combinarea inteligenței artificiale cu biologia, însă realizarea acestui deziderat depinde de fezabilitatea tehnică a modelelor și de disponibilitatea datelor la scară mare. [...]

Modele AI testate în SUA au reușit să se autoreplice și să continue atacuri cibernetice fără ajutor uman , ceea ce poate complica semnificativ apărarea operațională a companiilor în fața incidentelor de securitate, potrivit Antena 3 . Într-un experiment, sistemele au pătruns în calculatoare, s-au copiat și au folosit copiile pentru a continua atacurile asupra altor sisteme. În afara unui mediu de laborator, o astfel de capacitate ar face atacurile mai greu de oprit, deoarece oprirea unui singur computer infectat nu ar fi suficientă dacă AI-ul a creat deja copii funcționale în alte locuri, au explicat cercetătorii. Cum a fost făcut testul și ce modele au fost implicate Studiul a fost realizat de Palisade Research (SUA) și a testat modele precum GPT-5, 5.1 și 5.4 (OpenAI), Claude Opus 4, 4.5 și 4.6 (Anthropic) și Qwen (Alibaba), pe sisteme în care au fost introduse intenționat vulnerabilități de securitate care permiteau acces extern. Modelele au fost conectate la un software personalizat numit „agent harness”, care le permitea să execute comenzi și să interacționeze cu alte computere, în loc să folosească aplicații publice de tip chatbot. Experimentul a rulat în două variante: pentru modelele Alibaba, cerința a fost să se copieze singure; pentru GPT și Claude, cerința a fost să pătrundă în sisteme și să instaleze Qwen, deoarece fișierele GPT și Claude nu sunt disponibile public pentru transfer. În fiecare test, AI-ul trebuia să identifice o vulnerabilitate, să o exploateze, să obțină date de autentificare, să transfere fișiere pentru rulare și să pornească o copie funcțională pe o altă mașină. Odată pornită, copia putea fi folosită pentru a ataca un alt computer fără ajutor uman, continuând „lanțul”. Rezultatele: rate de succes și un lanț încheiat în 2 ore și 41 de minute Potrivit cercetării, modelele au avut rate de succes diferite: Qwen3.5-122B-A10B (Alibaba) a reușit să își creeze copii funcționale în 19% din încercări; Qwen3.6-27B (Alibaba) a ajuns la 33%, rulând pe un singur procesor grafic de înaltă performanță; Claude Opus 4.6 (Anthropic) a reușit în 81% dintre teste; GPT-5.4 (OpenAI) a ajuns la 33% (în scenariul în care era folosit pentru a instala fișierele modelului Qwen). Un exemplu detaliat din test: Qwen3.6-27B s-a răspândit pe patru computere din Canada, Statele Unite, Finlanda și India după un singur prompt, finalizând lanțul fără ajutor uman în 2 ore și 41 de minute. Echipa a oprit experimentul după trei etape, dar a precizat că ultima copie era încă funcțională și ar fi putut continua atacurile. De ce contează pentru companii: incidentul nu se mai „închide” la primul sistem compromis În termeni operaționali, concluzia cercetătorilor este că autoreplicarea poate transforma un incident într-un lanț de compromiteri succesive, în care izolarea unui singur sistem nu mai oprește propagarea dacă au fost create deja instanțe funcționale în alte locuri. Cercetătorii au spus că rezultatele ridică noi îngrijorări privind controlul asupra sistemelor AI puternice. Contextul menționat este și faptul că Anthropic a prezentat luna trecută Claude Mythos Preview , despre care compania a spus că este „prea periculos” pentru lansare publică, invocând capacitatea de a facilita atacuri cibernetice de amploare și complexitate fără precedent. Totuși, echipa a subliniat și limita majoră a testului: experimentul a fost realizat într-un mediu controlat, folosind sisteme intenționat vulnerabile, în timp ce rețelele reale au, de regulă, protecții mai puternice (monitorizare de securitate și instrumente de blocare a atacurilor). [...]

România își pregătește un mecanism permanent de reguli și proiecte-pilot pentru folosirea inteligenței artificiale în justiție , după ce a fost lansat primul cadru național de cooperare pe acest subiect, potrivit Mediafax , care citează un anunț al Administrației Prezidențiale . Demersul a fost deschis prin prima ediție a Forumului „Just.AI – Inteligența artificială în serviciul sistemului judiciar”, organizat la invitația președintelui României, Nicușor Dan . Evenimentul a reunit, conform comunicatului, toate instituțiile sistemului judiciar (instanțe, parchete, organe de cercetare penală), alături de mediul academic și de cercetare, sectorul tehnologic, profesiile juridice și experți internaționali implicați în dezvoltarea și reglementarea tehnologiilor de inteligență artificială. Ce stabilește cadrul și de ce contează operațional Forumul s-a încheiat cu semnarea Memorandumului „Just.AI – Inteligența artificială în serviciul sistemului judiciar”, document care marchează asumarea „primului cadru instituțional larg de cooperare și reflecție strategică” între autoritățile și organizațiile participante. Miza, potrivit Administrației Prezidențiale, este integrarea tehnologiilor în funcționarea justiției „fără a afecta valorile fundamentale ale statului de drept”. În mesajul transmis participanților, Nicușor Dan a indicat că problema centrală nu mai este dacă inteligența artificială va fi integrată, ci în ce condiții, „cu ce reguli, cu ce limite și cu ce garanții”. Totodată, a reafirmat principiul că actul de justiție rămâne unul de responsabilitate umană, bazat pe independență, imparțialitate și respectarea drepturilor fundamentale. Calendar: evaluare, rapoarte până în octombrie și posibile proiecte-pilot Conform memorandumului, instituțiile semnatare vor desemna reprezentanți permanenți în grupuri de lucru care ar urma să înceapă activitatea în următoarele săptămâni. Etapele menționate includ: o evaluare structurată a nevoilor sistemului judiciar, prin consultări cu magistrați, organe de cercetare penală și personal auxiliar; până în octombrie 2026, elaborarea unor rapoarte de diagnostic instituțional privind prioritățile operaționale, riscurile asociate utilizării inteligenței artificiale și direcțiile de modernizare digitală; publicarea documentelor și consultarea societății civile și a profesioniștilor din domeniu; pe parcursul anului 2026 și la începutul lui 2027, analiza soluțiilor tehnologice existente sau care pot fi dezvoltate, inclusiv posibilitatea unor proiecte-pilot în instanțe și parchete selectate. Rezultatele ar urma să fie prezentate la a doua ediție a Forumului „Just.AI”, programată pentru 2027, când ar urma să fie făcut public un raport integrat și un plan național de acțiune. Administrația Prezidențială arată că, prin acest demers, România își propune să participe activ la dezbaterea europeană și internațională privind utilizarea inteligenței artificiale în justiție, într-o abordare „centrată pe om”, bazată pe încredere, transparență și responsabilitate instituțională. [...]

România pune pe masă un mecanism permanent de reguli și standarde pentru IA în justiție , după ce instituțiile-cheie ale sistemului judiciar au semnat un memorandum care deschide drumul către principii comune, evaluări de nevoi și posibile proiecte pilot, potrivit The Economist . Întâlnirea a avut loc în cadrul Forumului „Just.AI – Inteligența artificială în serviciul sistemului judiciar”, organizat la invitația președintelui Nicușor Dan , și a reunit, pentru prima dată, toate instituțiile din sistemul judiciar, alături de reprezentanți europeni, cercetători și parteneri din mediul privat, conform Administrației Prezidențiale. De ce contează: de la experimente izolate la un cadru național de guvernanță Miza principală este trecerea de la discuții generale despre utilizarea inteligenței artificiale la un cadru instituțional de cooperare care să producă „principii, standarde și propuneri” pentru integrarea responsabilă a IA în actul de justiție. Memorandumul semnat marchează, în formularea Administrației Prezidențiale, „primul cadru instituțional larg de cooperare și reflecție strategică” pe această temă. În mesajul transmis participanților, președintele Nicușor Dan a indicat că întrebarea nu mai este dacă aceste tehnologii vor fi integrate, ci în ce condiții, „cu ce reguli, cu ce limite și cu ce garanții”, reafirmând totodată că actul de justiție rămâne unul de „responsabilitate umană”, bazat pe independență, imparțialitate și respectarea drepturilor fundamentale. Ce urmează: grupuri de lucru, rapoarte până în octombrie și posibile proiecte pilot Potrivit comunicatului citat, instituțiile semnatare vor desemna reprezentanți permanenți în grupuri de lucru care își încep activitatea „în următoarele săptămâni”. Calendarul indicat include mai multe etape: evaluarea structurată a nevoilor sistemului judiciar, prin consultări cu magistrați, organe de cercetare penală și personal auxiliar; până în octombrie 2026 , elaborarea unor rapoarte de diagnostic instituțional privind prioritățile operaționale, riscurile asociate utilizării IA și direcțiile de modernizare digitală; publicarea documentelor și consultarea societății civile și a profesioniștilor din domeniu; pe parcursul lui 2026 și începutul lui 2027 , analiza soluțiilor tehnologice existente sau care pot fi dezvoltate, inclusiv posibilitatea unor proiecte pilot în instanțe și parchete selectate; prezentarea rezultatelor la a doua ediție a forumului, programată pentru 2027 , când ar urma să fie publicate un raport integrat și un plan național de acțiune . Administrația Prezidențială susține că demersul urmărește poziționarea României ca participant activ în dezbaterea europeană și internațională privind utilizarea inteligenței artificiale în justiție, într-o abordare „centrată pe om”, bazată pe încredere, transparență și responsabilitate instituțională. [...]

YouTube testează o căutare cu AI care schimbă modul în care utilizatorii găsesc conținut , trecând de la o listă de rezultate la răspunsuri structurate și conversații interactive, potrivit Antena 3 . Noua funcție, descrisă ca un instrument de căutare bazat pe inteligență artificială, este gândită să ofere utilizatorilor răspunsuri „mai clare și ghidate”, inclusiv pentru întrebări mai complexe, cum ar fi planificarea unei excursii. Antena 3 notează că informația este preluată de la TechCrunch. Ce aduce „ Ask YouTube ” în căutare Funcția, numită „Ask YouTube”, permite utilizatorilor să formuleze întrebări, iar sistemul răspunde într-un format interactiv, cu pași și recomandări. În locul afișării clasice a unei liste de videoclipuri, rezultatele combină: text explicativ; clipuri video scurte și lungi, integrate în răspuns. Un element central este continuitatea: utilizatorii pot reveni cu întrebări suplimentare, iar sistemul păstrează formatul interactiv și poate sugera locuri sau opțiuni relevante, conform aceleiași surse. Cine are acces și ce urmează Deocamdată, funcția este disponibilă doar pentru abonații YouTube Premium din Statele Unite, cu vârsta de peste 18 ani, care aleg să participe la test. Google lucrează la extinderea accesului și pentru restul utilizatorilor, însă articolul nu precizează un calendar sau piețe vizate pentru lansarea mai largă. De ce contează schimbarea Inițiativa este prezentată ca parte din strategia mai amplă de integrare a inteligenței artificiale în experiența de căutare, cu accent pe răspunsuri mai complexe, interactive și adaptate nevoilor utilizatorilor. În practică, miza este o schimbare operațională în felul în care oamenii navighează pe YouTube: mai puțin „căutare și filtrare” și mai mult „întrebare și ghidare” direct în interfață. [...]