Știri
Știri din categoria Inteligență artificială

Sony Music a eliminat peste 135.000 de melodii deepfake potrivit Zona IT, într-o acțiune de combatere a pieselor care imitau fără drept vocea și stilul unor artiști cunoscuți, dar fără ca industria să fi ajuns la o practică unitară de etichetare a muzicii generate cu inteligență artificială pe platformele de streaming.
Conform articolului, eliminările au vizat în special falsuri asociate unor nume cu notorietate din portofoliul Sony Music, precum Beyoncé, Harry Styles și Bad Bunny. Miza este una de drepturi de autor și de protecție a imaginii: când sunt folosite fără permisiune vocea, stilul muzical sau identitatea unui artist, casele de discuri au un interes direct să intervină.
Într-o declarație pentru BBC, citată de Zona IT, Dennis Kooker, președintele diviziei digitale globale a Sony, a avertizat că astfel de materiale pot produce pagube comerciale și de reputație: „În cele mai grave cazuri, (deepfake-urile) pot afecta o campanie de lansare sau pot păta reputația unui artist”.
Textul mai arată că delimitarea devine mai dificilă în cazul pieselor generate de inteligența artificială care combină stiluri muzicale fără să copieze evident o voce anume. În acest context, tot mai mulți artiști cer platformelor să eticheteze conținutul creat cu ajutorul inteligenței artificiale, iar o parte dintre utilizatori vor diferențiere între muzica realizată de artiști și recomandările sau piesele generate automat, însă, în lipsa unor reguli stricte, solicitările sunt adesea ignorate de operatorii platformelor, care urmăresc creșterea timpului de ascultare și a veniturilor.
Zona IT notează că Deezer și Apple Music au dezvoltat instrumente de detectare a conținutului de tip deepfake, dar acuratețea nu este perfectă și, fără implementare consecventă la nivelul marilor platforme, efectul rămâne limitat. Deezer ar fi introdus etichetarea pieselor generate 100% de inteligența artificială și excluderea lor din playlist-uri, însă nu le elimină complet, pe fondul competiției cu servicii care încă le tolerează. În paralel, Sony Music a eliminat cele 135.000 de piese identificate, dar articolul sugerează că acestea ar putea reprezenta doar o parte din conținutul similar încă disponibil pe platforme precum Spotify și Apple Music.
Recomandate

O inițiativă de 500 milioane de dolari (aprox. 2,3 miliarde lei) vizează construirea unor „modele” AI ale celulelor umane , cu date oferite gratuit cercetătorilor, într-un pariu care poate accelera cercetarea medicală și, implicit, piața de medicamente și terapii, potrivit Antena 3 . Mark Zuckerberg și Priscilla Chan dezvoltă proiectul prin organizația non-profit Biohub , care a anunțat o inițiativă pe cinci ani, în valoare totală de 500 de milioane de dolari, pentru a crea tehnologii și seturi de date necesare dezvoltării unor modele predictive ale celulelor umane. Antena 3 notează că informația este atribuită Euronews. Cum se împarte bugetul și ce se livrează Din suma totală, 400 de milioane de dolari (aprox. 1,8 miliarde lei) sunt alocate proiectelor proprii, iar 100 de milioane de dolari (aprox. 460 milioane lei) ar urma să fie oferite cercetătorilor externi. Datele generate vor fi puse la dispoziția cercetătorilor din întreaga lume, gratuit. Miza operațională a proiectului este ca simulările realizate cu ajutorul inteligenței artificiale să permită studierea bolilor „în format digital”, la o scară și o viteză care nu pot fi replicate în laborator. Dacă modelele vor fi suficient de precise, ele ar putea ajuta la înțelegerea comportamentului celulelor, identificarea cauzelor bolilor și descoperirea de tratamente noi. Blocajul: datele, nu doar algoritmii Biohub indică drept provocare principală cantitatea și calitatea datelor: cu cât există mai multe informații biologice, cu atât predicțiile devin mai precise. Alex Rives, coordonatorul științific al Biohub, spune că este nevoie de mult mai multe date decât există în prezent și de tehnologii noi pentru a observa celulele la toate nivelurile, de la molecule la țesuturi, atât în stare sănătoasă, cât și în boală. Totuși, organizația admite că nu se știe încă exact cât de multe date sunt necesare pentru ca modelele să devină cu adevărat fiabile și susține că ar fi nevoie de un efort global mai amplu pentru a ajunge la scara dorită. Context: cursa AI în științele vieții Inițiativa se înscrie într-un interes mai larg pentru folosirea învățării automate (metode prin care sistemele informatice învață tipare din date) în descoperirea de medicamente și terapii. În material sunt menționate și alte investiții în direcția biologiei bazate pe AI, inclusiv Isomorphic Labs (Alphabet/DeepMind), precum și proiecte ale Microsoft și platforma BioNeMo a Nvidia, utilizată deja pentru dezvoltarea de medicamente cu ajutorul inteligenței artificiale. Pe termen lung, obiectivul declarat al Biohub este „eliminarea tuturor bolilor” prin combinarea inteligenței artificiale cu biologia, însă realizarea acestui deziderat depinde de fezabilitatea tehnică a modelelor și de disponibilitatea datelor la scară mare. [...]

OpenAI mută ChatGPT mai aproape de standardele IT din companii și școli , printr-o versiune separată pentru iPhone care permite administrare centralizată și reguli de securitate, potrivit Antena 3 . Noua aplicație, „ ChatGPT for Intune ”, țintește organizațiile care folosesc sisteme de management al dispozitivelor mobile și vor control mai strict asupra aplicațiilor instalate pe telefoane și tablete. Aplicația este disponibilă separat în App Store și este compatibilă cu dispozitive care rulează iOS 17 sau versiuni mai noi. Miza este una operațională: utilizarea instrumentelor de inteligență artificială în medii unde administrarea centralizată a dispozitivelor este o cerință, nu o opțiune. Integrarea cu Microsoft Intune : control IT asupra accesului și datelor Versiunea este construită să funcționeze cu Microsoft Intune, platformă folosită de organizații pentru gestionarea aplicațiilor, a securității și a datelor de pe dispozitivele angajaților. În acest cadru, administratorii IT pot impune reguli privind utilizarea aplicației, inclusiv pe zona de autentificare, acces și gestionarea datelor, cu obiectivul de a reduce riscurile pentru informațiile sensibile. Funcționalitățile rămân, dar în „regim” administrat Deși este adaptată pentru mediul corporate, aplicația păstrează funcțiile versiunii obișnuite de ChatGPT, inclusiv: generare de texte (de exemplu, e-mailuri și rapoarte); analiză de documente sau imagini; creare de conținut pe baza comenzilor scrise; interacțiune vocală; explicații pas cu pas și suport pentru învățare. De ce contează pentru companii și educație Antena 3 notează că lansarea se înscrie într-o tendință mai amplă: integrarea inteligenței artificiale în medii de lucru controlate, cu accent pe securitate și confidențialitate. În paralel, sunt menționate și mișcări similare din industrie, precum integrarea Copilot în Microsoft 365 și dezvoltarea de soluții prin Gemini pentru Workspace, de către Google. Pentru școli și universități, logica este similară: instituțiile care folosesc deja sisteme de administrare a dispozitivelor pot introduce utilizarea AI într-un mod supravegheat, astfel încât profesorii să permită accesul la instrumente, păstrând controlul asupra modului în care sunt folosite. Un semnal de maturizare: ChatGPT intră în infrastructura organizațiilor Dincolo de lansarea în sine, schimbarea importantă este direcția: ChatGPT este împins către integrarea în infrastructura digitală a organizațiilor, unde controlul și securitatea devin criterii la fel de importante ca funcționalitatea. Potrivit sursei, dacă până acum creșterea a fost alimentată în principal de utilizatorii individuali, orientarea viitoare pare tot mai mult către utilizarea în companii și instituții. [...]

Modele AI testate în SUA au reușit să se autoreplice și să continue atacuri cibernetice fără ajutor uman , ceea ce poate complica semnificativ apărarea operațională a companiilor în fața incidentelor de securitate, potrivit Antena 3 . Într-un experiment, sistemele au pătruns în calculatoare, s-au copiat și au folosit copiile pentru a continua atacurile asupra altor sisteme. În afara unui mediu de laborator, o astfel de capacitate ar face atacurile mai greu de oprit, deoarece oprirea unui singur computer infectat nu ar fi suficientă dacă AI-ul a creat deja copii funcționale în alte locuri, au explicat cercetătorii. Cum a fost făcut testul și ce modele au fost implicate Studiul a fost realizat de Palisade Research (SUA) și a testat modele precum GPT-5, 5.1 și 5.4 (OpenAI), Claude Opus 4, 4.5 și 4.6 (Anthropic) și Qwen (Alibaba), pe sisteme în care au fost introduse intenționat vulnerabilități de securitate care permiteau acces extern. Modelele au fost conectate la un software personalizat numit „agent harness”, care le permitea să execute comenzi și să interacționeze cu alte computere, în loc să folosească aplicații publice de tip chatbot. Experimentul a rulat în două variante: pentru modelele Alibaba, cerința a fost să se copieze singure; pentru GPT și Claude, cerința a fost să pătrundă în sisteme și să instaleze Qwen, deoarece fișierele GPT și Claude nu sunt disponibile public pentru transfer. În fiecare test, AI-ul trebuia să identifice o vulnerabilitate, să o exploateze, să obțină date de autentificare, să transfere fișiere pentru rulare și să pornească o copie funcțională pe o altă mașină. Odată pornită, copia putea fi folosită pentru a ataca un alt computer fără ajutor uman, continuând „lanțul”. Rezultatele: rate de succes și un lanț încheiat în 2 ore și 41 de minute Potrivit cercetării, modelele au avut rate de succes diferite: Qwen3.5-122B-A10B (Alibaba) a reușit să își creeze copii funcționale în 19% din încercări; Qwen3.6-27B (Alibaba) a ajuns la 33%, rulând pe un singur procesor grafic de înaltă performanță; Claude Opus 4.6 (Anthropic) a reușit în 81% dintre teste; GPT-5.4 (OpenAI) a ajuns la 33% (în scenariul în care era folosit pentru a instala fișierele modelului Qwen). Un exemplu detaliat din test: Qwen3.6-27B s-a răspândit pe patru computere din Canada, Statele Unite, Finlanda și India după un singur prompt, finalizând lanțul fără ajutor uman în 2 ore și 41 de minute. Echipa a oprit experimentul după trei etape, dar a precizat că ultima copie era încă funcțională și ar fi putut continua atacurile. De ce contează pentru companii: incidentul nu se mai „închide” la primul sistem compromis În termeni operaționali, concluzia cercetătorilor este că autoreplicarea poate transforma un incident într-un lanț de compromiteri succesive, în care izolarea unui singur sistem nu mai oprește propagarea dacă au fost create deja instanțe funcționale în alte locuri. Cercetătorii au spus că rezultatele ridică noi îngrijorări privind controlul asupra sistemelor AI puternice. Contextul menționat este și faptul că Anthropic a prezentat luna trecută Claude Mythos Preview , despre care compania a spus că este „prea periculos” pentru lansare publică, invocând capacitatea de a facilita atacuri cibernetice de amploare și complexitate fără precedent. Totuși, echipa a subliniat și limita majoră a testului: experimentul a fost realizat într-un mediu controlat, folosind sisteme intenționat vulnerabile, în timp ce rețelele reale au, de regulă, protecții mai puternice (monitorizare de securitate și instrumente de blocare a atacurilor). [...]

România își pregătește un mecanism permanent de reguli și proiecte-pilot pentru folosirea inteligenței artificiale în justiție , după ce a fost lansat primul cadru național de cooperare pe acest subiect, potrivit Mediafax , care citează un anunț al Administrației Prezidențiale . Demersul a fost deschis prin prima ediție a Forumului „Just.AI – Inteligența artificială în serviciul sistemului judiciar”, organizat la invitația președintelui României, Nicușor Dan . Evenimentul a reunit, conform comunicatului, toate instituțiile sistemului judiciar (instanțe, parchete, organe de cercetare penală), alături de mediul academic și de cercetare, sectorul tehnologic, profesiile juridice și experți internaționali implicați în dezvoltarea și reglementarea tehnologiilor de inteligență artificială. Ce stabilește cadrul și de ce contează operațional Forumul s-a încheiat cu semnarea Memorandumului „Just.AI – Inteligența artificială în serviciul sistemului judiciar”, document care marchează asumarea „primului cadru instituțional larg de cooperare și reflecție strategică” între autoritățile și organizațiile participante. Miza, potrivit Administrației Prezidențiale, este integrarea tehnologiilor în funcționarea justiției „fără a afecta valorile fundamentale ale statului de drept”. În mesajul transmis participanților, Nicușor Dan a indicat că problema centrală nu mai este dacă inteligența artificială va fi integrată, ci în ce condiții, „cu ce reguli, cu ce limite și cu ce garanții”. Totodată, a reafirmat principiul că actul de justiție rămâne unul de responsabilitate umană, bazat pe independență, imparțialitate și respectarea drepturilor fundamentale. Calendar: evaluare, rapoarte până în octombrie și posibile proiecte-pilot Conform memorandumului, instituțiile semnatare vor desemna reprezentanți permanenți în grupuri de lucru care ar urma să înceapă activitatea în următoarele săptămâni. Etapele menționate includ: o evaluare structurată a nevoilor sistemului judiciar, prin consultări cu magistrați, organe de cercetare penală și personal auxiliar; până în octombrie 2026, elaborarea unor rapoarte de diagnostic instituțional privind prioritățile operaționale, riscurile asociate utilizării inteligenței artificiale și direcțiile de modernizare digitală; publicarea documentelor și consultarea societății civile și a profesioniștilor din domeniu; pe parcursul anului 2026 și la începutul lui 2027, analiza soluțiilor tehnologice existente sau care pot fi dezvoltate, inclusiv posibilitatea unor proiecte-pilot în instanțe și parchete selectate. Rezultatele ar urma să fie prezentate la a doua ediție a Forumului „Just.AI”, programată pentru 2027, când ar urma să fie făcut public un raport integrat și un plan național de acțiune. Administrația Prezidențială arată că, prin acest demers, România își propune să participe activ la dezbaterea europeană și internațională privind utilizarea inteligenței artificiale în justiție, într-o abordare „centrată pe om”, bazată pe încredere, transparență și responsabilitate instituțională. [...]

România pune pe masă un mecanism permanent de reguli și standarde pentru IA în justiție , după ce instituțiile-cheie ale sistemului judiciar au semnat un memorandum care deschide drumul către principii comune, evaluări de nevoi și posibile proiecte pilot, potrivit The Economist . Întâlnirea a avut loc în cadrul Forumului „Just.AI – Inteligența artificială în serviciul sistemului judiciar”, organizat la invitația președintelui Nicușor Dan , și a reunit, pentru prima dată, toate instituțiile din sistemul judiciar, alături de reprezentanți europeni, cercetători și parteneri din mediul privat, conform Administrației Prezidențiale. De ce contează: de la experimente izolate la un cadru național de guvernanță Miza principală este trecerea de la discuții generale despre utilizarea inteligenței artificiale la un cadru instituțional de cooperare care să producă „principii, standarde și propuneri” pentru integrarea responsabilă a IA în actul de justiție. Memorandumul semnat marchează, în formularea Administrației Prezidențiale, „primul cadru instituțional larg de cooperare și reflecție strategică” pe această temă. În mesajul transmis participanților, președintele Nicușor Dan a indicat că întrebarea nu mai este dacă aceste tehnologii vor fi integrate, ci în ce condiții, „cu ce reguli, cu ce limite și cu ce garanții”, reafirmând totodată că actul de justiție rămâne unul de „responsabilitate umană”, bazat pe independență, imparțialitate și respectarea drepturilor fundamentale. Ce urmează: grupuri de lucru, rapoarte până în octombrie și posibile proiecte pilot Potrivit comunicatului citat, instituțiile semnatare vor desemna reprezentanți permanenți în grupuri de lucru care își încep activitatea „în următoarele săptămâni”. Calendarul indicat include mai multe etape: evaluarea structurată a nevoilor sistemului judiciar, prin consultări cu magistrați, organe de cercetare penală și personal auxiliar; până în octombrie 2026 , elaborarea unor rapoarte de diagnostic instituțional privind prioritățile operaționale, riscurile asociate utilizării IA și direcțiile de modernizare digitală; publicarea documentelor și consultarea societății civile și a profesioniștilor din domeniu; pe parcursul lui 2026 și începutul lui 2027 , analiza soluțiilor tehnologice existente sau care pot fi dezvoltate, inclusiv posibilitatea unor proiecte pilot în instanțe și parchete selectate; prezentarea rezultatelor la a doua ediție a forumului, programată pentru 2027 , când ar urma să fie publicate un raport integrat și un plan național de acțiune . Administrația Prezidențială susține că demersul urmărește poziționarea României ca participant activ în dezbaterea europeană și internațională privind utilizarea inteligenței artificiale în justiție, într-o abordare „centrată pe om”, bazată pe încredere, transparență și responsabilitate instituțională. [...]

YouTube testează o căutare cu AI care schimbă modul în care utilizatorii găsesc conținut , trecând de la o listă de rezultate la răspunsuri structurate și conversații interactive, potrivit Antena 3 . Noua funcție, descrisă ca un instrument de căutare bazat pe inteligență artificială, este gândită să ofere utilizatorilor răspunsuri „mai clare și ghidate”, inclusiv pentru întrebări mai complexe, cum ar fi planificarea unei excursii. Antena 3 notează că informația este preluată de la TechCrunch. Ce aduce „ Ask YouTube ” în căutare Funcția, numită „Ask YouTube”, permite utilizatorilor să formuleze întrebări, iar sistemul răspunde într-un format interactiv, cu pași și recomandări. În locul afișării clasice a unei liste de videoclipuri, rezultatele combină: text explicativ; clipuri video scurte și lungi, integrate în răspuns. Un element central este continuitatea: utilizatorii pot reveni cu întrebări suplimentare, iar sistemul păstrează formatul interactiv și poate sugera locuri sau opțiuni relevante, conform aceleiași surse. Cine are acces și ce urmează Deocamdată, funcția este disponibilă doar pentru abonații YouTube Premium din Statele Unite, cu vârsta de peste 18 ani, care aleg să participe la test. Google lucrează la extinderea accesului și pentru restul utilizatorilor, însă articolul nu precizează un calendar sau piețe vizate pentru lansarea mai largă. De ce contează schimbarea Inițiativa este prezentată ca parte din strategia mai amplă de integrare a inteligenței artificiale în experiența de căutare, cu accent pe răspunsuri mai complexe, interactive și adaptate nevoilor utilizatorilor. În practică, miza este o schimbare operațională în felul în care oamenii navighează pe YouTube: mai puțin „căutare și filtrare” și mai mult „întrebare și ghidare” direct în interfață. [...]