Știri
Știri din categoria Inteligență artificială

Agențiile federale americane continuă să lucreze cu Anthropic, în pofida unei interdicții impuse de președintele Donald Trump, prin testări și briefinguri care sugerează că restricția este ocolită „discret”, potrivit HotNews. Miza este una operațională și de reglementare: guvernul pare să caute acces la un model de inteligență artificială cu potențial major în securitate cibernetică, chiar în absența unei linii publice coerente privind colaborarea.
Centrul pentru Standarde și Inovație în domeniul inteligenței artificiale din cadrul Departamentului Comerțului testează activ capacitățile de hacking ale noului model Anthropic, numit Mythos, conform materialului citat de HotNews (care menționează Politico și Reuters).
În paralel, personalul din cel puțin trei comisii ale Congresului a organizat sau a solicitat, în ultima săptămână, briefinguri din partea companiei pentru a înțelege mai bine capacitățile de „scanare cibernetică” ale modelului.
Co-fondatorul Anthropic, Jack Clark, a declarat luni, la evenimentul Semafor World Economy, că firma discută despre Mythos cu administrația Trump, chiar și după ce Pentagonul ar fi întrerupt colaborarea cu compania în urma unui litigiu contractual.
Totuși, natura și detaliile discuțiilor dintre Anthropic și guvernul SUA – inclusiv ce agenții sunt implicate și în ce cadru – „nu sunt foarte clare” în acest moment, potrivit informațiilor prezentate.
Reuters mai notează că Anthropic, Casa Albă și Departamentul Comerțului nu au răspuns imediat solicitărilor de declarații.
Mythos a fost anunțat pe 7 aprilie și este descris de companie drept „cel mai capabil” model al său pentru sarcini de codare și „agentice” (adică poate acționa autonom). HotNews amintește că Anthropic a prezentat recent „Claude Mythos Preview”, pe care nu intenționează să îl lanseze public, urmând să îl ofere doar unui grup restrâns de organizații, în special companii mari de tehnologie și actori din securitate cibernetică.
Decizia este legată de riscuri de siguranță publică, detaliate într-un material separat al publicației, inclusiv posibilitatea ca modelul să depășească aproape toți experții umani în descoperirea și chiar exploatarea vulnerabilităților software (context în HotNews).
În acest context, faptul că agenții federale și structuri din Congres continuă interacțiunile cu Anthropic, în pofida unei interdicții prezidențiale, ridică întrebări despre cum este aplicată restricția și ce excepții sau canale alternative sunt folosite în practică.
Recomandate

Goldman Sachs își intensifică investițiile în securitate cibernetică după ce CEO-ul David Solomon a spus că urmărește „cu vigilență ridicată” modelul Mythos al Anthropic , despre care compania afirmă că poate identifica vulnerabilități în sisteme IT la un nivel peste aproape toți experții umani, potrivit IT Home . Declarațiile au fost făcute luni, în cadrul teleconferinței pe rezultate financiare a băncii, iar materialul citează o relatare publicată anterior de The Guardian. Solomon a indicat că modelele de tip „large language model” (modele lingvistice mari) evoluează rapid și că, „cu ajutorul guvernului SUA și al dezvoltatorilor de modele”, instituția rămâne atentă la capacitățile noi pe care acestea le aduc. De ce contează: capabilitățile de găsire a „breșelor” pot schimba balanța riscului Anthropic a susținut săptămâna trecută că Mythos poate descoperi vulnerabilități în sisteme IT, ceea ce ar introduce „riscuri fără precedent”. Într-o postare pe blog, compania a argumentat că modelele AI au ajuns la un nivel ridicat în programare, iar capacitatea de a găsi și exploata vulnerabilități software ar fi depășit-o pe cea a tuturor oamenilor, cu excepția celor mai buni specialiști. Potrivit aceleiași poziții a Anthropic, consecințele potențiale ar putea fi serioase pentru: economie, siguranța publică, securitatea națională. Ce face Goldman Sachs: utilizare, colaborare cu furnizori și investiții mai mari Solomon a mai spus că Goldman Sachs înțelege capacitățile reale ale modelului Mythos și că l-a folosit deja. În paralel, banca lucrează îndeaproape cu furnizori precum Anthropic pentru a valorifica aceste capabilități „de vârf”, menținând în același timp monitorizarea evoluțiilor din industrie. În plan operațional, CEO-ul a indicat că instituția „își consolidează puternic” capabilitățile de securitate cibernetică și infrastructură și că își crește în continuare investițiile în aceste zone. Materialul nu oferă detalii despre buget, calendar sau proiecte specifice. [...]

Claude Mythos riscă să fie greu de monetizat în securitate cibernetică din cauza costurilor de rulare și a disponibilității sub nivel „enterprise”, chiar dacă performanța tehnică este ridicată, potrivit unei analize Tom's Hardware . Modelul AI al Anthropic a atras atenția după ce compania a sugerat că Mythos ar putea identifica vulnerabilități de tip „zero-day” (breșe necunoscute public și necorectate) în browsere și sisteme de operare, ceea ce a dus la inițiativa „Project Glasswing” – o colaborare cu companii mari de tehnologie pentru remedierea problemelor înainte ca modelul (aflat încă în versiune „preview”) să fie lansat pe scară mai largă. Publicația notează însă că, dincolo de mesajul ambițios, capabilitățile nu sunt „spectaculoase” în sensul prezentat inițial. Modele mai ieftine pot ajunge „aproape” la același rezultat Un punct cheie pentru companii este că o parte din vulnerabilitățile prezentate drept „de referință” pentru Mythos pot fi detectate și de modele mai accesibile, inclusiv modele cu greutăți deschise (open-weight), conform unei analize publicate de Aisle. În exemplele citate: GPT-OSS-120b ar fi identificat o vulnerabilitate de analiză „Sack” în OpenBSD; Qwen3 32B ar fi găsit o eroare de detecție în FreeBSD NFS; Kimi K2 (open-weight) ar fi identificat, de asemenea, vulnerabilitățile care au generat titluri. Concluzia de business sugerată de această comparație: dacă diferența de performanță nu este mare, unele organizații pot prefera variante mai ieftine de rulat (inclusiv local), în locul unui model de vârf cu costuri mai ridicate. „Securitatea cibernetică” nu e un singur task, iar costul pe succes devine metrică Analiza Aisle mai susține că Anthropic tratează securitatea cibernetică drept un instrument unitar care acoperă mai multe etape (descoperire, verificare, exploatare, remediere), deși în practică acestea sunt pași diferiți, cu cerințe diferite. În acest context, unele modele mai „ușoare” pot performa bine pe anumite segmente. Aisle descrie evaluarea ca o combinație de factori – „inteligență per token”, „tokeni per dolar”, „tokeni pe secundă” și expertiza de securitate integrată în „scaffold” (structura de instrumente și procese care orchestrează modelul). Chiar dacă Mythos ar maximiza „inteligența per token”, celelalte variabile pot cântări la fel de mult în utilizarea reală. Separat, Irregular propune ca eficiența să fie judecată și prin „costul așteptat per succes” – adică nu doar dacă modelul poate reuși, ci cât costă, în medie, să ajungi la un rezultat util în practică. Benchmark-urile AISI: Mythos conduce la sarcini complexe, dar cu buget mare de tokeni O altă evaluare, realizată de AI Security Institute (AISI) din Marea Britanie, indică faptul că Mythos este cel mai capabil model în benchmark-urile proprii de securitate cibernetică ale institutului. Diferențele față de alte modele nu ar fi „dramatice” pe toate sarcinile, însă la descoperiri și exploatări mai complexe Mythos ar ieși în față. Un element important este dependența de „context lung” (intrări mari) și de bugete ridicate de tokeni. AISI spune că a testat Mythos până la un buget de 100 de milioane de tokeni și că performanța a continuat să crească până la acel prag, sugerând că ar putea scala și mai departe cu mai mult „inference compute” (putere de calcul pentru rularea modelului). Disponibilitatea serviciului: 98,4% uptime, sub standardul cerut de clienții mari Dincolo de performanță și cost, apare o problemă operațională: capacitatea Anthropic de a livra serviciul la nivel „enterprise”. Tom’s Hardware notează că modelele Anthropic au avut o rată de disponibilitate (uptime) de 98,4% în ultimele 90 de zile, la momentul redactării. Prin comparație, 99,99% este considerat standard „enterprise-grade” – iar diferența se traduce în aproape 12 ore de indisponibilitate pe lună, un nivel slab pentru servicii cloud. În același material se menționează că API-ul OpenAI oferă 99,99% uptime, ceea ce contează direct într-un model de afaceri bazat pe vânzarea de tokeni. În acest cadru, Mythos – descris ca probabil mai „greu” computațional – ar putea pune presiune suplimentară pe infrastructura Anthropic, care ar avea nevoie de mai multă capacitate de calcul (publicația amintește și un acord recent cu Broadcom , în acest sens). Ce înseamnă pentru piață Pentru companiile care cumpără servicii de securitate cibernetică sau rulează intern astfel de capabilități, mesajul este pragmatic: Mythos poate fi printre cele mai bune modele, dar nu neapărat cea mai eficientă opțiune „end-to-end”, dacă alternativele mai ieftine ating rezultate apropiate pe o parte din sarcini. Pentru Anthropic, miza devine dublă: să justifice economic un model de vârf (în condițiile în care prețul final nu este prezentat) și să ridice fiabilitatea livrării la nivelul așteptat de clienții mari din zona SaaS și securitate cibernetică. [...]

Administrația Trump împinge marile bănci americane spre testarea AI-ului Anthropic , deși Pentagonul a încercat să blocheze compania , într-un episod care riscă să creeze incertitudine de reglementare și operațională pentru instituțiile financiare care adoptă rapid tehnologia, potrivit The Next Web . Secretarul Trezoreriei, Scott Bessent, și președintele Rezervei Federale, Jerome Powell, au chemat în această săptămână executivi de la JPMorgan Chase, Goldman Sachs, Citigroup, Bank of America și Morgan Stanley și i-au îndemnat să folosească modelul „Mythos” al Anthropic pentru a identifica vulnerabilități de securitate cibernetică în propriile sisteme, conform Bloomberg, citat de publicație. Recomandarea vine în timp ce Departamentul Apărării se află în litigiu cu Anthropic, după ce a etichetat compania drept „risc pentru lanțul de aprovizionare”, ceea ce o exclude de la contracte militare. De ce contează: semnale contradictorii de la același guvern Contradicția este una de politică publică cu efect direct asupra pieței: aceeași administrație care a încercat să scoată Anthropic din zona de apărare încurajează acum sistemul financiar să se bazeze pe tehnologia sa pentru securitate. În centrul disputei cu Pentagonul se află refuzul Anthropic de a elimina două restricții de siguranță din modelele sale: interdicția utilizării în arme complet autonome și interdicția folosirii pentru supravegherea în masă a cetățenilor americani. Potrivit articolului, conflictul a escaladat în februarie, când secretarul Apărării Pete Hegseth i-ar fi dat CEO-ului Anthropic, Dario Amodei, un termen limită pentru a renunța la aceste restricții, în caz contrar compania riscând pierderea unui contract de apărare de 200 milioane de dolari (aprox. 920 milioane lei). Amodei a refuzat, iar ulterior a urmat desemnarea ca „risc pentru lanțul de aprovizionare” și un ordin al președintelui Trump ca agențiile federale să nu mai folosească tehnologia Anthropic. În instanță, situația a rămas mixtă: un judecător federal din California a emis o ordonanță preliminară care blochează desemnarea, însă o curte de apel din Washington, D.C. a respins cererea Anthropic de a opri temporar „blacklisting”-ul pe durata procesului. Efectul practic descris de publicație: Anthropic este exclusă din contractele Departamentului Apărării, dar poate lucra în continuare cu alte agenții guvernamentale. Ce este Mythos și de ce nu e disponibil public „Claude Mythos Preview” este prezentat ca un model de vârf („frontier model”), pe care Anthropic spune că nu l-a antrenat explicit pentru securitate cibernetică; capacitatea de a găsi vulnerabilități ar fi apărut ca efect al îmbunătățirilor generale în raționamentul pe cod și operare autonomă. În testare, modelul ar fi identificat „mii” de vulnerabilități „zero-day” (defecte necunoscute anterior dezvoltatorilor) în principalele sisteme de operare și browsere. Anthropic nu a lansat public modelul, ci l-a inclus într-un program restricționat, „ Project Glasswing ”, care oferă acces către aproximativ 50 de organizații. Lista menționată include, între altele, Amazon Web Services, Apple, Google, Microsoft, Nvidia, Cisco, CrowdStrike, Palo Alto Networks și JPMorgan Chase. Ca parte a inițiativei, Anthropic ar fi angajat până la 100 milioane de dolari (aprox. 460 milioane lei) în credite de utilizare și 4 milioane de dolari (aprox. 18,4 milioane lei) în donații către organizații de securitate open-source. Publicația notează însă și scepticismul din piață: Tom’s Hardware a pus sub semnul întrebării afirmațiile despre „mii” de descoperiri severe, arătând că acestea s-ar baza pe 198 de evaluări manuale și că multe vulnerabilități semnalate ar fi în software mai vechi sau greu de exploatat. În plus, o parte a comunității de securitate ar vedea lansarea restricționată și ca o tactică comercială de tip „scarcity” (crearea artificială a rarității) pentru clienți mari. Ce testează băncile și ce urmează pe partea de supraveghere JPMorgan Chase este menționată ca partener oficial în Project Glasswing, iar Bloomberg (citat de articol) susține că Goldman Sachs, Citigroup, Bank of America și Morgan Stanley testează intern Mythos. Cazurile de utilizare raportate includ: detectarea vulnerabilităților; semnalarea riscurilor de fraudă; automatizarea fluxurilor de lucru de conformitate (compliance) în sistemele financiare. Pe partea de reglementare, reacția descrisă nu se limitează la SUA. Financial Times, citat de The Next Web, relatează că autorități din Marea Britanie – Bank of England, Financial Conduct Authority și HM Treasury – discută cu National Cyber Security Centre pentru a evalua riscurile și vulnerabilitățile evidențiate de Mythos, iar reprezentanți ai unor bănci, asigurători și burse ar urma să fie informați în următoarele două săptămâni. În ansamblu, episodul arată cum adoptarea accelerată a AI-ului în infrastructura financiară poate avansa mai repede decât coerența deciziilor guvernamentale: pentru bănci, recomandarea venită simultan de la Trezorerie și Fed cântărește operațional, chiar dacă o altă ramură a administrației încearcă să limiteze aceeași companie. [...]

Anthropic discută cu administrația Trump despre modelul său AI de vârf, Mythos, chiar dacă Pentagonul i-a tăiat accesul la contracte pe fondul unui litigiu privind condițiile de utilizare militară , potrivit Reuters . Miza este una de reglementare și guvernanță: cum ajunge un model „de frontieră” (frontier AI) în dialog cu statul, în timp ce o agenție-cheie îl tratează drept risc de securitate în lanțul de aprovizionare. Cofondatorul Anthropic, Jack Clark , a spus luni, la evenimentul Semafor World Economy din Washington, că firma discută cu administrația despre Mythos și că va discuta și despre modelele viitoare, în pofida disputei contractuale cu Pentagonul. El a descris conflictul drept unul „îngust”, dar a insistat că nu ar trebui să blocheze cooperarea pe teme de securitate națională. „Avem o dispută contractuală îngustă, dar nu vreau ca asta să stea în calea faptului că ne pasă profund de securitatea națională.” De ce contează: „gardurile de protecție” pentru utilizarea militară Reuters arată că disputa dintre Anthropic și Pentagon a pornit de la „guardrails” – condiții și limitări privind modul în care armata ar putea folosi instrumentele de inteligență artificială ale companiei. În urma conflictului, agenția a etichetat Anthropic luna trecută drept „risc în lanțul de aprovizionare”, interzicând utilizarea produselor sale atât în Pentagon, cât și la contractori. În paralel, natura și detaliile discuțiilor dintre Anthropic și guvernul SUA – inclusiv ce agenții sunt implicate – nu erau clare imediat, potrivit aceleiași surse. Context: ce este Mythos și de ce ridică probleme de securitate cibernetică Mythos a fost anunțat pe 7 aprilie și este prezentat de companie drept cel mai capabil model al său pentru programare și „sarcini agentice” – adică activități pe care modelul le poate executa autonom. Experți citați de Reuters spun că abilitatea de a scrie cod la nivel înalt ar putea oferi modelului o capacitate potențial fără precedent de a identifica vulnerabilități de securitate cibernetică și de a găsi modalități de exploatare a acestora. Ce urmează: bătălia juridică rămâne deschisă Un complet federal de apel din Washington, D.C., a refuzat săptămâna trecută să blocheze, deocamdată, decizia Pentagonului de a trece Anthropic pe lista de „blacklisting” pe criterii de securitate națională, o victorie pentru administrația Trump. Reuters notează că decizia vine după ce o altă instanță de apel a ajuns la concluzia opusă într-o contestație separată inițiată de Anthropic. [...]

Evaluarea de 852 mld. dolari (aprox. 3.900 mld. lei) a OpenAI este pusă sub semnul întrebării de unii dintre propriii investitori , pe fondul schimbărilor repetate de strategie și al pivotării către clienți corporate, potrivit The Next Web , care citează Financial Times. Îngrijorările vizează „turbulența” strategică din ultimele luni: OpenAI și-a revizuit de două ori foaia de parcurs a produselor în șase luni, mai întâi sub presiunea competiției cu Google, apoi cu Anthropic , și a renunțat între timp la mai multe inițiative, inclusiv lansarea Sora pentru generare video și un chatbot „adult”. Unii investitori au spus pentru Financial Times că aceste schimbări rapide pot lăsa compania vulnerabilă în fața Anthropic și a unui Google aflat în revenire, în timp ce OpenAI se pregătește pentru o posibilă listare la bursă chiar din trimestrul IV 2026. Un investitor timpuriu a criticat direcția companiei, invocând creșterea ChatGPT și întrebând de ce OpenAI „vorbește despre enterprise și cod”, concluzionând că este „o companie profund nefocusată”. Separat, Jai Das, președintele Sapphire Ventures (care nu investește în OpenAI sau Anthropic), a comparat OpenAI cu „Netscape of AI”, sugerând riscul de a fi depășită într-o piață care se consolidează rapid. Un alt investitor, care a finanțat ambele companii, a spus că pentru a justifica ultima rundă de finanțare ar trebui presupusă o evaluare la IPO de cel puțin 1,2 trilioane de dolari (aprox. 5.500 mld. lei). Răspunsul OpenAI: finanțare record și pondere în creștere a veniturilor enterprise Conducerea OpenAI a respins criticile. Directoarea financiară Sarah Friar a indicat runda de finanțare de 122 mld. dolari (aprox. 560 mld. lei) închisă luna trecută — descrisă drept cea mai mare rundă privată din istoria Silicon Valley — ca dovadă a încrederii investitorilor, între care sunt menționați SoftBank, Amazon, Nvidia, Andreessen Horowitz, Sequoia Capital și Thrive Capital, alături de peste 25 de investitori. „Sugestia că investitorii nu susțin strategia noastră contrazice faptele”, a spus Friar. „Runda noastră, cea mai mare din istorie, a fost suprasubscrisă, închisă în timp record și susținută de un set larg de investitori globali.” Friar a mai declarat pentru CNBC că segmentul enterprise reprezintă acum 40% din veniturile totale ale OpenAI și este pe cale să ajungă la nivelul business-ului de consum până la finalul lui 2026. Miza competitivă: venituri „annualizate” și disputa de contabilizare cu Anthropic În centrul tensiunilor se află ritmul de creștere al veniturilor Anthropic. Potrivit materialului, venitul annualizat (run rate) al companiei care dezvoltă Claude ar fi urcat de la aproximativ 9 mld. dolari la final de 2025 la 30 mld. dolari la final de martie 2026, pe fondul cererii pentru instrumente de programare. OpenAI susține că a atins 25 mld. dolari venit annualizat în februarie. Diferența a declanșat o reacție dură din partea noului director comercial (CRO) al OpenAI, Denise Dresser (angajată în decembrie 2025, venind din rolul de CEO al Slack). Într-un memo intern, Dresser a acuzat Anthropic că și-ar supraevalua run rate-ul cu circa 8 mld. dolari, din cauza unei diferențe de raportare: Anthropic ar înregistra „brut” (gross) veniturile generate prin parteneri de distribuție în cloud (Amazon Web Services și Google Cloud), în timp ce OpenAI ar raporta „net” (după deducerea părții partenerului) veniturile din parteneriatul cu Microsoft. Articolul precizează că ambele abordări sunt permise de standardele contabile americane (US GAAP). Dacă analiza OpenAI ar fi corectă, run rate-ul comparabil al Anthropic ar fi mai aproape de 22 mld. dolari, nu de 30 mld. dolari. Anthropic a contestat interpretarea, iar o persoană apropiată companiei a spus pentru Financial Times că recunoaște veniturile „brut” prin parteneri deoarece este „principalul” în tranzacție, iar partenerii cloud sunt canalul de distribuție. Ce urmează: capacitate de calcul și ofensiva pe enterprise OpenAI vizează 30 gigawați de capacitate de calcul până în 2030 și le-a spus investitorilor că a securizat deja 8 gigawați, susținând că Anthropic nu ar ajunge la acest nivel până la finalul lui 2027. În memo-ul intern, Dresser a recunoscut că focusul Anthropic pe programare i-a oferit un avantaj inițial în enterprise, dar a argumentat că o poziționare îngustă, centrată pe dezvoltatori, poate deveni o vulnerabilitate pe măsură ce utilizarea AI se extinde dincolo de echipele de inginerie. Documentul a enumerat și priorități pentru trimestrul al doilea, inclusiv un nou model cu nume de cod „Spud”, dezvoltarea platformei de agenți „Frontier”, extinderea printr-un parteneriat anunțat cu Amazon și construirea unui „motor de implementare” numit DeployCo. [...]

Apple a amenințat că va scoate Grok din App Store dacă xAI nu întărește moderarea conținutului , într-un episod care arată cât de departe poate merge controlul Apple asupra aplicațiilor cu inteligență artificială atunci când apar riscuri de abuz, potrivit 9to5Mac . Informația provine dintr-o scrisoare obținută de NBC News, în care Apple le-a spus unor senatori americani cum a intervenit „din culise” după valul de deepfake-uri sexualizate generate cu ajutorul lui Grok, la începutul acestui an. Atunci, compania a fost pusă sub presiune să elimine din App Store aplicațiile X și Grok, după ce utilizatorii au descoperit că chatbotul răspundea la solicitări de „dezbrăcare” a persoanelor din fotografii, în special femei, inclusiv minori. Cum a intervenit Apple: respingeri la revizuire și ultimatum NBC News relatează că Apple a constatat încălcări ale regulilor sale și a contactat echipele din spatele X și Grok după plângeri și după ce a văzut acoperirea media a scandalului, cerând dezvoltatorilor „un plan” pentru îmbunătățirea moderării. Procesul descris în scrisoare indică o escaladare tipică pentru App Store: actualizări trimise la revizuire, respingeri și condiționarea rămânerii în magazin de modificări suplimentare. xAI a trimis un update pentru Grok, dar acesta a fost respins pe motiv că schimbările „nu au mers suficient de departe”. Ulterior, au fost trimise versiuni revizuite ale aplicațiilor X și Grok, însă doar una a fost acceptată. În fragmentul citat de NBC News din scrisoarea Apple, compania explică de ce a tras linie în cazul Grok: „Apple a revizuit următoarele versiuni trimise de dezvoltatori și a stabilit că X își rezolvase în mare măsură încălcările, dar aplicația Grok a rămas neconformă. Drept urmare, am respins versiunea Grok și am notificat dezvoltatorul că sunt necesare schimbări suplimentare pentru remedierea încălcării, altfel aplicația ar putea fi eliminată din App Store. […] După discuții și modificări suplimentare din partea dezvoltatorului Grok, am stabilit că Grok s-a îmbunătățit substanțial și, prin urmare, am aprobat cea mai recentă versiune.” De ce contează: „gardianul” App Store devine instrument de control al riscurilor AI Cazul arată că, dincolo de dezbaterea publică, Apple folosește mecanismele operaționale ale App Store (revizuire, respingere, amenințarea cu delistare) ca pârghie de conformare pentru aplicații AI care pot genera conținut abuziv. În practică, asta înseamnă că dezvoltatorii sunt forțați să demonstreze rapid măsuri de moderare, altfel riscă pierderea distribuției pe iPhone. Potrivit 9to5Mac, aceste detalii ajută și la înțelegerea schimbărilor „confuze” anunțate de xAI în vârful scandalului, inclusiv restricții privind cine poate folosi instrumentele de imagini ale lui Grok și limitări pentru editări care implică fotografii cu persoane reale. Problema nu pare închisă: NBC News spune că deepfake-urile continuă Separat, NBC News afirmă că Grok „continuă să genereze imagini sexualizate ale oamenilor fără consimțământul lor”, după ce ar fi documentat zeci de cazuri în ultima lună. Deși volumul ar fi scăzut semnificativ față de ianuarie, publicația notează că unii utilizatori încă reușesc să ocolească restricțiile, de pildă pentru a pune femei în „ținută mai revelatoare”. Pentru Apple și pentru dezvoltatorii de aplicații AI, miza rămâne una operațională și de conformare: chiar și după actualizări aprobate, persistența abuzurilor poate readuce rapid riscul de sancțiuni în App Store, inclusiv eliminarea aplicației. [...]