Știri
Știri din categoria Inteligență artificială

Microsoft testează integrarea unor funcții de tip OpenClaw în Microsoft 365 Copilot, cu accent pe controlul de securitate pentru clienții enterprise, potrivit TechCrunch. Compania a confirmat pentru The Information că noile capabilități ar viza mediul corporate și ar veni cu „controale de securitate mai bune” decât agentul open-source OpenClaw, descris ca fiind riscant.
Miza operațională este trecerea de la Copilot ca asistent care răspunde la solicitări la un agent care poate executa acțiuni în mod continuu. Conform informațiilor citate, una dintre funcțiile principale ar fi un fel de „365 Copilot care lucrează mereu”, capabil să inițieze acțiuni oricând și să ducă la capăt sarcini în mai mulți pași, pe perioade mai lungi.
OpenClaw este prezentat ca un instrument care rulează local pe calculatorul utilizatorului și poate crea „agenți” care îndeplinesc sarcini în numele acestuia. TechCrunch notează că, dacă Microsoft va construi propria versiune de „Claw” (adică un agent care rulează local), proiectul s-ar alătura unei serii de instrumente „agentice” anunțate de companie în ultimele luni.
Deocamdată, publicația subliniază că nu este clar dacă noul „Claw” al Microsoft va rula local sau va prelua doar unele dintre funcțiile apreciate de comunitatea OpenClaw.
În material sunt menționate mai multe inițiative recente ale Microsoft în zona de agenți:
Pentru companii, diferența majoră sugerată de articol este promisiunea unor controale de securitate mai solide decât în cazul unui proiect open-source considerat „riscant”, într-un context în care agenții capabili să execute acțiuni pot amplifica impactul unui incident (de la acces neautorizat la automatizări greșite).
TechCrunch mai notează și un element de piață: deși OpenClaw poate rula pe Windows, Mac Mini a devenit platforma preferată pentru utilizatorii OpenClaw, iar aceste dispozitive „s-au vândut ca pâinea caldă”, ceea ce ar putea fi încă o motivație pentru Microsoft să vină cu propria alternativă.
Compania ar urma să prezinte noul „Claw” (sau o versiune îmbunătățită a unuia dintre instrumentele existente) la conferința Microsoft Build din iunie, potrivit unui material The Verge citat de TechCrunch. Publicația spune că a cerut Microsoft clarificări despre cum se poziționează acest agent față de ceilalți și va actualiza informația când va primi un răspuns.
Recomandate

Microsoft reduce din integrarea Copilot în unele aplicații după reacții negative ale utilizatorilor , pe fondul criticilor venite și din partea Mozilla, care acuză compania că a împins funcții de inteligență artificială „fără consimțământul utilizatorului”, potrivit TechRadar . Miza, dincolo de disputa dintre rivali, este una operațională: cât control real au utilizatorii asupra funcțiilor AI integrate în software-ul de bază și cât de ușor pot fi dezactivate. Microsoft a fost criticată pentru încercările de a introduce Copilot „în aproape orice aplicație” din Windows, inclusiv în Notepad, Widgets și Snipping Tool, iar această „AI-ificare” a generat reacții repetate. În acest context, compania a decis să reducă („scale back”) funcții de învățare automată (machine learning) într-o selecție de aplicații proprii, semn că presiunea utilizatorilor începe să influențeze direcția de produs. Mozilla: integrarea forțată a AI, „fără solicitare și fără consimțământ” Într-o postare pe blogul oficial Mozilla , Linda Griffin, vicepreședinte pentru politici globale, susține că retragerea parțială a integrărilor AI este „decizia corectă”, dar o descrie ca pe un episod dintr-un tipar mai amplu în care Microsoft ar fi mers „prea departe fără consimțământul utilizatorului”. Griffin afirmă că extinderea Copilot a fost făcută „fără solicitare și fără consimțământ”, utilizatorii nefiind întrebați dacă își doresc funcții AI în aplicațiile lor. „Reducerea acestor integrări AI forțate este decizia corectă, dar acesta este doar cel mai recent exemplu în care Microsoft merge prea departe fără consimțământul utilizatorului.” Griffin atacă și motivația din spatele schimbării de ton a Microsoft, sugerând că atunci când compania spune că vrea să fie mai „intențională” cu Copilot, de fapt ar recunoaște că a ales în mod repetat să își servească interesele de business în detrimentul clienților. Acuzații de „modele de design înșelătoare” și control asupra alegerilor utilizatorilor Mozilla leagă integrarea Copilot de ceea ce numește un „tipar de modele de design înșelătoare” (deceptive design patterns) folosite pentru a influența alegerile utilizatorilor. TechRadar notează că Mozilla invocă cercetare comandată de organizație, potrivit căreia Microsoft ar utiliza tactici de design și distribuție care „anulează alegerea utilizatorului”. Exemplele menționate includ: bara de căutare din Windows care deschide Edge, nu browserul ales de utilizator; lipsa unui sistem de migrare a dispozitivului în sistemul de operare Microsoft; un traseu „convolut” pentru schimbarea browserului implicit. Alternativa Mozilla: un „întrerupător” unic pentru dezactivarea AI și setări persistente Mozilla își contrastează abordarea cu cea a Microsoft, susținând că funcțiile AI din browser pot fi dezactivate printr-un singur „kill switch” (un comutator unic de oprire), introdus după feedback vocal al utilizatorilor. Griffin spune că preferințele utilizatorilor rămân active și după actualizări, astfel încât instrumentele AI „nu se reactivează în tăcere” după un upgrade major. „Tu ar trebui să decizi dacă AI face parte din experiența ta de navigare. Nu Big Tech. Nu Mozilla. Tu.” Pentru utilizatori și companii, disputa indică o direcție mai largă: integrarea AI în aplicații uzuale avansează, dar acceptarea depinde tot mai mult de controlul explicit (opt-in/opt-out) și de transparența cu privire la schimbările introduse. TechRadar notează că Microsoft a fost deja forțată să își ajusteze planurile și în alte zone, după plângeri puternice, ceea ce sugerează că reacția utilizatorilor poate tempera ritmul și forma în care AI ajunge în produsele de masă. [...]

Goldman Sachs își intensifică investițiile în securitate cibernetică după ce CEO-ul David Solomon a spus că urmărește „cu vigilență ridicată” modelul Mythos al Anthropic , despre care compania afirmă că poate identifica vulnerabilități în sisteme IT la un nivel peste aproape toți experții umani, potrivit IT Home . Declarațiile au fost făcute luni, în cadrul teleconferinței pe rezultate financiare a băncii, iar materialul citează o relatare publicată anterior de The Guardian. Solomon a indicat că modelele de tip „large language model” (modele lingvistice mari) evoluează rapid și că, „cu ajutorul guvernului SUA și al dezvoltatorilor de modele”, instituția rămâne atentă la capacitățile noi pe care acestea le aduc. De ce contează: capabilitățile de găsire a „breșelor” pot schimba balanța riscului Anthropic a susținut săptămâna trecută că Mythos poate descoperi vulnerabilități în sisteme IT, ceea ce ar introduce „riscuri fără precedent”. Într-o postare pe blog, compania a argumentat că modelele AI au ajuns la un nivel ridicat în programare, iar capacitatea de a găsi și exploata vulnerabilități software ar fi depășit-o pe cea a tuturor oamenilor, cu excepția celor mai buni specialiști. Potrivit aceleiași poziții a Anthropic, consecințele potențiale ar putea fi serioase pentru: economie, siguranța publică, securitatea națională. Ce face Goldman Sachs: utilizare, colaborare cu furnizori și investiții mai mari Solomon a mai spus că Goldman Sachs înțelege capacitățile reale ale modelului Mythos și că l-a folosit deja. În paralel, banca lucrează îndeaproape cu furnizori precum Anthropic pentru a valorifica aceste capabilități „de vârf”, menținând în același timp monitorizarea evoluțiilor din industrie. În plan operațional, CEO-ul a indicat că instituția „își consolidează puternic” capabilitățile de securitate cibernetică și infrastructură și că își crește în continuare investițiile în aceste zone. Materialul nu oferă detalii despre buget, calendar sau proiecte specifice. [...]

Raportul anual al Stanford arată că percepția publicului despre AI se îndepărtează rapid de cea a experților , un decalaj care riscă să alimenteze presiuni de reglementare și costuri operaționale pentru companiile care dezvoltă și implementează tehnologia, potrivit TechCrunch . Documentul notează o creștere a anxietății legate de AI și, în SUA, îngrijorări privind efectele asupra locurilor de muncă, îngrijirii medicale și economiei. În timp ce liderii din industrie își concentrează discursul pe riscuri de tip AGI (inteligență artificială generală – o formă teoretică de „superinteligență” capabilă să facă orice sarcină umană), publicul se uită mai degrabă la impactul imediat: salarii, stabilitatea joburilor și posibile scumpiri ale energiei pe fondul construirii de centre de date mari consumatoare de electricitate. Diferențe mari între experți și public pe joburi, economie și sănătate Raportul Stanford sintetizează mai multe seturi de date despre sentimentul public, inclusiv rezultate din cercetări Pew Research citate în raport. Un exemplu: doar 10% dintre americani au spus că sunt mai entuziasmați decât îngrijorați de utilizarea tot mai mare a AI în viața de zi cu zi, în timp ce 56% dintre experții în AI consideră că tehnologia va avea un impact pozitiv asupra SUA în următorii 20 de ani. Pe domenii, diferențele sunt și mai pronunțate: Îngrijire medicală: 84% dintre experți anticipează un impact în mare parte pozitiv, față de 44% din publicul general din SUA. Modul în care oamenii își fac munca: 73% dintre experți sunt optimiști, comparativ cu 23% din public. Economie: 69% dintre experți văd un efect pozitiv, dar doar 21% dintre respondenții din public sunt de acord, pe fondul temerilor legate de concedieri și perturbări la locul de muncă. Piața muncii: aproape două treimi dintre americani (64%) cred că AI va duce la mai puține locuri de muncă în următorii 20 de ani. Încrederea în reglementare rămâne un punct sensibil Raportul indică și o problemă de guvernanță: SUA ar avea cel mai scăzut nivel de încredere în capacitatea guvernului de a reglementa responsabil AI, la 31%, în comparație cu alte țări. Singapore apare cu cel mai ridicat nivel, 81%, pe baza datelor Ipsos incluse în raport. Separat, o altă sursă citată în raport arată că, la nivel național în SUA, 41% dintre respondenți cred că reglementarea federală a AI nu va merge suficient de departe , în timp ce 27% spun că ar merge „prea departe”. Context: reacții online și o generație mai furioasă, deși folosește AI TechCrunch notează că raportul vine pe fondul unei intensificări a sentimentului negativ față de AI, cu Gen Z „în avangardă”, potrivit unui sondaj Gallup citat de publicație: tinerii ar fi mai puțin optimiști și mai furioși, deși aproximativ jumătate folosesc AI zilnic sau săptămânal. Diviziunea dintre „insideri” și public a devenit vizibilă și în reacțiile online la atacurile recente asupra locuinței CEO-ului OpenAI, Sam Altman , unde unele comentarii au părut să laude incidentul, în timp ce persoane din industrie s-au declarat surprinse de tonul acestor reacții. Un semnal mixt: beneficii percepute în creștere, dar și nervozitate mai mare La nivel global, ponderea celor care cred că produsele și serviciile AI aduc mai multe beneficii decât dezavantaje a crescut ușor, de la 55% în 2024 la 59% în 2025. În același timp, a crescut și ponderea celor care spun că AI îi face „nervoși”, de la 50% la 52%. Pentru companii, mesajul implicit al raportului este că acceptarea socială și încrederea în reglementare pot deveni la fel de importante ca performanța tehnică: dacă publicul rămâne concentrat pe efectele asupra veniturilor și costurilor (inclusiv energie), presiunea pentru reguli mai stricte și pentru limitarea unor proiecte de infrastructură ar putea crește. [...]

Administrația Trump împinge marile bănci americane spre testarea AI-ului Anthropic , deși Pentagonul a încercat să blocheze compania , într-un episod care riscă să creeze incertitudine de reglementare și operațională pentru instituțiile financiare care adoptă rapid tehnologia, potrivit The Next Web . Secretarul Trezoreriei, Scott Bessent, și președintele Rezervei Federale, Jerome Powell, au chemat în această săptămână executivi de la JPMorgan Chase, Goldman Sachs, Citigroup, Bank of America și Morgan Stanley și i-au îndemnat să folosească modelul „Mythos” al Anthropic pentru a identifica vulnerabilități de securitate cibernetică în propriile sisteme, conform Bloomberg, citat de publicație. Recomandarea vine în timp ce Departamentul Apărării se află în litigiu cu Anthropic, după ce a etichetat compania drept „risc pentru lanțul de aprovizionare”, ceea ce o exclude de la contracte militare. De ce contează: semnale contradictorii de la același guvern Contradicția este una de politică publică cu efect direct asupra pieței: aceeași administrație care a încercat să scoată Anthropic din zona de apărare încurajează acum sistemul financiar să se bazeze pe tehnologia sa pentru securitate. În centrul disputei cu Pentagonul se află refuzul Anthropic de a elimina două restricții de siguranță din modelele sale: interdicția utilizării în arme complet autonome și interdicția folosirii pentru supravegherea în masă a cetățenilor americani. Potrivit articolului, conflictul a escaladat în februarie, când secretarul Apărării Pete Hegseth i-ar fi dat CEO-ului Anthropic, Dario Amodei, un termen limită pentru a renunța la aceste restricții, în caz contrar compania riscând pierderea unui contract de apărare de 200 milioane de dolari (aprox. 920 milioane lei). Amodei a refuzat, iar ulterior a urmat desemnarea ca „risc pentru lanțul de aprovizionare” și un ordin al președintelui Trump ca agențiile federale să nu mai folosească tehnologia Anthropic. În instanță, situația a rămas mixtă: un judecător federal din California a emis o ordonanță preliminară care blochează desemnarea, însă o curte de apel din Washington, D.C. a respins cererea Anthropic de a opri temporar „blacklisting”-ul pe durata procesului. Efectul practic descris de publicație: Anthropic este exclusă din contractele Departamentului Apărării, dar poate lucra în continuare cu alte agenții guvernamentale. Ce este Mythos și de ce nu e disponibil public „Claude Mythos Preview” este prezentat ca un model de vârf („frontier model”), pe care Anthropic spune că nu l-a antrenat explicit pentru securitate cibernetică; capacitatea de a găsi vulnerabilități ar fi apărut ca efect al îmbunătățirilor generale în raționamentul pe cod și operare autonomă. În testare, modelul ar fi identificat „mii” de vulnerabilități „zero-day” (defecte necunoscute anterior dezvoltatorilor) în principalele sisteme de operare și browsere. Anthropic nu a lansat public modelul, ci l-a inclus într-un program restricționat, „ Project Glasswing ”, care oferă acces către aproximativ 50 de organizații. Lista menționată include, între altele, Amazon Web Services, Apple, Google, Microsoft, Nvidia, Cisco, CrowdStrike, Palo Alto Networks și JPMorgan Chase. Ca parte a inițiativei, Anthropic ar fi angajat până la 100 milioane de dolari (aprox. 460 milioane lei) în credite de utilizare și 4 milioane de dolari (aprox. 18,4 milioane lei) în donații către organizații de securitate open-source. Publicația notează însă și scepticismul din piață: Tom’s Hardware a pus sub semnul întrebării afirmațiile despre „mii” de descoperiri severe, arătând că acestea s-ar baza pe 198 de evaluări manuale și că multe vulnerabilități semnalate ar fi în software mai vechi sau greu de exploatat. În plus, o parte a comunității de securitate ar vedea lansarea restricționată și ca o tactică comercială de tip „scarcity” (crearea artificială a rarității) pentru clienți mari. Ce testează băncile și ce urmează pe partea de supraveghere JPMorgan Chase este menționată ca partener oficial în Project Glasswing, iar Bloomberg (citat de articol) susține că Goldman Sachs, Citigroup, Bank of America și Morgan Stanley testează intern Mythos. Cazurile de utilizare raportate includ: detectarea vulnerabilităților; semnalarea riscurilor de fraudă; automatizarea fluxurilor de lucru de conformitate (compliance) în sistemele financiare. Pe partea de reglementare, reacția descrisă nu se limitează la SUA. Financial Times, citat de The Next Web, relatează că autorități din Marea Britanie – Bank of England, Financial Conduct Authority și HM Treasury – discută cu National Cyber Security Centre pentru a evalua riscurile și vulnerabilitățile evidențiate de Mythos, iar reprezentanți ai unor bănci, asigurători și burse ar urma să fie informați în următoarele două săptămâni. În ansamblu, episodul arată cum adoptarea accelerată a AI-ului în infrastructura financiară poate avansa mai repede decât coerența deciziilor guvernamentale: pentru bănci, recomandarea venită simultan de la Trezorerie și Fed cântărește operațional, chiar dacă o altă ramură a administrației încearcă să limiteze aceeași companie. [...]

Anthropic discută cu administrația Trump despre modelul său AI de vârf, Mythos, chiar dacă Pentagonul i-a tăiat accesul la contracte pe fondul unui litigiu privind condițiile de utilizare militară , potrivit Reuters . Miza este una de reglementare și guvernanță: cum ajunge un model „de frontieră” (frontier AI) în dialog cu statul, în timp ce o agenție-cheie îl tratează drept risc de securitate în lanțul de aprovizionare. Cofondatorul Anthropic, Jack Clark , a spus luni, la evenimentul Semafor World Economy din Washington, că firma discută cu administrația despre Mythos și că va discuta și despre modelele viitoare, în pofida disputei contractuale cu Pentagonul. El a descris conflictul drept unul „îngust”, dar a insistat că nu ar trebui să blocheze cooperarea pe teme de securitate națională. „Avem o dispută contractuală îngustă, dar nu vreau ca asta să stea în calea faptului că ne pasă profund de securitatea națională.” De ce contează: „gardurile de protecție” pentru utilizarea militară Reuters arată că disputa dintre Anthropic și Pentagon a pornit de la „guardrails” – condiții și limitări privind modul în care armata ar putea folosi instrumentele de inteligență artificială ale companiei. În urma conflictului, agenția a etichetat Anthropic luna trecută drept „risc în lanțul de aprovizionare”, interzicând utilizarea produselor sale atât în Pentagon, cât și la contractori. În paralel, natura și detaliile discuțiilor dintre Anthropic și guvernul SUA – inclusiv ce agenții sunt implicate – nu erau clare imediat, potrivit aceleiași surse. Context: ce este Mythos și de ce ridică probleme de securitate cibernetică Mythos a fost anunțat pe 7 aprilie și este prezentat de companie drept cel mai capabil model al său pentru programare și „sarcini agentice” – adică activități pe care modelul le poate executa autonom. Experți citați de Reuters spun că abilitatea de a scrie cod la nivel înalt ar putea oferi modelului o capacitate potențial fără precedent de a identifica vulnerabilități de securitate cibernetică și de a găsi modalități de exploatare a acestora. Ce urmează: bătălia juridică rămâne deschisă Un complet federal de apel din Washington, D.C., a refuzat săptămâna trecută să blocheze, deocamdată, decizia Pentagonului de a trece Anthropic pe lista de „blacklisting” pe criterii de securitate națională, o victorie pentru administrația Trump. Reuters notează că decizia vine după ce o altă instanță de apel a ajuns la concluzia opusă într-o contestație separată inițiată de Anthropic. [...]

John Giannandrea , șeful strategiei de AI și învățare automată la Apple, pleacă din companie săptămâna aceasta , potrivit PhoneArena , care citează informații din newsletterul Power On al lui Mark Gurman. Plecarea închide un capitol început în 2018, când CEO-ul Tim Cook l-a recrutat de la Google pentru a conduce eforturile Apple în inteligență artificială (AI) și învățare automată (machine learning). Giannandrea a fost, în ultimii opt ani, vicepreședinte senior responsabil de strategia de AI și machine learning, iar momentul-cheie al mandatului său a venit în 2024, când Apple a prezentat la WWDC 2024 (Worldwide Developers Conference) suita de funcții „Apple Intelligence” și planurile pentru un Siri refăcut. Conform relatării, livrarea acestor produse nu a decurs lin, iar rolul lui Giannandrea în coordonarea dezvoltării AI ar fi fost redus semnificativ în lunile dinaintea anunțului privind plecarea. În interpretarea lui Gurman, problemele Apple cu Apple Intelligence și Siri nu ar fi neapărat rezultatul unei „greșeli personale” a lui Giannandrea, ci al modului în care este condusă compania. „Vârful Apple este condus ca o mică afacere de familie, iar oamenii din afară precum Giannandrea nu sunt împuterniciți suficient pentru a produce schimbări reale”, susține Mark Gurman, citat de PhoneArena. Calendarul plecării pare legat și de compensația în acțiuni: Gurman afirmă că pe 15 aprilie urmează să se consolideze (vest) acțiuni Apple, iar acesta ar fi motivul pentru care Giannandrea ar fi așteptat până acum. Tot el spune că ultimele zile ale lui Giannandrea la Apple se încheie „săptămâna aceasta”. Pentru piață, miza este dublă: pe de o parte, Apple își reorganizează conducerea într-un moment în care AI a devenit o componentă centrală a produselor și a competiției din tehnologie; pe de altă parte, plecarea unui executiv adus special pentru această zonă ridică întrebări despre capacitatea companiei de a accelera refacerea lui Siri și livrarea funcțiilor promise. PhoneArena mai notează, tot pe baza informațiilor lui Gurman , că este puțin probabil ca Giannandrea să se alăture curând unei alte mari companii de tehnologie; planul ar fi să facă activitate de consiliere în zona startup-urilor. În paralel, publicația amintește că, la început, conducerea Apple ar fi fost reticentă față de AI, iar șeful diviziei software, Craig Federighi, ar fi devenit mai favorabil după ce a folosit AI pentru a scrie cod într-o seară. Pe scurt, din informațiile prezentate de sursă, principalele repere ale acestui episod sunt: Giannandrea a fost recrutat în 2018 de la Google pentru a conduce AI și machine learning la Apple. În 2024, Apple a prezentat la WWDC suita „Apple Intelligence” și direcția pentru un nou Siri, dar implementarea a avut sincope. Rolul lui Giannandrea ar fi fost redus înainte ca plecarea să fie anunțată, iar ieșirea efectivă are loc în această săptămână, în jurul datei de 15 aprilie (consolidarea acțiunilor). Potrivit lui Gurman, el ar urma să se orienteze spre consiliere pentru startup-uri, nu spre o nouă poziție într-un gigant tech. [...]