Știri
Știri din categoria Inteligență artificială

Raportul anual al Stanford arată că percepția publicului despre AI se îndepărtează rapid de cea a experților, un decalaj care riscă să alimenteze presiuni de reglementare și costuri operaționale pentru companiile care dezvoltă și implementează tehnologia, potrivit TechCrunch. Documentul notează o creștere a anxietății legate de AI și, în SUA, îngrijorări privind efectele asupra locurilor de muncă, îngrijirii medicale și economiei.
În timp ce liderii din industrie își concentrează discursul pe riscuri de tip AGI (inteligență artificială generală – o formă teoretică de „superinteligență” capabilă să facă orice sarcină umană), publicul se uită mai degrabă la impactul imediat: salarii, stabilitatea joburilor și posibile scumpiri ale energiei pe fondul construirii de centre de date mari consumatoare de electricitate.
Raportul Stanford sintetizează mai multe seturi de date despre sentimentul public, inclusiv rezultate din cercetări Pew Research citate în raport. Un exemplu: doar 10% dintre americani au spus că sunt mai entuziasmați decât îngrijorați de utilizarea tot mai mare a AI în viața de zi cu zi, în timp ce 56% dintre experții în AI consideră că tehnologia va avea un impact pozitiv asupra SUA în următorii 20 de ani.
Pe domenii, diferențele sunt și mai pronunțate:
Raportul indică și o problemă de guvernanță: SUA ar avea cel mai scăzut nivel de încredere în capacitatea guvernului de a reglementa responsabil AI, la 31%, în comparație cu alte țări. Singapore apare cu cel mai ridicat nivel, 81%, pe baza datelor Ipsos incluse în raport.
Separat, o altă sursă citată în raport arată că, la nivel național în SUA, 41% dintre respondenți cred că reglementarea federală a AI nu va merge suficient de departe, în timp ce 27% spun că ar merge „prea departe”.
TechCrunch notează că raportul vine pe fondul unei intensificări a sentimentului negativ față de AI, cu Gen Z „în avangardă”, potrivit unui sondaj Gallup citat de publicație: tinerii ar fi mai puțin optimiști și mai furioși, deși aproximativ jumătate folosesc AI zilnic sau săptămânal.
Diviziunea dintre „insideri” și public a devenit vizibilă și în reacțiile online la atacurile recente asupra locuinței CEO-ului OpenAI, Sam Altman, unde unele comentarii au părut să laude incidentul, în timp ce persoane din industrie s-au declarat surprinse de tonul acestor reacții.
La nivel global, ponderea celor care cred că produsele și serviciile AI aduc mai multe beneficii decât dezavantaje a crescut ușor, de la 55% în 2024 la 59% în 2025. În același timp, a crescut și ponderea celor care spun că AI îi face „nervoși”, de la 50% la 52%.
Pentru companii, mesajul implicit al raportului este că acceptarea socială și încrederea în reglementare pot deveni la fel de importante ca performanța tehnică: dacă publicul rămâne concentrat pe efectele asupra veniturilor și costurilor (inclusiv energie), presiunea pentru reguli mai stricte și pentru limitarea unor proiecte de infrastructură ar putea crește.
Recomandate

Atacurile repetate asupra locuinței lui Sam Altman ridică miza de securitate în jurul OpenAI , după ce poliția din San Francisco a anunțat arestarea a doi suspecți în legătură cu un nou incident cu focuri de armă, potrivit IT Home . Poliția a reținut doi suspecți — Amanda Tom (25 de ani) și Muhammad Tariq Hussain (23 de ani) — acuzați de „tragere din culpă” (incident cu armă de foc tratat ca infracțiune, fără intenție dovedită în acest stadiu), conform informațiilor citate de publicație din The San Francisco Standard. În raportul preliminar, incidentul ar fi avut loc duminică dimineața, la ora locală 01:40, când o berlină Honda cu două persoane ar fi trecut pe lângă locuința lui Altman, apoi s-ar fi oprit în fața casei. Ce spune raportul poliției despre incident Conform raportului de intervenție, coroborat cu imagini de supraveghere și declarațiile personalului de securitate al locuinței, pasagerul din dreapta ar fi scos mâna pe geam și ar fi tras un foc de armă spre latura proprietății dinspre Lombard Street. Agenții de pază au declarat că au auzit împușcătura, iar mașina a părăsit apoi zona. Camerele de supraveghere au surprins numărul de înmatriculare, iar poliția a identificat vehiculul și i-a oprit pe cei doi suspecți în zona 2000 Taylor Street. În urma percheziției la domiciliul acestora, polițiștii ar fi găsit trei arme de foc. Context: al doilea incident în două zile Acesta ar fi al doilea atac asupra locuinței CEO-ului OpenAI în decurs de două zile. Potrivit materialului, primul incident a avut loc vineri dimineața, când un bărbat de 20 de ani din Texas, Daniel Alejandro Moreno-Gama, ar fi aruncat un „cocktail Molotov” (sticlă cu material inflamabil) spre poarta metalică dinspre Chestnut Street, în jurul orei 03:40. Focul ar fi fost stins de personalul de securitate, iar momentul ar fi fost surprins de camere. OpenAI ar fi transmis că, la scurt timp după incident, echipa de securitate de la sediul companiei din Mission Bay a observat o persoană care semăna cu suspectul, care ar fi făcut amenințări la adresa clădirii; aceasta a fost ulterior reținută de poliție. În ambele cazuri, nu au fost raportate victime. De ce contează pentru industrie Seria de incidente evidențiază presiunea de securitate care poate apărea în jurul liderilor companiilor de inteligență artificială, într-un moment în care dezbaterea publică despre riscuri și efecte sociale se intensifică. IT Home notează că Altman a scris după incidentul cu dispozitiv incendiar: „Teama și anxietatea oamenilor față de inteligența artificială sunt rezonabile. Asistăm la cea mai mare transformare pe termen lung a societății, poate din istorie.” Potrivit sursei, Moreno-Gama a fost încarcerat vineri după-amiază în închisoarea comitatului San Francisco, fiind acuzat de tentativă de omor, incendiere și deținere sau fabricare de dispozitive incendiare, între altele. În cazul incidentului cu focuri de armă, ancheta este în desfășurare, iar acuzațiile menționate sunt cele comunicate în acest stadiu de poliție. [...]

Google extinde capabilitățile Gemini , permițând generarea de imagini interactive direct în chat , o schimbare care poate reduce pașii necesari pentru prototipare și testare rapidă de idei vizuale în fluxurile de lucru digitale, potrivit CNET . Din informațiile disponibile în materialul CNET reiese că noutatea vizează integrarea acestor imagini interactive „în conversație”, adică în interfața de chat, fără a fi nevoie ca utilizatorul să iasă din dialog pentru a deschide un instrument separat. De ce contează operațional Mutarea generării de conținut interactiv în interiorul chatului poate însemna, în practică, un ciclu mai scurt între cerință, variantă și ajustare — relevant pentru echipe care lucrează iterativ (de exemplu, în produs, design sau educație), unde timpul pierdut între aplicații și formate diferite devine cost operațional. Totuși, textul furnizat nu include detalii despre disponibilitate (cine primește funcția și în ce planuri), limitări tehnice sau exemple concrete de utilizare, astfel că impactul exact depinde de modul în care Google a implementat funcția și de condițiile de acces, informații care nu apar în extrasul primit. Ce știm și ce nu știm din sursa disponibilă Ce este confirmat în materialul citat: Gemini poate genera „imagini interactive” direct în chat. Ce nu este precizat în textul furnizat: dacă funcția este disponibilă pentru toți utilizatorii sau doar pentru anumite conturi/abonamente; pe ce platforme (web, mobil) și în ce regiuni este activă; ce înseamnă „interactiv” în termeni de funcționalitate (de exemplu, simulare, elemente clicabile, parametri ajustabili) și ce limite are. [...]

Cheltuielile cu inteligența artificială în Asia-Pacific ar urma să urce la 370 miliarde de dolari în 2029 , de peste cinci ori față de nivelul din 2024, potrivit unei prognoze IDC citate de IT Home . Ritmul implicat este unul accelerat: IDC estimează o rată anuală compusă de creștere (CAGR) de 38,4% pentru perioada până în 2029. Un element cu greutate pentru companii este că aproape jumătate din bugetul total ar urma să fie direcționat către AI generativă (GenAI) — 47,4% din total, adică aproximativ 175 miliarde de dolari (aprox. 805 miliarde lei). Pentru acest segment, IDC indică un CAGR de 68,2%, semnalând că GenAI devine principalul motor al investițiilor, nu doar o extensie a proiectelor existente. Unde se duc banii: infrastructura rămâne cea mai mare linie de cheltuieli Din perspectiva utilizărilor, IDC arată că „furnizarea de infrastructură AI” este cea mai mare componentă individuală, cu circa 39% din cheltuielile totale. Practic, o parte semnificativă din creșterea pieței este susținută de investiții în capacitate tehnică (hardware, centre de date și resurse asociate), necesară pentru rularea și scalarea modelelor. Schimbare de etapă: de la proiecte izolate la ecosisteme la nivel de companie IDC mai apreciază că piața AI din Asia-Pacific intră într-o nouă fază: accentul se mută de la construcția de infrastructură către integrarea platformelor și operarea la scară mai mare. În această logică, organizațiile ar trece de la cazuri de utilizare izolate la ecosisteme integrate, la nivel de întreprindere, iar adoptarea AI s-ar extinde atât ca profunzime, cât și ca arie de utilizare. În ansamblu, prognoza indică o presiune crescândă pe bugetele de tehnologie din regiune, cu două direcții dominante: investiții mari în infrastructură și o accelerare puternică a AI generative, care captează o pondere tot mai mare din cheltuieli. [...]

Goldman Sachs își intensifică investițiile în securitate cibernetică după ce CEO-ul David Solomon a spus că urmărește „cu vigilență ridicată” modelul Mythos al Anthropic , despre care compania afirmă că poate identifica vulnerabilități în sisteme IT la un nivel peste aproape toți experții umani, potrivit IT Home . Declarațiile au fost făcute luni, în cadrul teleconferinței pe rezultate financiare a băncii, iar materialul citează o relatare publicată anterior de The Guardian. Solomon a indicat că modelele de tip „large language model” (modele lingvistice mari) evoluează rapid și că, „cu ajutorul guvernului SUA și al dezvoltatorilor de modele”, instituția rămâne atentă la capacitățile noi pe care acestea le aduc. De ce contează: capabilitățile de găsire a „breșelor” pot schimba balanța riscului Anthropic a susținut săptămâna trecută că Mythos poate descoperi vulnerabilități în sisteme IT, ceea ce ar introduce „riscuri fără precedent”. Într-o postare pe blog, compania a argumentat că modelele AI au ajuns la un nivel ridicat în programare, iar capacitatea de a găsi și exploata vulnerabilități software ar fi depășit-o pe cea a tuturor oamenilor, cu excepția celor mai buni specialiști. Potrivit aceleiași poziții a Anthropic, consecințele potențiale ar putea fi serioase pentru: economie, siguranța publică, securitatea națională. Ce face Goldman Sachs: utilizare, colaborare cu furnizori și investiții mai mari Solomon a mai spus că Goldman Sachs înțelege capacitățile reale ale modelului Mythos și că l-a folosit deja. În paralel, banca lucrează îndeaproape cu furnizori precum Anthropic pentru a valorifica aceste capabilități „de vârf”, menținând în același timp monitorizarea evoluțiilor din industrie. În plan operațional, CEO-ul a indicat că instituția „își consolidează puternic” capabilitățile de securitate cibernetică și infrastructură și că își crește în continuare investițiile în aceste zone. Materialul nu oferă detalii despre buget, calendar sau proiecte specifice. [...]

Microsoft testează integrarea unor funcții de tip OpenClaw în Microsoft 365 Copilot , cu accent pe controlul de securitate pentru clienții enterprise , potrivit TechCrunch . Compania a confirmat pentru The Information că noile capabilități ar viza mediul corporate și ar veni cu „controale de securitate mai bune” decât agentul open-source OpenClaw, descris ca fiind riscant. Miza operațională este trecerea de la Copilot ca asistent care răspunde la solicitări la un agent care poate executa acțiuni în mod continuu. Conform informațiilor citate, una dintre funcțiile principale ar fi un fel de „365 Copilot care lucrează mereu”, capabil să inițieze acțiuni oricând și să ducă la capăt sarcini în mai mulți pași, pe perioade mai lungi. Ce este OpenClaw și ce ar vrea Microsoft să reproducă OpenClaw este prezentat ca un instrument care rulează local pe calculatorul utilizatorului și poate crea „agenți” care îndeplinesc sarcini în numele acestuia. TechCrunch notează că, dacă Microsoft va construi propria versiune de „Claw” (adică un agent care rulează local), proiectul s-ar alătura unei serii de instrumente „agentice” anunțate de companie în ultimele luni. Deocamdată, publicația subliniază că nu este clar dacă noul „Claw” al Microsoft va rula local sau va prelua doar unele dintre funcțiile apreciate de comunitatea OpenClaw. Cum se leagă de restul „agenților” Copilot În material sunt menționate mai multe inițiative recente ale Microsoft în zona de agenți: Copilot Cowork (anunțat în martie): conceput să întreprindă acțiuni în aplicațiile Microsoft 365, nu doar să ofere rezultate de căutare sau conversație într-un panou separat; ar fi alimentat de o tehnologie numită „Work IQ”, descrisă ca un strat de inteligență care personalizează experiența în Microsoft 365. Integrarea modelului Claude (Anthropic) în Cowork : după parteneriatul cu Anthropic de la finalul anului trecut, Microsoft a adăugat Claude ca opțiune pentru Cowork; însă Cowork rulează în cloud, nu pe hardware local. Copilot Tasks (introdus în februarie, în versiune preview): un alt agent pentru completarea de sarcini; materialele de marketing îl poziționau mai degrabă către „prosumers” decât către enterprise, cu exemple de la organizarea e-mailului până la organizarea călătoriilor și a programărilor; și acesta rulează în cloud. De ce contează: securitate și control, plus presiune de platformă Pentru companii, diferența majoră sugerată de articol este promisiunea unor controale de securitate mai solide decât în cazul unui proiect open-source considerat „riscant”, într-un context în care agenții capabili să execute acțiuni pot amplifica impactul unui incident (de la acces neautorizat la automatizări greșite). TechCrunch mai notează și un element de piață: deși OpenClaw poate rula pe Windows, Mac Mini a devenit platforma preferată pentru utilizatorii OpenClaw , iar aceste dispozitive „s-au vândut ca pâinea caldă”, ceea ce ar putea fi încă o motivație pentru Microsoft să vină cu propria alternativă. Ce urmează Compania ar urma să prezinte noul „Claw” (sau o versiune îmbunătățită a unuia dintre instrumentele existente) la conferința Microsoft Build din iunie, potrivit unui material The Verge citat de TechCrunch. Publicația spune că a cerut Microsoft clarificări despre cum se poziționează acest agent față de ceilalți și va actualiza informația când va primi un răspuns. [...]

Administrația Trump împinge marile bănci americane spre testarea AI-ului Anthropic , deși Pentagonul a încercat să blocheze compania , într-un episod care riscă să creeze incertitudine de reglementare și operațională pentru instituțiile financiare care adoptă rapid tehnologia, potrivit The Next Web . Secretarul Trezoreriei, Scott Bessent, și președintele Rezervei Federale, Jerome Powell, au chemat în această săptămână executivi de la JPMorgan Chase, Goldman Sachs, Citigroup, Bank of America și Morgan Stanley și i-au îndemnat să folosească modelul „Mythos” al Anthropic pentru a identifica vulnerabilități de securitate cibernetică în propriile sisteme, conform Bloomberg, citat de publicație. Recomandarea vine în timp ce Departamentul Apărării se află în litigiu cu Anthropic, după ce a etichetat compania drept „risc pentru lanțul de aprovizionare”, ceea ce o exclude de la contracte militare. De ce contează: semnale contradictorii de la același guvern Contradicția este una de politică publică cu efect direct asupra pieței: aceeași administrație care a încercat să scoată Anthropic din zona de apărare încurajează acum sistemul financiar să se bazeze pe tehnologia sa pentru securitate. În centrul disputei cu Pentagonul se află refuzul Anthropic de a elimina două restricții de siguranță din modelele sale: interdicția utilizării în arme complet autonome și interdicția folosirii pentru supravegherea în masă a cetățenilor americani. Potrivit articolului, conflictul a escaladat în februarie, când secretarul Apărării Pete Hegseth i-ar fi dat CEO-ului Anthropic, Dario Amodei, un termen limită pentru a renunța la aceste restricții, în caz contrar compania riscând pierderea unui contract de apărare de 200 milioane de dolari (aprox. 920 milioane lei). Amodei a refuzat, iar ulterior a urmat desemnarea ca „risc pentru lanțul de aprovizionare” și un ordin al președintelui Trump ca agențiile federale să nu mai folosească tehnologia Anthropic. În instanță, situația a rămas mixtă: un judecător federal din California a emis o ordonanță preliminară care blochează desemnarea, însă o curte de apel din Washington, D.C. a respins cererea Anthropic de a opri temporar „blacklisting”-ul pe durata procesului. Efectul practic descris de publicație: Anthropic este exclusă din contractele Departamentului Apărării, dar poate lucra în continuare cu alte agenții guvernamentale. Ce este Mythos și de ce nu e disponibil public „Claude Mythos Preview” este prezentat ca un model de vârf („frontier model”), pe care Anthropic spune că nu l-a antrenat explicit pentru securitate cibernetică; capacitatea de a găsi vulnerabilități ar fi apărut ca efect al îmbunătățirilor generale în raționamentul pe cod și operare autonomă. În testare, modelul ar fi identificat „mii” de vulnerabilități „zero-day” (defecte necunoscute anterior dezvoltatorilor) în principalele sisteme de operare și browsere. Anthropic nu a lansat public modelul, ci l-a inclus într-un program restricționat, „ Project Glasswing ”, care oferă acces către aproximativ 50 de organizații. Lista menționată include, între altele, Amazon Web Services, Apple, Google, Microsoft, Nvidia, Cisco, CrowdStrike, Palo Alto Networks și JPMorgan Chase. Ca parte a inițiativei, Anthropic ar fi angajat până la 100 milioane de dolari (aprox. 460 milioane lei) în credite de utilizare și 4 milioane de dolari (aprox. 18,4 milioane lei) în donații către organizații de securitate open-source. Publicația notează însă și scepticismul din piață: Tom’s Hardware a pus sub semnul întrebării afirmațiile despre „mii” de descoperiri severe, arătând că acestea s-ar baza pe 198 de evaluări manuale și că multe vulnerabilități semnalate ar fi în software mai vechi sau greu de exploatat. În plus, o parte a comunității de securitate ar vedea lansarea restricționată și ca o tactică comercială de tip „scarcity” (crearea artificială a rarității) pentru clienți mari. Ce testează băncile și ce urmează pe partea de supraveghere JPMorgan Chase este menționată ca partener oficial în Project Glasswing, iar Bloomberg (citat de articol) susține că Goldman Sachs, Citigroup, Bank of America și Morgan Stanley testează intern Mythos. Cazurile de utilizare raportate includ: detectarea vulnerabilităților; semnalarea riscurilor de fraudă; automatizarea fluxurilor de lucru de conformitate (compliance) în sistemele financiare. Pe partea de reglementare, reacția descrisă nu se limitează la SUA. Financial Times, citat de The Next Web, relatează că autorități din Marea Britanie – Bank of England, Financial Conduct Authority și HM Treasury – discută cu National Cyber Security Centre pentru a evalua riscurile și vulnerabilitățile evidențiate de Mythos, iar reprezentanți ai unor bănci, asigurători și burse ar urma să fie informați în următoarele două săptămâni. În ansamblu, episodul arată cum adoptarea accelerată a AI-ului în infrastructura financiară poate avansa mai repede decât coerența deciziilor guvernamentale: pentru bănci, recomandarea venită simultan de la Trezorerie și Fed cântărește operațional, chiar dacă o altă ramură a administrației încearcă să limiteze aceeași companie. [...]