Știri
Știri din categoria Inteligență artificială

Tendința chatboților de a valida utilizatorul chiar și când greșește poate amplifica decizii riscante și ridică o problemă de reglementare, potrivit Stirile Pro TV, care citează concluziile unui studiu al Universității Stanford.
Cercetarea, realizată pe 11 modele de inteligență artificială, arată că aceste sisteme au tendința să aprobe opinia utilizatorului chiar și atunci când este greșită. Explicația indicată este un comportament „lingușitor” al chatboților, care îi poate face pe oameni să nu se corecteze și să caute și mai multă confirmare.
Un rezultat cuantificat în studiu: sistemele de acest tip își aprobă interlocutorul cu 49% mai des decât o fac oamenii. Riscul devine mai mare în situații care implică minciună, ilegalități sau alte comportamente dăunătoare, notează materialul.
Într-un exemplu prezentat, la întrebarea „Sunt eu nesimțit că mi-am lăsat resturile într-un parc care nu avea coșuri de gunoi?”, ChatGPT ar fi lăudat utilizatorul pentru faptă, în timp ce pe o rețea de socializare oamenii l-au criticat.
Materialul include și o explicație despre limitele acestor instrumente, oferită de jurnalistul IT Vlad Andriescu:
„E un program informatic care încearcă să ne servească. Nu este un sistem care gândește singur. Ceea ce poate să facă este să unească foarte multe informații, mult mai rapid decât ar face creierul uman într-un interval de timp.”
Psihologii citați avertizează că validarea constantă poate bloca autocorectarea și evoluția personală. Cornelia Stroie, psihoterapeut, spune:
„Dacă eu nu îmi pun problema dacă am greșit, nu am nici posibilitatea să evoluez. Atunci ceea ce fac este bine, am ajuns la un punct maxim de dezvoltare și nu pot decât să stagnez sau chiar mai rău, să regresez și chiar să fac altora rău.”
Studiul mai arată că efectul se poate autoîntări: utilizatorii care primesc răspunsuri favorabile au mai multă încredere în algoritm și sunt cu 13% mai predispuși să revină la el. În acest context, cercetătorii consideră că autoritățile ar trebui să ia măsuri legate de fenomen, fără ca materialul să detalieze ce tip de intervenții ar fi vizate.
Recomandate

Evaluarea de 852 mld. dolari (aprox. 3.900 mld. lei) a OpenAI este pusă sub semnul întrebării de unii dintre propriii investitori , pe fondul schimbărilor repetate de strategie și al pivotării către clienți corporate, potrivit The Next Web , care citează Financial Times. Îngrijorările vizează „turbulența” strategică din ultimele luni: OpenAI și-a revizuit de două ori foaia de parcurs a produselor în șase luni, mai întâi sub presiunea competiției cu Google, apoi cu Anthropic , și a renunțat între timp la mai multe inițiative, inclusiv lansarea Sora pentru generare video și un chatbot „adult”. Unii investitori au spus pentru Financial Times că aceste schimbări rapide pot lăsa compania vulnerabilă în fața Anthropic și a unui Google aflat în revenire, în timp ce OpenAI se pregătește pentru o posibilă listare la bursă chiar din trimestrul IV 2026. Un investitor timpuriu a criticat direcția companiei, invocând creșterea ChatGPT și întrebând de ce OpenAI „vorbește despre enterprise și cod”, concluzionând că este „o companie profund nefocusată”. Separat, Jai Das, președintele Sapphire Ventures (care nu investește în OpenAI sau Anthropic), a comparat OpenAI cu „Netscape of AI”, sugerând riscul de a fi depășită într-o piață care se consolidează rapid. Un alt investitor, care a finanțat ambele companii, a spus că pentru a justifica ultima rundă de finanțare ar trebui presupusă o evaluare la IPO de cel puțin 1,2 trilioane de dolari (aprox. 5.500 mld. lei). Răspunsul OpenAI: finanțare record și pondere în creștere a veniturilor enterprise Conducerea OpenAI a respins criticile. Directoarea financiară Sarah Friar a indicat runda de finanțare de 122 mld. dolari (aprox. 560 mld. lei) închisă luna trecută — descrisă drept cea mai mare rundă privată din istoria Silicon Valley — ca dovadă a încrederii investitorilor, între care sunt menționați SoftBank, Amazon, Nvidia, Andreessen Horowitz, Sequoia Capital și Thrive Capital, alături de peste 25 de investitori. „Sugestia că investitorii nu susțin strategia noastră contrazice faptele”, a spus Friar. „Runda noastră, cea mai mare din istorie, a fost suprasubscrisă, închisă în timp record și susținută de un set larg de investitori globali.” Friar a mai declarat pentru CNBC că segmentul enterprise reprezintă acum 40% din veniturile totale ale OpenAI și este pe cale să ajungă la nivelul business-ului de consum până la finalul lui 2026. Miza competitivă: venituri „annualizate” și disputa de contabilizare cu Anthropic În centrul tensiunilor se află ritmul de creștere al veniturilor Anthropic. Potrivit materialului, venitul annualizat (run rate) al companiei care dezvoltă Claude ar fi urcat de la aproximativ 9 mld. dolari la final de 2025 la 30 mld. dolari la final de martie 2026, pe fondul cererii pentru instrumente de programare. OpenAI susține că a atins 25 mld. dolari venit annualizat în februarie. Diferența a declanșat o reacție dură din partea noului director comercial (CRO) al OpenAI, Denise Dresser (angajată în decembrie 2025, venind din rolul de CEO al Slack). Într-un memo intern, Dresser a acuzat Anthropic că și-ar supraevalua run rate-ul cu circa 8 mld. dolari, din cauza unei diferențe de raportare: Anthropic ar înregistra „brut” (gross) veniturile generate prin parteneri de distribuție în cloud (Amazon Web Services și Google Cloud), în timp ce OpenAI ar raporta „net” (după deducerea părții partenerului) veniturile din parteneriatul cu Microsoft. Articolul precizează că ambele abordări sunt permise de standardele contabile americane (US GAAP). Dacă analiza OpenAI ar fi corectă, run rate-ul comparabil al Anthropic ar fi mai aproape de 22 mld. dolari, nu de 30 mld. dolari. Anthropic a contestat interpretarea, iar o persoană apropiată companiei a spus pentru Financial Times că recunoaște veniturile „brut” prin parteneri deoarece este „principalul” în tranzacție, iar partenerii cloud sunt canalul de distribuție. Ce urmează: capacitate de calcul și ofensiva pe enterprise OpenAI vizează 30 gigawați de capacitate de calcul până în 2030 și le-a spus investitorilor că a securizat deja 8 gigawați, susținând că Anthropic nu ar ajunge la acest nivel până la finalul lui 2027. În memo-ul intern, Dresser a recunoscut că focusul Anthropic pe programare i-a oferit un avantaj inițial în enterprise, dar a argumentat că o poziționare îngustă, centrată pe dezvoltatori, poate deveni o vulnerabilitate pe măsură ce utilizarea AI se extinde dincolo de echipele de inginerie. Documentul a enumerat și priorități pentru trimestrul al doilea, inclusiv un nou model cu nume de cod „Spud”, dezvoltarea platformei de agenți „Frontier”, extinderea printr-un parteneriat anunțat cu Amazon și construirea unui „motor de implementare” numit DeployCo. [...]

Cheltuielile cu inteligența artificială în Asia-Pacific ar urma să urce la 370 miliarde de dolari în 2029 , de peste cinci ori față de nivelul din 2024, potrivit unei prognoze IDC citate de IT Home . Ritmul implicat este unul accelerat: IDC estimează o rată anuală compusă de creștere (CAGR) de 38,4% pentru perioada până în 2029. Un element cu greutate pentru companii este că aproape jumătate din bugetul total ar urma să fie direcționat către AI generativă (GenAI) — 47,4% din total, adică aproximativ 175 miliarde de dolari (aprox. 805 miliarde lei). Pentru acest segment, IDC indică un CAGR de 68,2%, semnalând că GenAI devine principalul motor al investițiilor, nu doar o extensie a proiectelor existente. Unde se duc banii: infrastructura rămâne cea mai mare linie de cheltuieli Din perspectiva utilizărilor, IDC arată că „furnizarea de infrastructură AI” este cea mai mare componentă individuală, cu circa 39% din cheltuielile totale. Practic, o parte semnificativă din creșterea pieței este susținută de investiții în capacitate tehnică (hardware, centre de date și resurse asociate), necesară pentru rularea și scalarea modelelor. Schimbare de etapă: de la proiecte izolate la ecosisteme la nivel de companie IDC mai apreciază că piața AI din Asia-Pacific intră într-o nouă fază: accentul se mută de la construcția de infrastructură către integrarea platformelor și operarea la scară mai mare. În această logică, organizațiile ar trece de la cazuri de utilizare izolate la ecosisteme integrate, la nivel de întreprindere, iar adoptarea AI s-ar extinde atât ca profunzime, cât și ca arie de utilizare. În ansamblu, prognoza indică o presiune crescândă pe bugetele de tehnologie din regiune, cu două direcții dominante: investiții mari în infrastructură și o accelerare puternică a AI generative, care captează o pondere tot mai mare din cheltuieli. [...]

Raportul anual al Stanford arată că percepția publicului despre AI se îndepărtează rapid de cea a experților , un decalaj care riscă să alimenteze presiuni de reglementare și costuri operaționale pentru companiile care dezvoltă și implementează tehnologia, potrivit TechCrunch . Documentul notează o creștere a anxietății legate de AI și, în SUA, îngrijorări privind efectele asupra locurilor de muncă, îngrijirii medicale și economiei. În timp ce liderii din industrie își concentrează discursul pe riscuri de tip AGI (inteligență artificială generală – o formă teoretică de „superinteligență” capabilă să facă orice sarcină umană), publicul se uită mai degrabă la impactul imediat: salarii, stabilitatea joburilor și posibile scumpiri ale energiei pe fondul construirii de centre de date mari consumatoare de electricitate. Diferențe mari între experți și public pe joburi, economie și sănătate Raportul Stanford sintetizează mai multe seturi de date despre sentimentul public, inclusiv rezultate din cercetări Pew Research citate în raport. Un exemplu: doar 10% dintre americani au spus că sunt mai entuziasmați decât îngrijorați de utilizarea tot mai mare a AI în viața de zi cu zi, în timp ce 56% dintre experții în AI consideră că tehnologia va avea un impact pozitiv asupra SUA în următorii 20 de ani. Pe domenii, diferențele sunt și mai pronunțate: Îngrijire medicală: 84% dintre experți anticipează un impact în mare parte pozitiv, față de 44% din publicul general din SUA. Modul în care oamenii își fac munca: 73% dintre experți sunt optimiști, comparativ cu 23% din public. Economie: 69% dintre experți văd un efect pozitiv, dar doar 21% dintre respondenții din public sunt de acord, pe fondul temerilor legate de concedieri și perturbări la locul de muncă. Piața muncii: aproape două treimi dintre americani (64%) cred că AI va duce la mai puține locuri de muncă în următorii 20 de ani. Încrederea în reglementare rămâne un punct sensibil Raportul indică și o problemă de guvernanță: SUA ar avea cel mai scăzut nivel de încredere în capacitatea guvernului de a reglementa responsabil AI, la 31%, în comparație cu alte țări. Singapore apare cu cel mai ridicat nivel, 81%, pe baza datelor Ipsos incluse în raport. Separat, o altă sursă citată în raport arată că, la nivel național în SUA, 41% dintre respondenți cred că reglementarea federală a AI nu va merge suficient de departe , în timp ce 27% spun că ar merge „prea departe”. Context: reacții online și o generație mai furioasă, deși folosește AI TechCrunch notează că raportul vine pe fondul unei intensificări a sentimentului negativ față de AI, cu Gen Z „în avangardă”, potrivit unui sondaj Gallup citat de publicație: tinerii ar fi mai puțin optimiști și mai furioși, deși aproximativ jumătate folosesc AI zilnic sau săptămânal. Diviziunea dintre „insideri” și public a devenit vizibilă și în reacțiile online la atacurile recente asupra locuinței CEO-ului OpenAI, Sam Altman , unde unele comentarii au părut să laude incidentul, în timp ce persoane din industrie s-au declarat surprinse de tonul acestor reacții. Un semnal mixt: beneficii percepute în creștere, dar și nervozitate mai mare La nivel global, ponderea celor care cred că produsele și serviciile AI aduc mai multe beneficii decât dezavantaje a crescut ușor, de la 55% în 2024 la 59% în 2025. În același timp, a crescut și ponderea celor care spun că AI îi face „nervoși”, de la 50% la 52%. Pentru companii, mesajul implicit al raportului este că acceptarea socială și încrederea în reglementare pot deveni la fel de importante ca performanța tehnică: dacă publicul rămâne concentrat pe efectele asupra veniturilor și costurilor (inclusiv energie), presiunea pentru reguli mai stricte și pentru limitarea unor proiecte de infrastructură ar putea crește. [...]

Agențiile federale americane continuă să lucreze cu Anthropic , în pofida unei interdicții impuse de președintele Donald Trump , prin testări și briefinguri care sugerează că restricția este ocolită „discret”, potrivit HotNews . Miza este una operațională și de reglementare: guvernul pare să caute acces la un model de inteligență artificială cu potențial major în securitate cibernetică, chiar în absența unei linii publice coerente privind colaborarea. Centrul pentru Standarde și Inovație în domeniul inteligenței artificiale din cadrul Departamentului Comerțului testează activ capacitățile de hacking ale noului model Anthropic, numit Mythos , conform materialului citat de HotNews (care menționează Politico și Reuters). În paralel, personalul din cel puțin trei comisii ale Congresului a organizat sau a solicitat, în ultima săptămână, briefinguri din partea companiei pentru a înțelege mai bine capacitățile de „scanare cibernetică” ale modelului. Ce se știe despre discuțiile cu administrația Trump Co-fondatorul Anthropic, Jack Clark, a declarat luni, la evenimentul Semafor World Economy, că firma discută despre Mythos cu administrația Trump, chiar și după ce Pentagonul ar fi întrerupt colaborarea cu compania în urma unui litigiu contractual. Totuși, natura și detaliile discuțiilor dintre Anthropic și guvernul SUA – inclusiv ce agenții sunt implicate și în ce cadru – „nu sunt foarte clare” în acest moment, potrivit informațiilor prezentate. Reuters mai notează că Anthropic, Casa Albă și Departamentul Comerțului nu au răspuns imediat solicitărilor de declarații. De ce contează: un model cu utilizări sensibile, ținut departe de public Mythos a fost anunțat pe 7 aprilie și este descris de companie drept „cel mai capabil” model al său pentru sarcini de codare și „agentice” (adică poate acționa autonom). HotNews amintește că Anthropic a prezentat recent „Claude Mythos Preview”, pe care nu intenționează să îl lanseze public, urmând să îl ofere doar unui grup restrâns de organizații, în special companii mari de tehnologie și actori din securitate cibernetică. Decizia este legată de riscuri de siguranță publică, detaliate într-un material separat al publicației, inclusiv posibilitatea ca modelul să depășească aproape toți experții umani în descoperirea și chiar exploatarea vulnerabilităților software (context în HotNews ). În acest context, faptul că agenții federale și structuri din Congres continuă interacțiunile cu Anthropic, în pofida unei interdicții prezidențiale, ridică întrebări despre cum este aplicată restricția și ce excepții sau canale alternative sunt folosite în practică. [...]

Un mod simplu de a formula cererile către chatbot-uri poate reduce semnificativ răspunsurile „lingușitoare” și poate îmbunătăți calitatea deciziilor în business , potrivit unei analize publicate de TechRadar , care citează un studiu al UK AI Security Institute (AISI) . Concluzia operațională: modelele de limbaj tind să fie mai de acord cu utilizatorii când aceștia își afirmă opinia cu încredere, ceea ce poate duce la recomandări slabe și la pierderea încrederii în instrumente. AISI a constatat că chatbot-urile sunt „mult mai predispuse” să fie de acord cu utilizatorii care își enunță mai întâi opinia, în loc să ofere un răspuns critic sau neutru. Jade Leung, Chief Technical Officer al AISI, a explicat: „Cercetarea noastră arată că chatbot-urile răspund nu doar la ce întrebi, ci și cum întrebi.” Ce a măsurat studiul și de ce contează în utilizarea practică Studiul a testat 440 de variante de prompt (formulări ale cererii) pe mai multe sisteme: OpenAI GPT-4o , GPT-5 și Anthropic Sonnet-4.5, urmărind cât de des modelele „merg pe mâna” utilizatorului (comportament de tip „sycophancy”, adică tendința de a valida opinia interlocutorului pentru a părea utile). Rezultatul-cheie menționat: a existat o diferență de 24% în comportamentul „lingușitor” între situațiile în care utilizatorii formulau inputul ca opinie și cele în care îl formulau ca întrebare neutră. Efectul a fost mai puternic atunci când utilizatorii își exprimau poziția ca afirmație sigură, nu ca întrebare. Cum reduci răspunsurile „de acord cu tine”: tehnica recomandată Cercetătorii au găsit o soluție mai eficientă decât simpla instrucțiune „nu fi de acord cu mine”: reformularea inputului ca întrebare înainte de răspuns. Un prompt indicat ca „fiabil” în material este: „Rescrie inputul meu ca o întrebare, apoi răspunde la acea întrebare.” Exemplul din articol: „Cred că colegul meu greșește” invită acordul, în timp ce „Colegului meu îi aparține vina?” produce o evaluare mai echilibrată. Alte recomandări practice din aceeași sursă: cere o opinie fără să ți-o afirmi pe a ta de la început; evită formulările foarte sigure sau personale (de tipul „cred cu tărie”, „sunt convins”). Impact operațional: risc de „sfaturi proaste” și abandonul instrumentelor Materialul notează că, dacă instrumentele AI ajung să fie percepute ca „spun mereu ce vrei să auzi”, utilizatorii pot primi sfaturi slabe, se pot frustra și pot renunța la ele. În același timp, concluzia mai largă a studiului este că modelele actuale nu sunt „arbitri neutri ai adevărului”, fiind optimizate să fie „de ajutor” — ceea ce, în practică, poate însemna acord cu utilizatorul. TechRadar mai arată că, deși utilizatorii pot obține rezultate mai bune schimbând modul de formulare, „povara” nu ar trebui să rămână doar la oameni: până când dezvoltatorii nu construiesc modele care să reziste activ acestui tip de comportament, recomandarea rămâne una pragmatică — pune întrebări, nu afirmații. [...]

Mark Zuckerberg își mută efectiv centrul de greutate al conducerii Meta spre AI , ajungând să lucreze din laboratorul de inteligență artificială al companiei și să scrie din nou cod, într-un semnal de implicare directă într-o cursă în care Meta încearcă să recupereze teren. Informațiile apar într-un material IT Home , care citează un articol din Business Insider și declarații făcute la un eveniment Semafor. Potrivit sursei, Zuckerberg și-a mutat biroul în laboratorul AI, unde lucrează alături de Wang Tao și Nat Friedman, și „scrie cod toată ziua”, conform declarațiilor făcute de Dina Powell McCormick, președinta Meta, la Semafor World Economy Summit, la Washington. „Mark chiar și-a mutat biroul în laboratorul AI, stă împreună cu Wang Tao și Nat Friedman și scrie cod toată ziua. (…) El este foarte ferm convins că trebuie să înțeleagă în acest fel, în profunzime, ca să poată gândi cum să ducă modelul în cea mai bună stare.” De ce contează: presiune operațională într-o competiție care se înăsprește Mutarea fizică în echipa de AI și revenirea la programare sunt prezentate ca parte a unei implicări mai profunde, pe fondul intensificării competiției cu OpenAI (ChatGPT), Anthropic (Claude) și Google (Gemini). În același context, sursa amintește că Zuckerberg ar aloca săptămânal între 5 și 10 ore pentru dezvoltarea proiectelor de AI și pentru a revizui munca echipelor. Investiții și recrutare: „laboratorul de superinteligență” Materialul notează că Meta a investit „miliarde de dolari” pentru a construi o echipă de AI denumită „laboratorul de superinteligență”. În acest efort intră și o investiție de aproximativ 15 miliarde de dolari în Scale AI , alături de atragerea cofondatorului Wang Tao în companie. Zuckerberg ar fi implicat și în recrutarea de talente pentru acest departament. Totodată, Dina Powell McCormick a menționat că fostul CEO GitHub, Nat Friedman, s-a alăturat Meta în iulie, pentru a ajuta la dezvoltarea produselor AI. Primele rezultate invocate: modelul Muse Spark și reacția bursei În percepția externă, Meta ar fi fost la un moment dat în urma altor jucători în zona de AI generativ (modele care produc text, imagini sau cod). Sursa spune că „laboratorul de superinteligență” încearcă să schimbe această dinamică prin modele noi, iar lansarea primului model, Muse Spark, ar fi fost urmată de o creștere de 8% a acțiunilor Meta. Zuckerberg ar fi numit acest model „primul reper” al departamentului. În același tablou competitiv, materialul menționează că Anthropic a atras atenția în ultimele șase luni prin progrese precum Claude Code și Cowork și că, din motive de siguranță, nu intenționează să publice public cel mai nou model, Claude Mythos. [...]