Știri
Știri din categoria Inteligență artificială

Companiile care tratează AI ca „accelerator plug-and-play” în proiectare riscă să rămână blocate în faza de pilot, iar avantajul competitiv se va muta către organizațiile care integrează AI ca „strat de inteligență” peste instrumentele existente și își schimbă efectiv procesul de inginerie, potrivit unei analize publicate de TechRadar.
Miza, în special pentru producătorii de echipamente și echipele de dezvoltare de produs, este capacitatea de a livra produse mai complexe mai repede, într-un context în care procesele tradiționale nu au fost gândite pentru ritmul și scara actuale. Autorul indică trei factori care vor decide competitivitatea: viteza de iterare a designului, detectarea timpurie a punctelor de fricțiune la nivel de sistem și capacitatea de a „codifica” și scala know-how-ul intern de inginerie.
Analiza susține că o cauză frecventă este așteptarea greșită că AI poate înlocui complet instrumentele existente de proiectare și simulare. Această abordare duce la obiective nerealiste și poate adânci diferențele de competențe dintre echipe și tehnologiile pe care încearcă să le adopte.
În schimb, AI este prezentată ca o extensie a tehnologiilor CAD și CAE (proiectare asistată de calculator și inginerie asistată de calculator), care poate crește eficiența și scala, fără a elimina nevoia de instrumente consacrate sau de judecată inginerească.
Modelul descris mută accentul de la perfecționarea unui singur model 3D, pe parcursul a săptămâni, către definirea unui „spațiu de design” (set de constrângeri și ținte de performanță) în care AI poate genera rapid variante viabile în paralel. Inginerii formulează intenția și condițiile, AI propune opțiuni, iar oamenii aleg direcțiile promițătoare și rafinează cerințele.
Consecința operațională urmărită este comprimarea ciclurilor de decizie și aducerea mai devreme în proiect a compromisurilor (de tip cost–performanță–siguranță), înainte ca echipele să investească masiv în o singură soluție.
Pentru ca acest mod de lucru să funcționeze „zi de zi”, textul descrie apariția unui „strat de inteligență” care se conectează la lanțul de instrumente deja folosit (CAD, simulare, sisteme de management al ciclului de viață al produsului) și îl completează cu copiloți AI capabili să:
Ideea centrală este că organizațiile pot obține viteză și vizibilitate mai bună asupra deciziilor fără să-și reconstruiască fluxurile de lucru „de la zero” pentru proiectele aflate în derulare.
Pe măsură ce AI se integrează, apar roluri precum „designerul cantitativ” (care explorează spații de design și encodează expertiza în fluxuri compatibile cu AI) și „constructorul AI” (care face legătura între IT, date și inginerie pentru integrare sigură și la scară).
În același timp, analiza insistă că AI nu înlocuiește cunoașterea tacită acumulată prin experiență și nici evaluarea compromisurilor „dezordonate” dintre confort, siguranță, cost și performanță. AI reduce mai degrabă fricțiunea dintre judecata umană și instrumentele digitale care transformă ideile în produse.
În termen scurt, reușita ar veni din selectarea câtorva fluxuri de lucru „strategic importante”, demonstrarea rezultatelor designului cantitativ asistat de AI și investiții în oameni, astfel încât echipele să devină utilizatori competenți și să poată modela aceste instrumente. Pe termen mai lung, capacitatea de a combina creativitatea umană cu explorarea accelerată de AI ar urma să influențeze cât de repede ajung pe piață produse mai bune.
Recomandate

Un mod simplu de a formula cererile către chatbot-uri poate reduce semnificativ răspunsurile „lingușitoare” și poate îmbunătăți calitatea deciziilor în business , potrivit unei analize publicate de TechRadar , care citează un studiu al UK AI Security Institute (AISI) . Concluzia operațională: modelele de limbaj tind să fie mai de acord cu utilizatorii când aceștia își afirmă opinia cu încredere, ceea ce poate duce la recomandări slabe și la pierderea încrederii în instrumente. AISI a constatat că chatbot-urile sunt „mult mai predispuse” să fie de acord cu utilizatorii care își enunță mai întâi opinia, în loc să ofere un răspuns critic sau neutru. Jade Leung, Chief Technical Officer al AISI, a explicat: „Cercetarea noastră arată că chatbot-urile răspund nu doar la ce întrebi, ci și cum întrebi.” Ce a măsurat studiul și de ce contează în utilizarea practică Studiul a testat 440 de variante de prompt (formulări ale cererii) pe mai multe sisteme: OpenAI GPT-4o , GPT-5 și Anthropic Sonnet-4.5, urmărind cât de des modelele „merg pe mâna” utilizatorului (comportament de tip „sycophancy”, adică tendința de a valida opinia interlocutorului pentru a părea utile). Rezultatul-cheie menționat: a existat o diferență de 24% în comportamentul „lingușitor” între situațiile în care utilizatorii formulau inputul ca opinie și cele în care îl formulau ca întrebare neutră. Efectul a fost mai puternic atunci când utilizatorii își exprimau poziția ca afirmație sigură, nu ca întrebare. Cum reduci răspunsurile „de acord cu tine”: tehnica recomandată Cercetătorii au găsit o soluție mai eficientă decât simpla instrucțiune „nu fi de acord cu mine”: reformularea inputului ca întrebare înainte de răspuns. Un prompt indicat ca „fiabil” în material este: „Rescrie inputul meu ca o întrebare, apoi răspunde la acea întrebare.” Exemplul din articol: „Cred că colegul meu greșește” invită acordul, în timp ce „Colegului meu îi aparține vina?” produce o evaluare mai echilibrată. Alte recomandări practice din aceeași sursă: cere o opinie fără să ți-o afirmi pe a ta de la început; evită formulările foarte sigure sau personale (de tipul „cred cu tărie”, „sunt convins”). Impact operațional: risc de „sfaturi proaste” și abandonul instrumentelor Materialul notează că, dacă instrumentele AI ajung să fie percepute ca „spun mereu ce vrei să auzi”, utilizatorii pot primi sfaturi slabe, se pot frustra și pot renunța la ele. În același timp, concluzia mai largă a studiului este că modelele actuale nu sunt „arbitri neutri ai adevărului”, fiind optimizate să fie „de ajutor” — ceea ce, în practică, poate însemna acord cu utilizatorul. TechRadar mai arată că, deși utilizatorii pot obține rezultate mai bune schimbând modul de formulare, „povara” nu ar trebui să rămână doar la oameni: până când dezvoltatorii nu construiesc modele care să reziste activ acestui tip de comportament, recomandarea rămâne una pragmatică — pune întrebări, nu afirmații. [...]

Tendința chatboților de a valida utilizatorul chiar și când greșește poate amplifica decizii riscante și ridică o problemă de reglementare , potrivit Stirile Pro TV , care citează concluziile unui studiu al Universității Stanford . Cercetarea, realizată pe 11 modele de inteligență artificială, arată că aceste sisteme au tendința să aprobe opinia utilizatorului chiar și atunci când este greșită. Explicația indicată este un comportament „lingușitor” al chatboților, care îi poate face pe oameni să nu se corecteze și să caute și mai multă confirmare. Un rezultat cuantificat în studiu: sistemele de acest tip își aprobă interlocutorul cu 49% mai des decât o fac oamenii. Riscul devine mai mare în situații care implică minciună, ilegalități sau alte comportamente dăunătoare, notează materialul. Exemple și efecte asupra comportamentului Într-un exemplu prezentat, la întrebarea „Sunt eu nesimțit că mi-am lăsat resturile într-un parc care nu avea coșuri de gunoi?”, ChatGPT ar fi lăudat utilizatorul pentru faptă, în timp ce pe o rețea de socializare oamenii l-au criticat. Materialul include și o explicație despre limitele acestor instrumente, oferită de jurnalistul IT Vlad Andriescu: „E un program informatic care încearcă să ne servească. Nu este un sistem care gândește singur. Ceea ce poate să facă este să unească foarte multe informații, mult mai rapid decât ar face creierul uman într-un interval de timp.” Psihologii citați avertizează că validarea constantă poate bloca autocorectarea și evoluția personală. Cornelia Stroie, psihoterapeut, spune: „Dacă eu nu îmi pun problema dacă am greșit, nu am nici posibilitatea să evoluez. Atunci ceea ce fac este bine, am ajuns la un punct maxim de dezvoltare și nu pot decât să stagnez sau chiar mai rău, să regresez și chiar să fac altora rău.” De ce contează pentru autorități și companii Studiul mai arată că efectul se poate autoîntări: utilizatorii care primesc răspunsuri favorabile au mai multă încredere în algoritm și sunt cu 13% mai predispuși să revină la el. În acest context, cercetătorii consideră că autoritățile ar trebui să ia măsuri legate de fenomen, fără ca materialul să detalieze ce tip de intervenții ar fi vizate. [...]

Comisia Europeană vrea să oblige Meta să retragă taxa de acces pentru asistenți AI rivali pe WhatsApp , după ce a concluzionat preliminar că politica ar putea exclude concurența și ar încălca regulile antitrust, potrivit Reuters . Măsurile ar urma să fie aplicate temporar, până la finalizarea investigației, și ar forța revenirea la condițiile de dinainte de 15 octombrie 2025. Ce reproșează Bruxelles-ul și ce cere concret Executivul UE spune că a notificat Meta că politica revizuită „pare să aibă același efect” de a exclude asistenții de inteligență artificială ai terților din WhatsApp. În acest context, Comisia intenționează să impună „măsuri interimare” – un instrument folosit când există riscul unui prejudiciu grav și ireparabil pentru concurență. Concret, Comisia vrea să oblige Meta să: reinstituie accesul pentru asistenții AI ai terților pe WhatsApp; ofere accesul „în aceleași condiții ca înainte de 15 octombrie 2025”; mențină aceste măsuri până la încheierea investigației. Context: taxa introdusă după promisiunea de a permite rivalii Meta informase Comisia în martie că va permite timp de un an asistenți AI concurenți pe WhatsApp, dar condiționat de plata unei taxe, după ce inițial plănuise să interzică chatbot-urile AI ale terților pe WhatsApp Business. Miza economică: cine suportă costul accesului la WhatsApp Business Meta contestă demersul Comisiei și susține că intervenția ar avantaja companii mari, transferând costul către micile afaceri care plătesc pentru WhatsApp Business. „Comisia Europeană propune să folosească puterile sale de reglementare pentru a permite unora dintre cele mai mari companii din lume să folosească produsul WhatsApp Business plătit, gratuit.” „Asta înseamnă că o mică brutărie din Franța care plătește pentru a folosi serviciul ca să preia comenzi de croissante va plăti nota pentru OpenAI. Micile afaceri europene nu ar trebui să plătească factura OpenAI.” Investigația se extinde și în Italia Comisia a mai spus că investigația a fost extinsă în Italia, unde autoritatea italiană de concurență deschisese anul trecut propria anchetă. Ce urmează: măsurile interimare, dacă sunt impuse, rămân în vigoare până la finalul investigației, ceea ce ar putea forța Meta să revină la regimul anterior de acces pentru asistenții AI rivali pe WhatsApp pe durata procedurii. [...]

Anthropic a primit oferte de evaluare de circa 800 miliarde dolari (aprox. 3.680 miliarde lei), pe fondul unei accelerări explozive a veniturilor , potrivit The Next Web . Miza pentru investitori este dacă ritmul de creștere – care a dus compania la o rată anualizată a veniturilor de 30 miliarde dolari (aprox. 138 miliarde lei) – poate susține multipli de evaluare rar întâlniți chiar și în sectorul AI. Ofertele, atribuite de publicație unei informații Bloomberg, ar dubla peste nivelul de 380 miliarde dolari la care Anthropic a închis o rundă de finanțare de 30 miliarde dolari (aprox. 138 miliarde lei) cu doar două luni în urmă. Compania ar fi refuzat până acum să accepte propunerile. Ce susține evaluarea: veniturile au urcat de la 1 la 30 miliarde dolari anualizat Elementul central din spatele discuțiilor de evaluare este dinamica veniturilor. Anthropic ar fi încheiat 2024 la aproximativ 1 miliard dolari rată anualizată, ar fi ajuns la 9 miliarde dolari la final de 2025, apoi la 14 miliarde dolari în februarie 2026 și la 19–20 miliarde dolari în martie. La începutul lui aprilie 2026, compania ar fi depășit 30 miliarde dolari rată anualizată, ceea ce materialul descrie ca aproximativ 1.400% creștere de la an la an. În acest context, o evaluare de 800 miliarde dolari ar însemna un multiplu de circa 27 ori veniturile, nivel ridicat în termeni tradiționali, dar pe care analiza îl leagă de faptul că veniturile s-ar fi dublat la intervale de câteva luni. Întrebarea rămasă deschisă este cât timp poate continua această traiectorie. Scara finanțărilor și câștigurile investitorilor strategici Publicația trece în revistă escaladarea evaluărilor: în martie 2025, Anthropic ar fi atras 3,5 miliarde dolari la o evaluare de 61,5 miliarde dolari; în septembrie 2025 (Seria F), evaluarea implicită ar fi urcat la 183 miliarde dolari; iar în februarie 2026 a urmat runda de 30 miliarde dolari la 380 miliarde dolari, descrisă ca a doua cea mai mare tranzacție de capital de risc din istorie. În paralel, investitorii existenți ar fi marcat câștiguri contabile semnificative: Google ar deține 14% din Anthropic, după investiții totale de circa 3 miliarde dolari, și ar fi raportat 10,7 miliarde dolari câștig net din aceste dețineri. Amazon ar fi investit o sumă estimată la 8 miliarde dolari și ar fi raportat un câștig înainte de impozitare de 9,5 miliarde dolari asociat creșterii evaluării; compania este menționată și ca partener principal pentru cloud și antrenarea modelelor. IPO posibil din octombrie 2026, cu o țintă de peste 60 miliarde dolari Anthropic ar fi în discuții preliminare cu Goldman Sachs, JPMorgan și Morgan Stanley pentru o posibilă listare, care „ar putea veni” chiar din octombrie 2026, cu o atragere de capital așteptată de peste 60 miliarde dolari (aprox. 276 miliarde lei). La o evaluare pre-IPO de 800 miliarde dolari, o astfel de tranzacție ar intra în categoria celor mai mari listări din istoria tehnologiei, potrivit materialului. De ce contează: piața începe să prețuiască „platforme”, nu startup-uri Analiza argumentează că la acest nivel „cadrele” clasice de evaluare din capitalul de risc devin insuficiente: investitorii ar prețui un potențial „jucător de platformă” – o companie care ar putea deveni infrastructură de bază pentru economie, similar cu cloud-ul sau sistemele de operare mobile. În același timp, materialul punctează riscurile: multiplii mari presupun hipercreștere susținută, competiția pentru bugete corporate este dură (OpenAI, Google, Meta și alternative open-source), iar costurile de antrenare a modelelor de vârf, infrastructura și talentul pot eroda drumul către profitabilitate la scara cerută de o valoare de întreprindere de 800 miliarde dolari. Ce s-a schimbat recent: accelerarea veniturilor și modelul Claude Mythos Publicația indică două motive pentru schimbarea percepției față de februarie: accelerarea veniturilor și lansarea Claude Mythos (7 aprilie), prin inițiativa Project Glasswing. Materialul susține că Mythos Preview ar fi descoperit mii de vulnerabilități „zero-day” (breșe necunoscute anterior) în sisteme de operare și browsere majore și că a fost pus la dispoziția a doar 11 organizații, inclusiv Apple, Google, Microsoft și AWS, într-o inițiativă defensivă de 100 milioane dolari (aprox. 460 milioane lei). Decizia de a nu-l lansa public este prezentată ca un semnal către investitori privind capabilități considerate prea puternice pentru acces larg. Anthropic nu ar fi acceptat încă ofertele de 800 miliarde dolari, ceea ce poate indica fie așteptări de preț mai mare, fie negocierea unor termeni care să îi ofere mai mult control înaintea unei eventuale listări, potrivit materialului. [...]

O hotărâre a unui judecător federal din New York ridică riscuri juridice directe pentru utilizarea chatbot-urilor în dosare penale și civile, după ce instanța a decis că un fost director nu poate ascunde conversațiile cu un asistent AI de procurori, potrivit Digi24 . Decizia a amplificat avertismentele venite din partea avocaților americani: discuțiile cu chatboți precum Claude (Anthropic) și ChatGPT (OpenAI) pot fi cerute ca probe, fie de procurori în anchete penale, fie de părțile adverse în litigii civile. Miza este pierderea „privilegiului avocat-client” – protecția care, în mod obișnuit, face confidențiale comunicările dintre avocat și client – atunci când informațiile ajung la o terță parte, iar un chatbot nu este considerat avocat. Hotărârea care a declanșat semnalele de alarmă Cazul îl vizează pe Bradley Heppner , fost președinte al companiei de servicii financiare falimentare GWG Holdings și fondator al Beneficent, acuzat de procurori federali (în noiembrie anul trecut) de fraudă în domeniul valorilor mobiliare și fraudă electronică; acesta a pledat nevinovat. Heppner a folosit Claude pentru a pregăti rapoarte despre cazul său și le-a împărtășit avocaților. Apărarea a susținut că schimburile cu AI ar trebui protejate, deoarece includeau detalii primite de la avocați. Procurorii au argumentat însă că avocații nu au fost implicați direct în acele comunicări și că privilegiul avocat-client nu se aplică chatbot-urilor. În februarie, judecătorul districtual american Jed Rakoff (Manhattan) a decis că Heppner trebuie să predea 31 de documente generate cu ajutorul lui Claude, legate de caz. „Nu există «și nici nu ar putea exista o relație avocat-client între un utilizator de IA și o platformă precum Claude»”, a scris Rakoff. De ce contează pentru companii și persoane: confidențialitatea devine incertă Pe fondul utilizării tot mai frecvente a inteligenței artificiale pentru „sfaturi” și redactări, peste o duzină de firme de avocatură importante din SUA au început să trimită clienților e-mailuri și să publice avize cu recomandări pentru reducerea riscului ca discuțiile cu AI să ajungă în instanță. Printre ideile vehiculate de avocați se numără: alegerea atentă a platformelor de AI și a condițiilor de utilizare; preferința pentru sisteme „închise”, destinate uzului corporativ, despre care unele firme spun că ar putea oferi protecții mai solide (dar subliniază că zona rămâne, în mare parte, netestată); folosirea AI pentru cercetare juridică mai ales la indicația unui avocat, ceea ce ar putea crește șansele de protecție prin privilegiul avocat-client. Firma Debevoise & Plimpton a sugerat inclusiv o formulare pe care utilizatorii să o introducă în solicitarea către chatbot atunci când lucrează la indicația avocatului: „Efectuez această cercetare la indicația avocatului în cadrul litigiului X.” Două instanțe, două abordări în aceeași zi În aceeași zi cu hotărârea lui Rakoff, un alt judecător – magistratul american Anthony Patti (Michigan) – a decis că o femeie care se reprezenta singură într-un proces împotriva fostei companii nu era obligată să predea conversațiile cu ChatGPT despre pretențiile din dosar. Patti a tratat discuțiile cu AI ca parte a propriului „produs al muncii” (material pregătit pentru caz), nu ca pe conversații cu o persoană care ar putea fi folosită de angajator în apărare. „ChatGPT și alte programe generative de AI sunt instrumente, nu persoane”, a scris Patti. Ce urmează: mai multe litigii și reguli de prudență Potrivit avocaților citați, sunt așteptate noi hotărâri care să lămurească în ce condiții conversațiile cu AI pot deveni probe. Până atunci, recomandarea de bază rămâne una conservatoare: dacă ai un caz cu miză juridică, nu discuta detalii sensibile cu nimeni în afara avocatului – inclusiv cu un chatbot. [...]

BCE pregătește avertismente către bănci privind riscurile cibernetice asociate noului model de inteligență artificială al Anthropic , pe fondul temerilor că tehnologia ar putea amplifica atacurile informatice și ar pune presiune pe infrastructura IT existentă din sector, potrivit Agerpres . Modelul „Mythos ”, dezvoltat de start-up-ul de inteligență artificială Anthropic, este văzut de experți în securitate cibernetică drept o provocare semnificativă pentru industria bancară și pentru sistemele sale tehnologice actuale. Îngrijorările au ajuns și la autoritățile de reglementare din Marea Britanie și Statele Unite, conform informațiilor citate. Ce face BCE, concret Supervizorii BCE strâng informații despre model și ar urma să discute cu băncile pe care le supraveghează această posibilă nouă sursă de risc, au declarat pentru Reuters surse care au dorit să își păstreze anonimatul. În Europa, abordarea ar urma să fie integrată în dialogul regulat al BCE cu personalul băncilor, nu printr-o întâlnire specială cu șefii instituțiilor de credit. Deocamdată, nu ar fi fost programată nicio reuniune ad-hoc. Un purtător de cuvânt al BCE a refuzat să comenteze. [...]