Știri
Știri din categoria Inteligență artificială

Anthropic testează verificarea vârstei cu act de identitate pentru Claude, o schimbare care poate ridica pragul de acces la chatbot și poate muta o parte din costuri și fricțiuni în zona de conformitate și moderare, potrivit Profit.
Compania a început să implementeze „discret” un sistem de verificare a vârstei utilizatorilor, descris ca o premieră între marii producători de inteligență artificială. Anthropic spune că verificarea identității este introdusă „pentru câteva cazuri de utilizare” și că utilizatorii ar putea vedea o solicitare de verificare atunci când accesează anumite funcționalități.
„Implementăm verificarea identității pentru câteva cazuri de utilizare și este posibil să vedeți o solicitare de verificare atunci când accesați anumite funcționalități.”
Deocamdată, sistemul are o implementare limitată și nu se aplică tuturor utilizatorilor. În cazurile în care a fost activat, utilizatorii trebuie să confirme că sunt majori fie printr-o fotografie a unui act de identitate, fie prin încărcarea unui selfie.
Anthropic afirmă că datele personale sunt folosite exclusiv pentru confirmarea identității și „nu în alte scopuri”.
„Datele personale sunt folosite doar pentru a confirma cine sunteți și nu în alte scopuri.”
Compania precizează că verificarea vârstei a fost activată într-un număr limitat de situații în care a identificat comportamente cu potențial abuziv sau fraudulos, contrare politicilor de utilizare.
Potrivit informațiilor publicate, măsura nu este legată de cerințe ale unui guvern, ci de propriile politici și standarde ale companiei privind utilizarea platformei.
Recomandate

Anthropic a primit oferte de evaluare de circa 800 miliarde dolari (aprox. 3.680 miliarde lei), pe fondul unei accelerări explozive a veniturilor , potrivit The Next Web . Miza pentru investitori este dacă ritmul de creștere – care a dus compania la o rată anualizată a veniturilor de 30 miliarde dolari (aprox. 138 miliarde lei) – poate susține multipli de evaluare rar întâlniți chiar și în sectorul AI. Ofertele, atribuite de publicație unei informații Bloomberg, ar dubla peste nivelul de 380 miliarde dolari la care Anthropic a închis o rundă de finanțare de 30 miliarde dolari (aprox. 138 miliarde lei) cu doar două luni în urmă. Compania ar fi refuzat până acum să accepte propunerile. Ce susține evaluarea: veniturile au urcat de la 1 la 30 miliarde dolari anualizat Elementul central din spatele discuțiilor de evaluare este dinamica veniturilor. Anthropic ar fi încheiat 2024 la aproximativ 1 miliard dolari rată anualizată, ar fi ajuns la 9 miliarde dolari la final de 2025, apoi la 14 miliarde dolari în februarie 2026 și la 19–20 miliarde dolari în martie. La începutul lui aprilie 2026, compania ar fi depășit 30 miliarde dolari rată anualizată, ceea ce materialul descrie ca aproximativ 1.400% creștere de la an la an. În acest context, o evaluare de 800 miliarde dolari ar însemna un multiplu de circa 27 ori veniturile, nivel ridicat în termeni tradiționali, dar pe care analiza îl leagă de faptul că veniturile s-ar fi dublat la intervale de câteva luni. Întrebarea rămasă deschisă este cât timp poate continua această traiectorie. Scara finanțărilor și câștigurile investitorilor strategici Publicația trece în revistă escaladarea evaluărilor: în martie 2025, Anthropic ar fi atras 3,5 miliarde dolari la o evaluare de 61,5 miliarde dolari; în septembrie 2025 (Seria F), evaluarea implicită ar fi urcat la 183 miliarde dolari; iar în februarie 2026 a urmat runda de 30 miliarde dolari la 380 miliarde dolari, descrisă ca a doua cea mai mare tranzacție de capital de risc din istorie. În paralel, investitorii existenți ar fi marcat câștiguri contabile semnificative: Google ar deține 14% din Anthropic, după investiții totale de circa 3 miliarde dolari, și ar fi raportat 10,7 miliarde dolari câștig net din aceste dețineri. Amazon ar fi investit o sumă estimată la 8 miliarde dolari și ar fi raportat un câștig înainte de impozitare de 9,5 miliarde dolari asociat creșterii evaluării; compania este menționată și ca partener principal pentru cloud și antrenarea modelelor. IPO posibil din octombrie 2026, cu o țintă de peste 60 miliarde dolari Anthropic ar fi în discuții preliminare cu Goldman Sachs, JPMorgan și Morgan Stanley pentru o posibilă listare, care „ar putea veni” chiar din octombrie 2026, cu o atragere de capital așteptată de peste 60 miliarde dolari (aprox. 276 miliarde lei). La o evaluare pre-IPO de 800 miliarde dolari, o astfel de tranzacție ar intra în categoria celor mai mari listări din istoria tehnologiei, potrivit materialului. De ce contează: piața începe să prețuiască „platforme”, nu startup-uri Analiza argumentează că la acest nivel „cadrele” clasice de evaluare din capitalul de risc devin insuficiente: investitorii ar prețui un potențial „jucător de platformă” – o companie care ar putea deveni infrastructură de bază pentru economie, similar cu cloud-ul sau sistemele de operare mobile. În același timp, materialul punctează riscurile: multiplii mari presupun hipercreștere susținută, competiția pentru bugete corporate este dură (OpenAI, Google, Meta și alternative open-source), iar costurile de antrenare a modelelor de vârf, infrastructura și talentul pot eroda drumul către profitabilitate la scara cerută de o valoare de întreprindere de 800 miliarde dolari. Ce s-a schimbat recent: accelerarea veniturilor și modelul Claude Mythos Publicația indică două motive pentru schimbarea percepției față de februarie: accelerarea veniturilor și lansarea Claude Mythos (7 aprilie), prin inițiativa Project Glasswing. Materialul susține că Mythos Preview ar fi descoperit mii de vulnerabilități „zero-day” (breșe necunoscute anterior) în sisteme de operare și browsere majore și că a fost pus la dispoziția a doar 11 organizații, inclusiv Apple, Google, Microsoft și AWS, într-o inițiativă defensivă de 100 milioane dolari (aprox. 460 milioane lei). Decizia de a nu-l lansa public este prezentată ca un semnal către investitori privind capabilități considerate prea puternice pentru acces larg. Anthropic nu ar fi acceptat încă ofertele de 800 miliarde dolari, ceea ce poate indica fie așteptări de preț mai mare, fie negocierea unor termeni care să îi ofere mai mult control înaintea unei eventuale listări, potrivit materialului. [...]

O hotărâre a unui judecător federal din New York ridică riscuri juridice directe pentru utilizarea chatbot-urilor în dosare penale și civile, după ce instanța a decis că un fost director nu poate ascunde conversațiile cu un asistent AI de procurori, potrivit Digi24 . Decizia a amplificat avertismentele venite din partea avocaților americani: discuțiile cu chatboți precum Claude (Anthropic) și ChatGPT (OpenAI) pot fi cerute ca probe, fie de procurori în anchete penale, fie de părțile adverse în litigii civile. Miza este pierderea „privilegiului avocat-client” – protecția care, în mod obișnuit, face confidențiale comunicările dintre avocat și client – atunci când informațiile ajung la o terță parte, iar un chatbot nu este considerat avocat. Hotărârea care a declanșat semnalele de alarmă Cazul îl vizează pe Bradley Heppner , fost președinte al companiei de servicii financiare falimentare GWG Holdings și fondator al Beneficent, acuzat de procurori federali (în noiembrie anul trecut) de fraudă în domeniul valorilor mobiliare și fraudă electronică; acesta a pledat nevinovat. Heppner a folosit Claude pentru a pregăti rapoarte despre cazul său și le-a împărtășit avocaților. Apărarea a susținut că schimburile cu AI ar trebui protejate, deoarece includeau detalii primite de la avocați. Procurorii au argumentat însă că avocații nu au fost implicați direct în acele comunicări și că privilegiul avocat-client nu se aplică chatbot-urilor. În februarie, judecătorul districtual american Jed Rakoff (Manhattan) a decis că Heppner trebuie să predea 31 de documente generate cu ajutorul lui Claude, legate de caz. „Nu există «și nici nu ar putea exista o relație avocat-client între un utilizator de IA și o platformă precum Claude»”, a scris Rakoff. De ce contează pentru companii și persoane: confidențialitatea devine incertă Pe fondul utilizării tot mai frecvente a inteligenței artificiale pentru „sfaturi” și redactări, peste o duzină de firme de avocatură importante din SUA au început să trimită clienților e-mailuri și să publice avize cu recomandări pentru reducerea riscului ca discuțiile cu AI să ajungă în instanță. Printre ideile vehiculate de avocați se numără: alegerea atentă a platformelor de AI și a condițiilor de utilizare; preferința pentru sisteme „închise”, destinate uzului corporativ, despre care unele firme spun că ar putea oferi protecții mai solide (dar subliniază că zona rămâne, în mare parte, netestată); folosirea AI pentru cercetare juridică mai ales la indicația unui avocat, ceea ce ar putea crește șansele de protecție prin privilegiul avocat-client. Firma Debevoise & Plimpton a sugerat inclusiv o formulare pe care utilizatorii să o introducă în solicitarea către chatbot atunci când lucrează la indicația avocatului: „Efectuez această cercetare la indicația avocatului în cadrul litigiului X.” Două instanțe, două abordări în aceeași zi În aceeași zi cu hotărârea lui Rakoff, un alt judecător – magistratul american Anthony Patti (Michigan) – a decis că o femeie care se reprezenta singură într-un proces împotriva fostei companii nu era obligată să predea conversațiile cu ChatGPT despre pretențiile din dosar. Patti a tratat discuțiile cu AI ca parte a propriului „produs al muncii” (material pregătit pentru caz), nu ca pe conversații cu o persoană care ar putea fi folosită de angajator în apărare. „ChatGPT și alte programe generative de AI sunt instrumente, nu persoane”, a scris Patti. Ce urmează: mai multe litigii și reguli de prudență Potrivit avocaților citați, sunt așteptate noi hotărâri care să lămurească în ce condiții conversațiile cu AI pot deveni probe. Până atunci, recomandarea de bază rămâne una conservatoare: dacă ai un caz cu miză juridică, nu discuta detalii sensibile cu nimeni în afara avocatului – inclusiv cu un chatbot. [...]

BCE pregătește avertismente către bănci privind riscurile cibernetice asociate noului model de inteligență artificială al Anthropic , pe fondul temerilor că tehnologia ar putea amplifica atacurile informatice și ar pune presiune pe infrastructura IT existentă din sector, potrivit Agerpres . Modelul „Mythos ”, dezvoltat de start-up-ul de inteligență artificială Anthropic, este văzut de experți în securitate cibernetică drept o provocare semnificativă pentru industria bancară și pentru sistemele sale tehnologice actuale. Îngrijorările au ajuns și la autoritățile de reglementare din Marea Britanie și Statele Unite, conform informațiilor citate. Ce face BCE, concret Supervizorii BCE strâng informații despre model și ar urma să discute cu băncile pe care le supraveghează această posibilă nouă sursă de risc, au declarat pentru Reuters surse care au dorit să își păstreze anonimatul. În Europa, abordarea ar urma să fie integrată în dialogul regulat al BCE cu personalul băncilor, nu printr-o întâlnire specială cu șefii instituțiilor de credit. Deocamdată, nu ar fi fost programată nicio reuniune ad-hoc. Un purtător de cuvânt al BCE a refuzat să comenteze. [...]

Agențiile federale americane continuă să testeze și să ceară briefinguri despre modelul AI „Mythos” al Anthropic , în pofida unei interdicții impuse de președintele Donald Trump , potrivit informațiilor relatate de HotNews . Miza este una operațională și de securitate: guvernul pare să caute acces la capabilități avansate de „scanare” și testare cibernetică, chiar dacă relația oficială cu compania este blocată. Centrul pentru Standarde și Inovație în domeniul inteligenței artificiale din cadrul Departamentului Comerțului testează activ capacitățile de „hacking” ale celui mai nou model Anthropic, numit Mythos, notează publicația, citând Politico și Reuters. În paralel, personalul din cel puțin trei comisii ale Congresului a organizat sau a solicitat, în ultima săptămână, briefinguri de la companie pentru a înțelege mai bine capacitățile de scanare cibernetică ale modelului. Ce se știe despre „ocolirea” interdicției Din informațiile disponibile, contactele cu Anthropic nu s-au oprit complet, deși există o interdicție prezidențială privind colaborarea: Departamentul Comerțului, prin centrul său dedicat standardelor și inovației în AI, ar testa activ modelul Mythos. Cel puțin trei comisii ale Congresului au cerut sau au ținut briefinguri cu Anthropic pe tema capabilităților de securitate cibernetică. Co-fondatorul Anthropic, Jack Clark , a declarat că firma discută despre Mythos cu administrația Trump, chiar și după ce Pentagonul a întrerupt colaborarea cu compania în urma unui litigiu contractual. În același timp, natura și detaliile discuțiilor dintre Anthropic și guvernul SUA – inclusiv ce agenții sunt implicate – „nu sunt foarte clare la acest moment”, potrivit materialului. De ce contează: un model ținut departe de public, dar util pentru securitate Mythos a fost anunțat pe 7 aprilie și este descris de companie drept „cel mai capabil model al Anthropic până în prezent” pentru sarcini de programare și sarcini „agentice” (adică poate acționa autonom). HotNews amintește că Anthropic a prezentat săptămâna trecută „Claude Mythos Preview”, un model pe care compania nu intenționează să îl lanseze public, urmând să fie accesibil doar unui grup restrâns de organizații – în principal companii mari de tehnologie și actori din securitate cibernetică. Motivul invocat este riscul: compania susține că modelul ar putea depăși aproape toți experții umani în descoperirea și chiar exploatarea vulnerabilităților software, inclusiv a unor breșe foarte subtile, care ar rămâne în mod normal nedetectate. Reacții și necunoscute Potrivit Reuters, Anthropic, Casa Albă și Departamentul Comerțului nu au răspuns imediat solicitărilor de declarații. În lipsa unor clarificări oficiale, rămâne neprecizat în ce măsură activitățile descrise (testare, briefinguri, discuții) se încadrează sau nu în interdicția menționată și ce consecințe administrative ar putea urma. [...]

AWS își extinde oferta pentru farma cu Amazon Bio Discovery , o platformă care leagă modele AI de testarea în laborator , într-o încercare de a reduce blocajele operaționale din faza timpurie a descoperirii de medicamente, potrivit The Next Web . Instrumentul este gândit să ajute cercetătorii să proiecteze și să evalueze mai rapid molecule candidate, într-un cadru pe care compania îl descrie ca „rapid și sigur”. Platforma, numită Amazon Bio Discovery, permite rularea unor fluxuri de lucru computaționale complexe folosind peste 40 de „modele fundamentale” specializate în AI (modele mari antrenate pe seturi extinse de date), instruite pe o gamă largă de date biologice. Aceste modele pot genera și evalua molecule potențiale, iar „agenți AI” asistă oamenii de știință în alegerea modelelor, optimizarea intrărilor și evaluarea candidaților în funcție de obiectivele de cercetare. „Lab-in-the-loop”: legarea proiectării computaționale de validarea „wet lab” Un element central este integrarea cu parteneri de laborator: cercetătorii pot trimite lista de candidați selectați către parteneri pentru sinteză și testare, iar rezultatele se întorc în aplicație pentru analiză și rafinarea modelelor. AWS numește acest circuit „lab-in-the-loop” (laborator în buclă), adică o iterare continuă între predicția AI și validarea experimentală. Contextul operațional invocat este creșterea numărului de modele AI biologice, fiecare cu particularități diferite, ceea ce ar crea blocaje pentru biologii computaționali care trebuie să le „operaționalizeze” (să le pună efectiv în producție), în timp ce cercetătorii de laborator se confruntă cu procese lente din cauza accesului limitat la instrumente computaționale. Exemple și adopție: Memorial Sloan Kettering, Bayer și alți utilizatori timpurii Memorial Sloan Kettering Cancer Center , partener recent al Amazon Bio Discovery, susține că a proiectat aproape 300.000 de molecule noi de anticorpi și a trimis la testare primele 100.000 de candidate, reducând durata fluxului de lucru de la un an la „doar câteva săptămâni”. Rajiv Chopra, vicepreședinte pentru AI în sănătate și științele vieții la AWS, a declarat că serviciul ar urmări să crească capacitatea oamenilor de știință și a organizațiilor de cercetare contractuale, nu să le înlocuiască. În același material, analistul Jefferies Tycho Peterson afirmă că temerile privind reducerea nevoii de instrumente în cercetarea de medicamente sunt exagerate, argumentând că există spațiu pentru investiții și randamente mai mari pe măsură ce programele de cercetare se extind. AWS mai spune că printre utilizatorii timpurii se numără Bayer, Broad Institute și Voyager Therapeutics și că serviciile sale de cloud sunt folosite de 19 dintre primele 20 de companii farmaceutice globale. Date și benchmark-uri pentru anticorpi, integrate în platformă Separat, AWS și Gray Lab de la Johns Hopkins Engineering au lansat setul de date Antibody Developability Benchmark, descris ca una dintre cele mai diverse și de mare amploare baze de date pentru proiectarea de anticorpi asistată de AI. Baza de date este inclusă în Amazon Bio Discovery, iar AWS spune că vor fi adăugate și alte benchmark-uri în timp. Pentru piață, miza imediată este dacă AWS reușește să transforme „AI pentru biologie” într-un produs standardizat, ușor de integrat în fluxurile de lucru ale companiilor farmaceutice și ale laboratoarelor, reducând timpii de iterare dintre design și testare — un punct sensibil în costurile și durata dezvoltării de medicamente. [...]

Comisia Europeană vrea să oblige Google să deschidă datele de căutare către rivali , inclusiv către chatbot-uri cu funcții de căutare, într-o mișcare cu potențial direct asupra competiției și a modelelor de business din piața de „search”, potrivit Mediafax . Propunerea este prezentată ca măsură de conformare cu Legea privind piețele digitale (Digital Markets Act – DMA) , cadrul UE care impune obligații speciale platformelor considerate „gatekeeper” (controlori de acces). Google, prin Clare Kelly, consilier principal pe probleme de concurență, spune că se va opune măsurilor, pe care le consideră excesive și cu risc pentru confidențialitatea utilizatorilor. Compania avertizează că propunerea ar forța transferul către terți al unor date sensibile din căutări, inclusiv întrebări despre sănătate, familie și finanțe, cu „protecții de confidențialitate periculos de ineficiente”, conform declarației citate în material. Ce ar acoperi obligația de partajare a datelor Comisia Europeană indică faptul că măsurile propuse vizează nu doar principiul accesului, ci și modul concret de implementare. În propunere intră: domeniul de aplicare, mijloacele și frecvența datelor de căutare pe care Google ar trebui să le partajeze; măsuri pentru anonimizarea datelor cu caracter personal (adică eliminarea elementelor care pot identifica o persoană); procesele care reglementează accesul „beneficiarilor de date” la informațiile de căutare; parametrii de stabilire a prețurilor pentru datele de căutare. Obiectivul declarat al Comisiei este ca motoarele de căutare terțe să își poată optimiza serviciile și să concureze mai eficient cu Google Search. Calendar: consultare până la 1 mai, decizie în iulie Părțile interesate au termen până la 1 mai pentru a transmite opinii privind măsurile propuse, iar decizia finală este așteptată în iulie, potrivit Comisiei. În context, Google a fost acuzat în martie 2025 de încălcarea DMA. Compania a prezentat propriile propuneri pentru a răspunde criticilor rivalilor și autorităților de reglementare, însă rivalii au reclamat că acestea nu sunt suficiente. Miza financiară și de reglementare pentru Google Materialul amintește că Google a acumulat amenzi de 9,71 miliarde de euro (aprox. 48,6 miliarde lei) din 2017 pentru diverse încălcări ale legislației antitrust în Europa. În plus, pentru încălcarea DMA, amenzile pot ajunge până la 10% din veniturile anuale globale ale unei companii, ceea ce ridică presiunea de conformare și riscul de costuri semnificative dacă autoritățile consideră măsurile insuficiente. [...]