Știri
Știri din categoria Inteligență artificială

Site-urile optimizate pentru „citirea” de către AI pot aduce un salt major de trafic și conversii, potrivit unui interviu publicat de TechRadar, care citează datele unui studiu realizat de platforma de construire de site-uri Duda. Concluzia centrală: site-urile „vizibile” pentru crawlerele AI (adică sisteme automate care scanează și înțeleg conținutul pentru a-l folosi în răspunsuri de tip „AI search”) ar genera cu 320% mai mult trafic uman decât cele care nu sunt.
Miza pentru companii este una operațională și de venituri: același set de date indică nu doar mai multe vizite, ci și o calitate mai bună a traficului, măsurată prin acțiuni care pot duce direct la vânzări sau lead-uri (cereri de ofertă, apeluri).
În interviu, Oded Ouaknine, Chief Revenue Officer (director comercial) la Duda, spune că, deși AI „reduce” traficul total către site-uri la nivel general, site-urile care apar în rezultatele și răspunsurile generate de AI „navighează” schimbarea mai bine decât cele care rămân invizibile pentru aceste sisteme.
Studiul Duda menționat de TechRadar se bazează pe:
Pe lângă diferența de +320% trafic uman pentru site-urile optimizate pentru crawlere AI, materialul mai indică și creșteri pe indicatori de conversie:
Un argument important din interviu este că traficul venit din interacțiuni de tip „căutare cu AI” ar elimina o parte din comportamentul de „window shopping” (vizite fără intenție), pentru că utilizatorii ajung pe site mai informați, după ce au primit deja un răspuns sintetizat de AI.
În sprijinul ideii că acest trafic ar converti mai bine, TechRadar notează și o referință la cercetare terță: un studiu Microsoft Clarity ar fi observat rate similare, cu trafic din AI care convertește de aproximativ 3 ori mai bine decât traficul „normal” (în termenii citați în material).
Duda identifică cinci teme recurente la site-urile care reușesc să atragă trafic uman din surse AI, conform articolului:
TechRadar prezintă aceste elemente ca un posibil „plan de supraviețuire” pentru firmele care se tem că AI le „omoară” traficul, însă interviul păstrează nuanța că, per total, presiunea asupra traficului există, iar diferența o face vizibilitatea în sistemele AI.
Recomandate

CEO-ul Anthropic , Dario Amodei, merge vineri la Casa Albă pentru o întâlnire cu șefa de cabinet Susie Wiles, într-un moment în care compania se judecă cu administrația Trump după ce modelul său de inteligență artificială Claude a fost „pus pe lista neagră” pentru utilizare guvernamentală , potrivit CNN . Miza întâlnirii ține de felul în care SUA încearcă să împace o linie dură față de Anthropic cu riscurile de securitate națională ale renunțării la o tehnologie considerată de vârf. Amodei urmează să se întâlnească cu Susie Wiles, au declarat pentru CNN două surse familiarizate cu discuțiile. Axios a relatat prima despre întâlnire. Anthropic a refuzat să comenteze. De ce contează: guvernul vrea acces la tehnologie, dar conflictul e în instanță Întâlnirea are loc pe fondul unei dispute între companie și administrația Trump, după ce președintele a anunțat că guvernul va rupe legăturile cu Anthropic. Potrivit articolului, ruptura a venit după ce Anthropic nu a acceptat condiții care ar fi permis armatei să folosească Claude pentru „toate scopurile legale”, inclusiv arme autonome și supraveghere în masă. Până de curând, Claude era singurul model de inteligență artificială disponibil în rețeaua clasificată a Pentagonului, notează CNN. După eșecul negocierilor, Pentagonul a declarat Anthropic „risc pentru lanțul de aprovizionare” – o etichetă folosită anterior doar pentru companii asociate cu adversari străini – ceea ce ar echivala, practic, cu excluderea companiei din contractele guvernamentale. Ce se întâmplă în justiție Anthropic a dat în judecată administrația Trump. Luna trecută, un judecător federal din California a blocat efortul guvernului de a „pedepsi” compania, stabilind că agențiile federale din afara Departamentului Apărării nu pot folosi această desemnare de „risc pentru lanțul de aprovizionare” pentru a rupe legăturile cu Anthropic. Guvernul a făcut apel. Într-un dosar separat, la două săptămâni după acea decizie, administrația a obținut o victorie la Curtea de Apel a Circuitului DC: instanța a spus că nu va împiedica Departamentul Apărării să taie legăturile cu Anthropic pe durata procesului. În decizia unanimă, instanța a argumentat că o intervenție în acel moment: „ar forța armata Statelor Unite să prelungească relația cu un furnizor nedorit de servicii critice de inteligență artificială în mijlocul unui conflict militar semnificativ în desfășurare”. „Mythos”, instrumentul care complică ruptura În paralel, CNN arată că guvernul american încearcă să cântărească implicațiile de securitate națională ale renunțării la tehnologia Anthropic, inclusiv un instrument numit „Mythos”, descris ca fiind capabil să identifice amenințări de securitate cibernetică, dar care poate oferi și o „hartă” pentru atacatori despre cum să lovească firme sau instituții guvernamentale. Bloomberg a relatat că Office of Management and Budget a transmis agențiilor că se pregătește să le ofere acces la Mythos „pentru a se pregăti”. Axios a mai relatat că și Casa Albă discută pentru a obține acces la Mythos. Anthropic a refuzat să comenteze dacă administrația Trump lucrează pentru a testa acest instrument. Un oficial al Casei Albe a declarat pentru CNN că administrația „se implică proactiv” pentru a proteja SUA și că orice tehnologie nouă care ar putea fi folosită de guvern necesită o perioadă tehnică de evaluare „pentru fidelitate și securitate”. Ce urmează Din informațiile publicate nu reiese agenda exactă a întâlnirii de la Casa Albă și nici dacă aceasta va schimba poziția Pentagonului față de Anthropic. În schimb, contextul indică o tensiune de fond: guvernul cere libertate totală de utilizare a modelelor AI în timp de război, iar Anthropic susține că modelele nu sunt încă suficient de fiabile pentru arme autonome și că legislația SUA nu ține pasul cu riscurile supravegherii în masă. [...]

Capacitățile de „hacking” ale noului model Claude Mythos ridică un risc operațional direct pentru securitatea cibernetică , iar subiectul a ajuns deja pe agenda miniștrilor de finanțe și a Fondului Monetar Internațional , potrivit Mediafax . Modelul, dezvoltat de Anthropic , este descris ca fiind capabil să depășească performanțele umane în sarcini legate de securitate informatică, ceea ce amplifică temerile privind criminalitatea cibernetică. Mythos este unul dintre cele mai recente modele din familia Claude și a fost prezentat public la începutul lunii aprilie 2026 sub numele „Mythos Preview”, potrivit BBC, citată de Mediafax. Anthropic concurează pe piața globală cu ChatGPT (OpenAI) și Gemini (Google), însă Mythos este prezentat ca un salt calitativ față de versiunile anterioare. De ce contează pentru companii și instituții Cercetători care testează comportamentul modelelor de inteligență artificială au concluzionat că Mythos este „incredibil de capabil” în sarcini de securitate informatică. Concret, instrumentul ar putea identifica erori ascunse în coduri vechi de zeci de ani și le-ar putea exploata „cu ușurință”, ceea ce, în practică, ar reduce semnificativ bariera de intrare pentru atacuri asupra sistemelor insuficient protejate. În același timp, Institutul pentru Siguranța IA din Marea Britanie a evaluat că amenințarea cea mai mare ar viza sistemele vulnerabile și slab apărate. În organizațiile cu securitate cibernetică solidă, riscul ar fi, teoretic, mai limitat. Acces restricționat și testare limitată Tocmai din cauza acestor capacități, Anthropic nu a lansat Mythos pentru utilizatorii obișnuiți ai Claude. În schimb, accesul a fost acordat unui grup de 12 companii de tehnologie printr-un program numit Project Glasswing. Printre partenerii menționați se numără: Amazon Web Services Apple Microsoft Google Nvidia Broadcom CrowdStrike Anthropic spune că a extins accesul și către „alte peste 40 de organizații” responsabile de software critic, cu obiectivul declarat de a întări reziliența acestor sisteme față de amenințările pe care modelul le-ar putea genera. O limitare importantă: mulți analiști independenți nu au putut testa modelul personal, iar unii rămân sceptici față de capacitățile anunțate. Îngrijorare la nivel internațional: de la FMI la UE Tema a ajuns în discuții la nivel înalt. Ministrul canadian al finanțelor, François-Philippe Champagne, a declarat pentru BBC că Mythos a fost discutat la o reuniune a FMI la Washington. Separat, Andrew Bailey, guvernatorul Băncii Angliei, a spus că este necesară o analiză atentă a implicațiilor pentru riscul de criminalitate cibernetică, iar UE se află, de asemenea, în discuții cu Anthropic. Ciaran Martin, fost șef al Centrului Național de Securitate Cibernetică din Marea Britanie, a afirmat că ideea că Mythos ar putea descoperi vulnerabilități mult mai rapid decât alte modele „a șocat cu adevărat oamenii”. Pe termen mediu, Martin a indicat că astfel de instrumente ar putea fi folosite și pentru remedierea vulnerabilităților fundamentale ale internetului, iar mesajul transmis de NCSC este să nu se intre în panică și să se insiste pe „securitatea cibernetică de bază”. [...]

Anthropic își extinde Claude spre zona de lucru vizual, cu un editor care poate produce prezentări, prototipuri și „slide-uri”, într-o mișcare ce o apropie de instrumentele folosite în mod curent de echipele de design și marketing , potrivit Engadget . Compania a lansat „Claude Design” ca „research preview” (o versiune de test), disponibilă abonaților, iar utilizarea intră în aceleași limite de consum ale planului. Ce aduce „Claude Design” în fluxul de lucru Noul produs pornește de la un prompt, iar apoi utilizatorii pot rafina rezultatele prin conversație, comentarii inserate direct și editări. O funcție notabilă este generarea de „slidere” personalizate pentru elemente specifice din design, pe care utilizatorul le poate ajusta pentru a modifica parametri vizuali (de exemplu, intensitatea sau densitatea unor elemente grafice). Anthropic poziționează produsul ca un instrument de lucru vizual, nu ca un generator clasic de imagini. Sistemul din spate este Opus 4.7 , descris de companie drept „cel mai capabil model de viziune” al său de până acum (adică un model care poate înțelege și manipula conținut vizual, nu doar text). Personalizare pentru organizații și funcții pentru companii Pentru clienții organizaționali, Anthropic spune că a construit un proces de „onboarding” prin care Claude își poate forma un „limbaj vizual” intern după ce citește baza de cod și documentele de design existente ale unei organizații. Ulterior, „fiecare proiect” ar folosi automat culori, tipografie și comentarii, conform companiei. Pe lângă prompturi text, există suport pentru încărcarea de imagini și documente. Pentru clienții enterprise, este inclus și un instrument de captură web, care poate prelua elemente de pe site-ul companiei. Mai există partajare integrată și posibilitatea de a exporta un design direct către Claude Code. De ce contează: intrare într-o zonă aglomerată și compatibilitate cu rivalii Lansarea vine în aceeași săptămână în care Adobe și Canva au prezentat, la rândul lor, asistenți vizuali cu inteligență artificială, ceea ce sugerează o accelerare a competiției pe instrumente care mută AI-ul din zona de „chat” în zona de producție de materiale vizuale. Un detaliu cu implicații operaționale: proiectele din Claude Design pot fi exportate în Canva, ceea ce indică o strategie mai degrabă de integrare în ecosisteme existente decât de înlocuire directă a acestora. Disponibilitate Claude Design este disponibil ca parte a abonamentelor Anthropic Pro, Max, Team și Enterprise, iar consumul se contabilizează în limitele de utilizare ale fiecărui plan. Anthropic mai spune că, în următoarele săptămâni, va simplifica realizarea de integrări cu noua aplicație. [...]

OpenAI restricționează accesul la GPT‑Rosalind , un model AI pentru cercetare în științele vieții, mizând pe controlul riscurilor de „dublă utilizare”. Potrivit The Next Web , noua serie de modele este disponibilă ca „research preview” în ChatGPT, Codex și prin OpenAI API, însă doar printr-un program de acces de încredere (trusted-access) pentru clienți enterprise verificați din SUA. Modelul, denumit după Rosalind Franklin, este primul „domain-specific model series” al OpenAI și este ajustat (fine-tuned) pentru biochimie, genomică și ingineria proteinelor. În termeni practici, OpenAI îl poziționează ca instrument pentru sinteză de dovezi, generare de ipoteze, planificare experimentală și fluxuri științifice în mai mulți pași, în special în etapele timpurii ale descoperirii de medicamente. De ce accesul este limitat: riscuri de securitate biologică Publicația notează că lansarea vine cu avertismente legate de utilizarea în scopuri periculoase a modelelor antrenate pe date biologice, inclusiv pentru proiectarea de agenți patogeni. În acest context, OpenAI a ales să ofere GPT‑Rosalind exclusiv organizațiilor care trec printr-un proces de verificare și care trebuie să demonstreze: că lucrează pentru îmbunătățirea rezultatelor de sănătate pentru oameni; că au controale solide de securitate și guvernanță. În faza de „research preview”, utilizarea nu consumă creditele API existente, potrivit aceleiași surse. Ce adaugă operațional: plugin și integrare cu instrumente științifice Pe lângă model, OpenAI introduce un plugin de cercetare pentru științele vieții în Codex, care conectează modelele la peste 50 de instrumente și surse de date științifice. Scopul este ca cercetătorii să poată interoga baze de date biologice și rula „pipeline-uri” computaționale (lanțuri de procesare) dintr-o singură interfață. Partenerii de lansare menționați includ Amgen, Moderna, Thermo Fisher Scientific și Allen Institute. OpenAI mai lucrează cu Los Alamos National Laboratory la proiectare de proteine și catalizatori ghidată de AI. Performanță raportată: benchmark-uri și evaluare terță parte Conform rezultatelor prezentate de OpenAI, GPT‑Rosalind a obținut o rată de trecere de 0,751 pe BixBench (benchmark de bioinformatică dezvoltat de Edison Scientific). Pe LABBench2, modelul ar fi depășit GPT‑5.4 la șase din 11 sarcini, cu cel mai mare avantaj pe CloningQA, o sarcină care presupune proiectarea completă a reactivilor pentru protocoale de clonare moleculară. Cea mai puternică validare semnalată în material vine dintr-o evaluare realizată împreună cu Dyno Therapeutics, unde modelul a fost testat pe secvențe RNA nepublicate, pentru a reduce riscul de „contaminare” a benchmark-urilor. În varianta „best-of-ten”, rezultatele au fost peste percentila 95 a experților umani la predicție și în jurul percentilei 84 la generare de secvențe, potrivit OpenAI și relatărilor citate de The Next Web . Ce urmează Deocamdată, distribuția controlată prin programul „trusted-access” sugerează că OpenAI tratează GPT‑Rosalind ca pe un produs cu potențial ridicat, dar și cu risc ridicat. Extinderea accesului dincolo de clienții enterprise verificați și dincolo de SUA nu este detaliată în material. [...]

Google negociază cu Pentagonul rularea TPU-urilor în medii clasificate, un pas care ar putea reduce decalajul față de AWS și Microsoft pe contractele guvernamentale , potrivit Tom's Hardware , care citează un material The Information bazat pe două persoane cu informații directe despre discuții. Negocierile vizează implementarea modelului Gemini în setări clasificate ale Departamentului Apărării al SUA (DoD) și includ două direcții: adăugarea de rack-uri cu GPU-uri (procesoare grafice folosite frecvent pentru sarcini de inteligență artificială) în Google Distributed Cloud și, în paralel, activarea TPU-urilor (acceleratoarele AI dezvoltate de Google) în medii clasificate acreditate. Conform sursei, ar fi prima dată când TPU-urile ar rula într-un astfel de cadru. Miza: acces la zona „clasificată”, unde Google este în urmă Din perspectiva Google, discuțiile au o miză comercială și operațională: compania are aproximativ 14% din piața totală de cloud, față de 28% pentru AWS și 21% pentru Microsoft, conform Synergy Research Group (date „la final de 2025”, citate în articol). Diferența ar fi și mai mare în zona de cloud pentru medii clasificate, unde rivalii rulează deja volume importante de lucru, iar Google nu. În acest context, divizia Google Public Sector, care conduce discuțiile cu DoD, ar fi vizat circa 6 miliarde de dolari (aprox. 27,6 miliarde lei) în „bookings” pentru 2025–2027, din care 2 miliarde de dolari (aprox. 9,2 miliarde lei) din apărare, potrivit unui plan strategic intern pe care The Information spune că l-a văzut. Condiții contractuale: limitări privind supravegherea în masă și armele autonome Un element central al negocierilor este limbajul contractual. Propunerea ar permite Pentagonului să folosească Gemini pentru „toate scopurile legale”, însă Google ar insista pentru prevederi care să interzică: supravegherea internă în masă; armele complet autonome, fără supraveghere umană adecvată. Tom’s Hardware notează că aceste condiții ar oglindi acordul pe care OpenAI l-a încheiat cu Pentagonul mai devreme în acest an, iar directorul general al OpenAI, Sam Altman, ar fi cerut Pentagonului să extindă aceleași condiții către toți furnizorii de AI. Context: precedentul Anthropic și presiunea de conformare Aceleași teme ar fi stat la baza ruperii negocierilor Pentagonului cu Anthropic în februarie, după ce compania ar fi refuzat să renunțe la restricții. Ulterior, Pentagonul ar fi desemnat Anthropic drept „risc de lanț de aprovizionare” și ar fi început eliminarea treptată, pe șase luni, a modelului Claude din sistemele guvernamentale. Un judecător federal ar fi descris ulterior această etichetare drept „orwelliană”, potrivit articolului. Ce urmează și ce rămâne neclar Materialul nu indică un calendar sau un rezultat al negocierilor și nici detalii despre forma finală a contractului. Cert este că, dacă TPU-urile ajung să fie operate în medii clasificate acreditate, Google ar bifa o capabilitate pe care o folosește deja masiv în cloud-ul comercial pentru antrenarea și rularea (inferența) Gemini, dar pe care nu a avut-o până acum în segmentul guvernamental clasificat. [...]

Jensen Huang , CEO Nvidia , avertizează că alarmismul despre AI poate lovi direct în competitivitatea tehnologică a SUA , prin frânarea formării de ingineri software și amplificarea unei frici nejustificate în piață, potrivit iThome , care relatează despre apariția sa în podcastul lui Dwarkesh Patel. În intervenție, Huang a respins teza că inteligența artificială ar fi o amenințare de tip „armă nucleară” și a criticat dur „supraîncălzirea” discursului din industrie. El susține că astfel de comparații au efect de sperietoare: cresc ostilitatea și teama publicului față de AI, iar în final pot afecta capacitatea Statelor Unite de a rămâne competitive în tehnologie. Impactul operațional: riscul de a opri formarea de ingineri Miza, în viziunea lui Huang, nu este că AI va „șterge” meseriile din software, ci că societatea ar putea reacționa greșit la anxietatea legată de automatizare. CEO-ul Nvidia a spus că adevărata criză pentru industrie ar apărea dacă, din teama că AI va înlocui oamenii, s-ar reduce investiția în pregătirea viitorilor ingineri software. Piața și percepția investitorilor: frica de „disrupție” fără bază Huang a respins și ideea că AI va elimina toate rolurile de inginerie software, argumentând că panica nu are fundament. iThome notează că mai multe companii de software au fost afectate la bursă pe fondul îngrijorărilor că AI va „răsturna” industria, însă Huang consideră că reacția este exagerată și cere o evaluare rațională a progresului tehnologic, nu decizii luate „din frică”. În ansamblu, mesajul său vizează temperarea narațiunilor extreme: nu doar pentru a corecta percepții despre piața muncii, ci și pentru a evita un efect secundar cu impact economic — subminarea bazei de talente care susține sectorul tehnologic. [...]