Știri
Știri din categoria Inteligență artificială

CEO-ul Anthropic, Dario Amodei, merge vineri la Casa Albă pentru o întâlnire cu șefa de cabinet Susie Wiles, într-un moment în care compania se judecă cu administrația Trump după ce modelul său de inteligență artificială Claude a fost „pus pe lista neagră” pentru utilizare guvernamentală, potrivit CNN. Miza întâlnirii ține de felul în care SUA încearcă să împace o linie dură față de Anthropic cu riscurile de securitate națională ale renunțării la o tehnologie considerată de vârf.
Amodei urmează să se întâlnească cu Susie Wiles, au declarat pentru CNN două surse familiarizate cu discuțiile. Axios a relatat prima despre întâlnire. Anthropic a refuzat să comenteze.
Întâlnirea are loc pe fondul unei dispute între companie și administrația Trump, după ce președintele a anunțat că guvernul va rupe legăturile cu Anthropic. Potrivit articolului, ruptura a venit după ce Anthropic nu a acceptat condiții care ar fi permis armatei să folosească Claude pentru „toate scopurile legale”, inclusiv arme autonome și supraveghere în masă.
Până de curând, Claude era singurul model de inteligență artificială disponibil în rețeaua clasificată a Pentagonului, notează CNN. După eșecul negocierilor, Pentagonul a declarat Anthropic „risc pentru lanțul de aprovizionare” – o etichetă folosită anterior doar pentru companii asociate cu adversari străini – ceea ce ar echivala, practic, cu excluderea companiei din contractele guvernamentale.
Anthropic a dat în judecată administrația Trump. Luna trecută, un judecător federal din California a blocat efortul guvernului de a „pedepsi” compania, stabilind că agențiile federale din afara Departamentului Apărării nu pot folosi această desemnare de „risc pentru lanțul de aprovizionare” pentru a rupe legăturile cu Anthropic. Guvernul a făcut apel.
Într-un dosar separat, la două săptămâni după acea decizie, administrația a obținut o victorie la Curtea de Apel a Circuitului DC: instanța a spus că nu va împiedica Departamentul Apărării să taie legăturile cu Anthropic pe durata procesului. În decizia unanimă, instanța a argumentat că o intervenție în acel moment:
„ar forța armata Statelor Unite să prelungească relația cu un furnizor nedorit de servicii critice de inteligență artificială în mijlocul unui conflict militar semnificativ în desfășurare”.
În paralel, CNN arată că guvernul american încearcă să cântărească implicațiile de securitate națională ale renunțării la tehnologia Anthropic, inclusiv un instrument numit „Mythos”, descris ca fiind capabil să identifice amenințări de securitate cibernetică, dar care poate oferi și o „hartă” pentru atacatori despre cum să lovească firme sau instituții guvernamentale.
Bloomberg a relatat că Office of Management and Budget a transmis agențiilor că se pregătește să le ofere acces la Mythos „pentru a se pregăti”. Axios a mai relatat că și Casa Albă discută pentru a obține acces la Mythos. Anthropic a refuzat să comenteze dacă administrația Trump lucrează pentru a testa acest instrument.
Un oficial al Casei Albe a declarat pentru CNN că administrația „se implică proactiv” pentru a proteja SUA și că orice tehnologie nouă care ar putea fi folosită de guvern necesită o perioadă tehnică de evaluare „pentru fidelitate și securitate”.
Din informațiile publicate nu reiese agenda exactă a întâlnirii de la Casa Albă și nici dacă aceasta va schimba poziția Pentagonului față de Anthropic. În schimb, contextul indică o tensiune de fond: guvernul cere libertate totală de utilizare a modelelor AI în timp de război, iar Anthropic susține că modelele nu sunt încă suficient de fiabile pentru arme autonome și că legislația SUA nu ține pasul cu riscurile supravegherii în masă.
Recomandate

Anthropic introduce verificarea identității în Claude pentru a limita abuzurile și frauda , o schimbare operațională care poate ridica fricțiuni pentru o parte dintre utilizatori și readuce în discuție cine gestionează datele sensibile din fluxurile de acces la servicii AI, potrivit Engadget . Compania spune că unii utilizatori ar putea vedea un prompt de verificare atunci când accesează „anumite capabilități”, fără să detalieze inițial care sunt acele cazuri de utilizare. Procedura presupune prezentarea unui act de identitate fizic, emis de o autoritate publică și cu fotografie, plus realizarea unui selfie cu camera telefonului sau a computerului, pentru comparație cu documentul. Ce se schimbă, concret, pentru utilizatori Verificarea identității este introdusă treptat și nu ar urma să fie universală. Într-o actualizare publicată pe 16 aprilie 2026, un purtător de cuvânt al Anthropic a precizat pentru Engadget că măsura se aplică „unui număr mic de cazuri” în care compania observă activitate ce indică un comportament potențial fraudulos sau abuziv, care încalcă politica de utilizare. Cine procesează datele și ce promite Anthropic Anthropic afirmă că verificarea este realizată de Persona , care va gestiona actele și selfie-urile. Compania susține că Persona nu va copia și nu va stoca aceste imagini, că utilizarea datelor este limitată contractual și că datele sunt criptate atât în tranzit, cât și „în repaus” (adică atunci când sunt păstrate în sisteme). Anthropic mai spune că nu va folosi datele de identitate pentru antrenarea modelelor și că nu le va partaja cu alte părți. Pentru detalii despre proces, Anthropic a publicat și o pagină de suport despre „ identity verification on Claude ”. Reacția comunității și miza reputațională Măsura a fost primită critic de o parte dintre utilizatori, care pun sub semnul întrebării necesitatea verificării identității pentru accesul la un chatbot AI, mai ales în cazul abonaților plătitori, unde compania are deja date de facturare. O parte din critică vizează și alegerea furnizorului Persona, inclusiv legăturile investiționale menționate în material. Deocamdată, Anthropic nu a publicat lista exactă a „capabilităților” care pot declanșa verificarea, iar Engadget notează că a cerut companiei clarificări și va actualiza informația când primește un răspuns. [...]

Capacitățile de „hacking” ale noului model Claude Mythos ridică un risc operațional direct pentru securitatea cibernetică , iar subiectul a ajuns deja pe agenda miniștrilor de finanțe și a Fondului Monetar Internațional , potrivit Mediafax . Modelul, dezvoltat de Anthropic , este descris ca fiind capabil să depășească performanțele umane în sarcini legate de securitate informatică, ceea ce amplifică temerile privind criminalitatea cibernetică. Mythos este unul dintre cele mai recente modele din familia Claude și a fost prezentat public la începutul lunii aprilie 2026 sub numele „Mythos Preview”, potrivit BBC, citată de Mediafax. Anthropic concurează pe piața globală cu ChatGPT (OpenAI) și Gemini (Google), însă Mythos este prezentat ca un salt calitativ față de versiunile anterioare. De ce contează pentru companii și instituții Cercetători care testează comportamentul modelelor de inteligență artificială au concluzionat că Mythos este „incredibil de capabil” în sarcini de securitate informatică. Concret, instrumentul ar putea identifica erori ascunse în coduri vechi de zeci de ani și le-ar putea exploata „cu ușurință”, ceea ce, în practică, ar reduce semnificativ bariera de intrare pentru atacuri asupra sistemelor insuficient protejate. În același timp, Institutul pentru Siguranța IA din Marea Britanie a evaluat că amenințarea cea mai mare ar viza sistemele vulnerabile și slab apărate. În organizațiile cu securitate cibernetică solidă, riscul ar fi, teoretic, mai limitat. Acces restricționat și testare limitată Tocmai din cauza acestor capacități, Anthropic nu a lansat Mythos pentru utilizatorii obișnuiți ai Claude. În schimb, accesul a fost acordat unui grup de 12 companii de tehnologie printr-un program numit Project Glasswing. Printre partenerii menționați se numără: Amazon Web Services Apple Microsoft Google Nvidia Broadcom CrowdStrike Anthropic spune că a extins accesul și către „alte peste 40 de organizații” responsabile de software critic, cu obiectivul declarat de a întări reziliența acestor sisteme față de amenințările pe care modelul le-ar putea genera. O limitare importantă: mulți analiști independenți nu au putut testa modelul personal, iar unii rămân sceptici față de capacitățile anunțate. Îngrijorare la nivel internațional: de la FMI la UE Tema a ajuns în discuții la nivel înalt. Ministrul canadian al finanțelor, François-Philippe Champagne, a declarat pentru BBC că Mythos a fost discutat la o reuniune a FMI la Washington. Separat, Andrew Bailey, guvernatorul Băncii Angliei, a spus că este necesară o analiză atentă a implicațiilor pentru riscul de criminalitate cibernetică, iar UE se află, de asemenea, în discuții cu Anthropic. Ciaran Martin, fost șef al Centrului Național de Securitate Cibernetică din Marea Britanie, a afirmat că ideea că Mythos ar putea descoperi vulnerabilități mult mai rapid decât alte modele „a șocat cu adevărat oamenii”. Pe termen mediu, Martin a indicat că astfel de instrumente ar putea fi folosite și pentru remedierea vulnerabilităților fundamentale ale internetului, iar mesajul transmis de NCSC este să nu se intre în panică și să se insiste pe „securitatea cibernetică de bază”. [...]

Anthropic își extinde Claude spre zona de lucru vizual, cu un editor care poate produce prezentări, prototipuri și „slide-uri”, într-o mișcare ce o apropie de instrumentele folosite în mod curent de echipele de design și marketing , potrivit Engadget . Compania a lansat „Claude Design” ca „research preview” (o versiune de test), disponibilă abonaților, iar utilizarea intră în aceleași limite de consum ale planului. Ce aduce „Claude Design” în fluxul de lucru Noul produs pornește de la un prompt, iar apoi utilizatorii pot rafina rezultatele prin conversație, comentarii inserate direct și editări. O funcție notabilă este generarea de „slidere” personalizate pentru elemente specifice din design, pe care utilizatorul le poate ajusta pentru a modifica parametri vizuali (de exemplu, intensitatea sau densitatea unor elemente grafice). Anthropic poziționează produsul ca un instrument de lucru vizual, nu ca un generator clasic de imagini. Sistemul din spate este Opus 4.7 , descris de companie drept „cel mai capabil model de viziune” al său de până acum (adică un model care poate înțelege și manipula conținut vizual, nu doar text). Personalizare pentru organizații și funcții pentru companii Pentru clienții organizaționali, Anthropic spune că a construit un proces de „onboarding” prin care Claude își poate forma un „limbaj vizual” intern după ce citește baza de cod și documentele de design existente ale unei organizații. Ulterior, „fiecare proiect” ar folosi automat culori, tipografie și comentarii, conform companiei. Pe lângă prompturi text, există suport pentru încărcarea de imagini și documente. Pentru clienții enterprise, este inclus și un instrument de captură web, care poate prelua elemente de pe site-ul companiei. Mai există partajare integrată și posibilitatea de a exporta un design direct către Claude Code. De ce contează: intrare într-o zonă aglomerată și compatibilitate cu rivalii Lansarea vine în aceeași săptămână în care Adobe și Canva au prezentat, la rândul lor, asistenți vizuali cu inteligență artificială, ceea ce sugerează o accelerare a competiției pe instrumente care mută AI-ul din zona de „chat” în zona de producție de materiale vizuale. Un detaliu cu implicații operaționale: proiectele din Claude Design pot fi exportate în Canva, ceea ce indică o strategie mai degrabă de integrare în ecosisteme existente decât de înlocuire directă a acestora. Disponibilitate Claude Design este disponibil ca parte a abonamentelor Anthropic Pro, Max, Team și Enterprise, iar consumul se contabilizează în limitele de utilizare ale fiecărui plan. Anthropic mai spune că, în următoarele săptămâni, va simplifica realizarea de integrări cu noua aplicație. [...]

Anthropic păstrează prețul, dar ridică miza pe utilizarea „în producție” a lui Claude Opus 4.7 , cu îmbunătățiri de fiabilitate pentru sarcini lungi și un upgrade de vedere care vizează direct fluxurile de lucru din inginerie software și analiză de imagini, potrivit Interesting Engineering . Modelul, prezentat drept noul vârf de gamă al companiei, este poziționat ca mai potrivit pentru activități complexe, de durată, unde dezvoltatorii s-au plâns frecvent de rezultate inconsecvente pe lanțuri lungi de instrucțiuni. Publicația notează că utilizatori timpurii spun că au mai multă încredere să „delege” sarcini de programare dificile, care anterior necesitau supraveghere umană mai strânsă. Ce se schimbă operațional: codare mai stabilă și respectare mai strictă a instrucțiunilor În zona de programare, Opus 4.7 pune accent pe calitatea execuției și pe consistență în fluxuri extinse de lucru. Conform articolului, modelul își verifică mai bine propriile rezultate înainte de a răspunde, tocmai pentru a reduce erorile care apar pe secvențe lungi de pași. O schimbare cu impact practic este „urmarea instrucțiunilor” (instruction following) mai strictă decât la versiunile anterioare. Asta poate obliga echipele să-și ajusteze modul de scriere a solicitărilor (prompts): instrucțiuni pe care modelele mai vechi le tratau „mai lejer” pot produce acum rezultate neașteptate, dar corecte tehnic. În testările interne menționate, Anthropic indică rezultate mai bune și pe sarcini legate de finanțe, inclusiv analiză structurată și calitatea prezentării. Upgrade pe „vision”: imagini mai mari, utile pentru capturi de ecran și diagrame Pe componenta vizuală, Opus 4.7 poate procesa imagini cu rezoluție mai mare, până la 2.576 pixeli pe latura lungă. Creșterea este prezentată ca un avantaj pentru interpretarea capturilor de ecran dense și a diagramelor detaliate, cu utilizări precum citirea tablourilor de bord, extragerea de date structurate și sprijin pentru „agenți” care folosesc computerul (sisteme care execută pași în interfețe software). Modelul primește și îmbunătățiri legate de „memorie” între sesiuni: poate reține informații-cheie stocate în fișiere și le poate reutiliza ulterior, reducând nevoia de a repeta contextul — un element care, în practică, poate scurta fluxurile de lucru și limita consumul de resurse. Poziționare și control al riscurilor: între performanță și utilizare responsabilă Anthropic trasează o diferență între Opus 4.7 și un sistem experimental mai avansat, Claude Mythos Preview, sugerând că noua versiune urmărește mai degrabă stabilitatea și „pregătirea pentru implementare” decât maximizarea capabilităților brute. Compania afirmă: „Deși este mai puțin capabil în sens larg decât cel mai puternic model al nostru, Claude Mythos Preview, arată rezultate mai bune decât Opus 4.6 pe o gamă de benchmark-uri.” Pe securitate, compania spune că introduce măsuri care detectează și blochează solicitările cu risc ridicat în zona de securitate cibernetică: „Lansăm Opus 4.7 cu măsuri de protecție care detectează și blochează automat solicitările care indică utilizări interzise sau cu risc ridicat în securitatea cibernetică.” În paralel, Anthropic lansează un „Cyber Verification Program”, prin care cercetători verificați pot accesa modelul pentru activități precum testarea de penetrare și analiza vulnerabilităților. Disponibilitate și preț: neschimbate, dar pe mai multe platforme Opus 4.7 este disponibil prin API-ul Anthropic și prin platforme de cloud: Amazon Bedrock , Google Cloud Vertex AI și Microsoft Foundry. Prețurile rămân la 5 dolari (aprox. 23 lei) pe milion de tokeni de intrare și 25 dolari (aprox. 115 lei) pe milion de tokeni de ieșire. Pentru companii, combinația dintre preț neschimbat și accentul pe fiabilitate în sarcini lungi sugerează o încercare de a reduce costurile operaționale ascunse ale utilizării modelelor (timp de verificare, reluări, corecții), fără a cere un buget mai mare per unitate de consum. Limitarea este că articolul nu oferă detalii despre metodologia completă a benchmark-urilor sau rezultate numerice comparabile, dincolo de afirmațiile de poziționare și exemplele de utilizare. [...]

Anthropic își apără prețul în fața rivalilor printr-un salt de productivitate la același cost : noul Claude Opus 4.7 ridică semnificativ performanța în codare și în sarcini „agentice” (fluxuri de lucru cu mai mulți pași și folosire de instrumente), fără scumpiri, potrivit The Next Web . Modelul este poziționat ca „cel mai capabil” Claude disponibil pe scară largă și vine într-un moment în care miza comercială pentru Anthropic este ridicată: publicația notează că firma rulează la o rată anualizată de venituri de 30 de miliarde de dolari (aprox. 138 miliarde lei), ar fi primit oferte de investiții la o evaluare de circa 800 de miliarde de dolari (aprox. 3.680 miliarde lei) și ar fi în discuții incipiente pentru o listare (IPO). În acest context, Opus 4.7 trebuie să convingă companiile să construiască pe platforma Claude, nu doar să bifeze scoruri în teste. De ce contează pentru companii: mai multă muncă automatizată, cu mai puține erori de instrumente Câștigul principal este în inginerie software, unde Opus 4.7 urcă pe SWE-bench Pro la 64,3% (de la 53,4% la Opus 4.6) și depășește GPT-5.4 (57,7%) și Gemini 3.1 Pro (54,2%). Pe SWE-bench Verified, scorul ajunge la 87,6% (față de 80,8% la predecesor), în timp ce Gemini 3.1 Pro este la 80,6%. În paralel, CursorBench (un indicator pentru codare autonomă în editorul Cursor) arată 70%, de la 58% la Opus 4.6. The Next Web leagă această evoluție de utilizarea practică: Claude este deja o alegere implicită în Cursor și Claude Code, iar Claude Code ar fi atins în februarie o rată anualizată de venituri de 2,5 miliarde de dolari (aprox. 11,5 miliarde lei). Diferențierea se mută însă dinspre „raționament pur” spre execuție în fluxuri complexe. Pe GPQA Diamond (raționament la nivel de studii avansate), scorurile sunt aproape egale: Opus 4.7 are 94,2%, GPT-5.4 Pro 94,4%, iar Gemini 3.1 Pro 94,3% — diferențe pe care publicația le descrie ca fiind în marja de variație. „Agentic”: coordonare multi-agent și robustețe în fluxuri lungi Anthropic susține că Opus 4.7 aduce o îmbunătățire de 14% față de Opus 4.6 pe fluxuri de lucru complexe, multi-pas, folosind mai puțini „tokeni” (unități de text folosite la calculul costurilor) și generând o treime din erorile de instrumente. Compania mai spune că este primul model Claude care trece „teste de nevoie implicită”, adică situații în care modelul trebuie să deducă singur ce instrumente sau acțiuni sunt necesare. O noutate importantă este coordonarea multi-agent: capacitatea de a orchestra mai multe „fire” de lucru AI în paralel, în loc de procesare strict secvențială. Pentru utilizări de tip enterprise (revizie de cod, analiză de documente, procesare de date în același timp), aceasta se traduce în debit mai mare de lucru. Anthropic afirmă și că modelul își poate menține „focusul” pe fluxuri de lucru de ordinul orelor, dar aceasta rămâne o afirmație de producător care depinde de validarea în utilizare reală. Publicația mai notează accentul pe reziliență: Opus 4.7 ar continua execuția chiar și când apar eșecuri ale instrumentelor, în loc să se oprească — relevant pentru automatizări unde o singură eroare poate bloca un întreg lanț. Viziune și context: rezoluție mai mare pentru documente, fereastră de context neschimbată Pe partea de imagini, Opus 4.7 poate procesa rezoluții de până la 2.576 pixeli pe latura lungă, de peste trei ori față de modelele Claude anterioare. Ținta declarată este analiza de documente în companii (contracte scanate, desene tehnice, situații financiare), unde detaliile fine pot fi ratate la rezoluții mai mici. Fereastra de context rămâne la un milion de tokeni (jumătate din cei două milioane ai Gemini 3.1 Pro), iar pe benchmark-uri de cercetare cu context lung, Opus 4.7 ar fi la egalitate pe primul loc la scorul total 0,715 pe șase module, cu o consistență ridicată. Anthropic mai spune că modelul urmează instrucțiunile mai „literal” decât înainte, ceea ce poate cere ajustarea prompturilor existente: mai puțină ambiguitate și comportament „off-task”, dar și mai puține rezultate „creative” neașteptate. Preț și disponibilitate: performanță mai bună, fără scumpire Opus 4.7 este disponibil pe planurile Claude Pro, Max, Team și Enterprise și prin API la 5 dolari (aprox. 23 lei) per milion de tokeni de intrare și 25 de dolari (aprox. 115 lei) per milion de tokeni de ieșire — același nivel ca Opus 4.6. Există și mecanisme de reducere: „prompt caching” cu economii de până la 90% și Batch API cu discount de 50% la intrare și ieșire. Modelul poate fi accesat și prin Amazon Bedrock, Google Cloud Vertex AI și Microsoft Foundry. The Next Web notează că Gemini 3.1 Pro este mai ieftin (2 dolari și 12 dolari per milion de tokeni pentru intrare/ieșire), însă avantajul Opus 4.7 pe SWE-bench și pe raționament „agentic” ar putea justifica prima de preț pentru companiile care au nevoie de capabilitate maximă. În plus, Anthropic a adăugat măsuri automate de protecție cibernetică pentru a detecta și bloca solicitări interzise sau cu risc ridicat, pe fondul preocupărilor legate de utilizări cu dublu scop (civil și malițios). Publicația leagă această abordare de restricțiile anterioare aplicate modelului Mythos, disponibil doar pentru 11 organizații în cadrul Project Glasswing . În esență, Opus 4.7 nu schimbă paradigma, dar mută raportul cost/performanță în favoarea Anthropic exact în zona care contează economic: codare și automatizare de fluxuri complexe, la același preț pe token. [...]

OpenAI restricționează accesul la GPT‑Rosalind , un model AI pentru cercetare în științele vieții, mizând pe controlul riscurilor de „dublă utilizare”. Potrivit The Next Web , noua serie de modele este disponibilă ca „research preview” în ChatGPT, Codex și prin OpenAI API, însă doar printr-un program de acces de încredere (trusted-access) pentru clienți enterprise verificați din SUA. Modelul, denumit după Rosalind Franklin, este primul „domain-specific model series” al OpenAI și este ajustat (fine-tuned) pentru biochimie, genomică și ingineria proteinelor. În termeni practici, OpenAI îl poziționează ca instrument pentru sinteză de dovezi, generare de ipoteze, planificare experimentală și fluxuri științifice în mai mulți pași, în special în etapele timpurii ale descoperirii de medicamente. De ce accesul este limitat: riscuri de securitate biologică Publicația notează că lansarea vine cu avertismente legate de utilizarea în scopuri periculoase a modelelor antrenate pe date biologice, inclusiv pentru proiectarea de agenți patogeni. În acest context, OpenAI a ales să ofere GPT‑Rosalind exclusiv organizațiilor care trec printr-un proces de verificare și care trebuie să demonstreze: că lucrează pentru îmbunătățirea rezultatelor de sănătate pentru oameni; că au controale solide de securitate și guvernanță. În faza de „research preview”, utilizarea nu consumă creditele API existente, potrivit aceleiași surse. Ce adaugă operațional: plugin și integrare cu instrumente științifice Pe lângă model, OpenAI introduce un plugin de cercetare pentru științele vieții în Codex, care conectează modelele la peste 50 de instrumente și surse de date științifice. Scopul este ca cercetătorii să poată interoga baze de date biologice și rula „pipeline-uri” computaționale (lanțuri de procesare) dintr-o singură interfață. Partenerii de lansare menționați includ Amgen, Moderna, Thermo Fisher Scientific și Allen Institute. OpenAI mai lucrează cu Los Alamos National Laboratory la proiectare de proteine și catalizatori ghidată de AI. Performanță raportată: benchmark-uri și evaluare terță parte Conform rezultatelor prezentate de OpenAI, GPT‑Rosalind a obținut o rată de trecere de 0,751 pe BixBench (benchmark de bioinformatică dezvoltat de Edison Scientific). Pe LABBench2, modelul ar fi depășit GPT‑5.4 la șase din 11 sarcini, cu cel mai mare avantaj pe CloningQA, o sarcină care presupune proiectarea completă a reactivilor pentru protocoale de clonare moleculară. Cea mai puternică validare semnalată în material vine dintr-o evaluare realizată împreună cu Dyno Therapeutics, unde modelul a fost testat pe secvențe RNA nepublicate, pentru a reduce riscul de „contaminare” a benchmark-urilor. În varianta „best-of-ten”, rezultatele au fost peste percentila 95 a experților umani la predicție și în jurul percentilei 84 la generare de secvențe, potrivit OpenAI și relatărilor citate de The Next Web . Ce urmează Deocamdată, distribuția controlată prin programul „trusted-access” sugerează că OpenAI tratează GPT‑Rosalind ca pe un produs cu potențial ridicat, dar și cu risc ridicat. Extinderea accesului dincolo de clienții enterprise verificați și dincolo de SUA nu este detaliată în material. [...]