Știri
Știri din categoria Inteligență artificială

Anthropic a publicat un ghid de 33 de pagini despre cum pot fi create „abilități” pentru Claude, un set de instrucțiuni care transformă chatbotul într-un asistent specializat pentru anumite sarcini, precum redactarea documentelor, planificarea proiectelor sau automatizarea unor procese repetitive. Informațiile apar în ghidul oficial , destinat în principal dezvoltatorilor, dar ideea din spatele lui este ușor de înțeles: în loc să explici de fiecare dată ce vrei de la inteligența artificială, îi poți „preda” o procedură pe care o va aplica automat în viitor.
Pe scurt, un „skill” (abilitate) este un mic pachet de instrucțiuni și resurse care îi spune lui Claude cum să rezolve un anumit tip de problemă. În practică, este un folder cu un fișier principal numit SKILL.md, în care sunt descrise rolul, condițiile de utilizare și pașii pe care AI-ul trebuie să îi urmeze. Pot exista și fișiere suplimentare – scripturi, documentație sau modele de documente – pe care Claude le poate consulta atunci când execută sarcina.
Conceptul este comparat în ghid cu o bucătărie profesională. Conectarea la diverse servicii externe oferă acces la „ingrediente și unelte”, iar skill-urile reprezintă „rețetele”. Cu alte cuvinte, AI-ul nu doar că are acces la date sau aplicații, ci știe și cum să le folosească într-o ordine logică pentru a obține un rezultat util.
Autorii ghidului arată că aceste abilități sunt utile mai ales pentru procese repetitive. De exemplu, un skill poate automatiza planificarea unui sprint într-un proiect software: verifică statusul proiectului, analizează capacitatea echipei, propune priorități și creează automat taskuri în aplicația de management. În alte cazuri, skill-urile pot genera documente standardizate, pot organiza cercetări sau pot coordona mai multe servicii digitale într-un flux automat.
Potrivit documentației, skill-urile sunt gândite să funcționeze pe mai multe niveluri: o descriere scurtă care îi spune lui Claude când trebuie activată abilitatea, instrucțiuni complete care se încarcă doar când este necesar și fișiere suplimentare consultate la nevoie. Acest sistem reduce consumul de resurse și menține conversațiile rapide.
Anthropic susține că această abordare ar putea schimba modul în care sunt folosite modelele AI. În loc să fie simple chatboturi, ele pot deveni asistenți personalizați cu proceduri prestabilite, adaptate pentru companii, echipe sau proiecte specifice. Skill-urile pot fi distribuite și altor utilizatori, iar organizațiile pot instala astfel de „rețete” direct pentru toți angajații.
În esență, ghidul arată direcția în care evoluează inteligența artificială: nu doar conversații generale, ci sisteme configurate să execute fluxuri de lucru concrete, aproape ca niște aplicații construite peste un model AI.
Recomandate

Google își consolidează oferta pentru „agenți” AI în companii printr-o platformă unificată care combină dezvoltarea, guvernanța și optimizarea , potrivit Google Blog . Miza este una operațională: echipele tehnice ar urma să poată construi și scala agenți autonomi într-un singur „punct de lucru”, cu integrare în infrastructura Google Cloud și în capabilitățile sale de date și securitate. Platforma, prezentată ca un „one-stop-shop” pentru agenți, a fost anunțată la Google Cloud Next ’26 și aduce laolaltă serviciile de construire și ajustare (tuning) a modelelor din Vertex AI cu funcții noi pentru integrarea agenților, securitate și DevOps (practici și instrumente pentru dezvoltare și operare software). Google susține că Agent Platform este gândită să se adapteze nevoilor specifice ale fiecărei echipe. Ce include platforma și ce modele poate folosi Conform descrierii, Gemini Enterprise Agent Platform oferă acces la mai multe modele din portofoliul Google, inclusiv: Gemini 3.1 Pro; Gemini 3.1 Flash Image (Nano Banana 2); Lyria 3. În același timp, platforma suportă și modele ale Anthropic: Claude Opus, Sonnet și Haiku. Google nu detaliază în material condițiile comerciale sau diferențele de disponibilitate între modele. Integrarea cu Gemini Enterprise și implicația pentru utilizarea internă Google mai spune că Agent Platform se integrează cu aplicația Gemini Enterprise, descrisă drept „ușa de intrare” pentru AI pentru fiecare angajat. În practică, mesajul indică o arhitectură în care dezvoltarea și guvernanța agenților rămân la echipele tehnice, iar accesul la capabilități AI pentru utilizatorii din companie este centralizat prin aplicația enterprise. Materialul nu oferă exemple de implementări, termene de disponibilitate pe piețe sau indicatori de performanță, astfel că impactul concret pentru clienți (costuri, productivitate, reducerea timpului de livrare) nu poate fi cuantificat din informațiile publicate. [...]

Administrația Trump transmite un semnal de detensionare în disputa cu Anthropic , ceea ce poate redeschide accesul companiei la contracte de apărare și la piața federală de AI , potrivit Adevărul , care citează relatările Reuters. Declarațiile vin după ce, la începutul anului, instituțiile federale au fost obligate să înceteze colaborarea cu Anthropic, iar Departamentul Apărării (Pentagonul) a inclus compania pe lista entităților considerate risc pentru lanțul de aprovizionare, notează Reuters, citată de News.ro. În acest context, Donald Trump a spus că Anthropic „își revine” și a lăsat deschisă posibilitatea unei colaborări viitoare cu Pentagonul. De ce contează: un potențial „dezgheț” cu efect direct asupra contractelor guvernamentale Într-un interviu pentru CNBC, Trump a afirmat că reprezentanții companiei „au avut discuții foarte bune” la Washington și că firma „își revine”, adăugând că un acord cu Pentagonul nu este exclus. Pentru o companie de inteligență artificială, o schimbare de ton la nivelul administrației poate însemna, practic, reluarea accesului la proiecte sensibile și bugete mari, în special pe zona de securitate cibernetică. Anthropic a transmis că discuțiile cu administrația s-au concentrat pe: securitate cibernetică, leadership tehnologic, siguranța instrumentelor de inteligență artificială. Context: interdicție, proces și întâlniri la Casa Albă Anthropic a contestat în instanță decizia de includere pe lista de risc, iar directorul general Dario Amodei s-a întâlnit recent cu oficiali de la Casa Albă pentru a detensiona relația. Casa Albă a descris discuțiile drept „productive și constructive”. Tensiunile au apărut după ce Anthropic a cerut garanții că tehnologia sa nu va fi folosită pentru supravegherea cetățenilor americani sau pentru operarea de arme autonome. Potrivit sursei, interdicția Pentagonului blochează utilizarea instrumentelor AI ale companiei în Departamentul Apărării, cu excepții limitate pentru situații de securitate națională. Separat, la începutul acestei luni, o curte federală de apel din Washington a refuzat să suspende temporar includerea Anthropic pe lista de risc, un rezultat favorabil administrației în litigiul aflat în derulare. Ce urmează: semnal politic, dar cu limitări juridice Deși mesajul lui Trump este cel mai explicit de până acum privind o posibilă apropiere, situația rămâne condiționată de cadrul administrativ și de procesul în curs. În paralel, compania a prezentat Mythos , un model AI avansat capabil să identifice vulnerabilități cibernetice; versiunea de test nu va fi disponibilă publicului, iar Anthropic a lansat Project Glasswing, un program de testare privată pentru instituții și companii mari. [...]

Meta își extinde supravegherea internă a muncii pentru a genera date de antrenare IA , printr-un instrument care va rula pe computerele și aplicațiile interne și va înregistra activitatea angajaților, inclusiv tastele apăsate și clicurile de mouse, potrivit G4Media . Miza operațională este dublă: compania își accelerează dezvoltarea de inteligență artificială folosind date „din producție”, dar crește și presiunea asupra angajaților într-un moment în care sunt așteptate noi reduceri de personal. Instrumentul a fost comunicat angajaților marți și, conform informațiilor din material, va înregistra activitatea din sistemele interne pentru a fi folosită ca set de date la antrenarea tehnologiei de inteligență artificială. BBC a aflat că activitatea angajaților pe un computer Meta ar fi fost accesibilă companiei și înainte, însă utilizarea explicită a urmăririi și înregistrării în scop de instruire și îmbunătățire a instrumentelor IA este elementul nou. Ce se schimbă în practică Din descrierea din articol, noul instrument ar urma să ruleze pe: computerele angajaților Meta; aplicațiile interne ale companiei, și să înregistreze activitatea acestora pentru a o transforma în date de antrenare pentru modele de inteligență artificială. Reacțiile interne citate de BBC indică tensiuni: un angajat care a cerut anonimatul a descris situația drept „foarte distopică”, iar o persoană care a părăsit recent compania a spus că este „doar cea mai recentă modalitate prin care ne impun IA pe gât”. Context: reduceri de personal și înghețarea angajărilor Schimbarea vine pe fondul restructurărilor. Meta a concediat deja aproximativ 2.000 de angajați în acest an, în valuri mai mici, iar angajații se așteaptă la pierderi de locuri de muncă mai mari în lunile următoare, conform articolului. Totodată, luna trecută compania a adoptat o înghețare parțială a angajărilor, care „pare să aibă o amploare mai mare”: site-ul de recrutare folosit de Meta afișa aproximativ 800 de anunțuri în martie, iar acum promovează doar șapte. Un purtător de cuvânt al Meta a refuzat să comenteze eliminarea anunțurilor sau planurile de reduceri, potrivit materialului. De ce contează pentru business Din perspectivă operațională, Meta încearcă să-și alimenteze rapid proiectele de inteligență artificială cu date generate din activitatea internă, într-un moment în care Mark Zuckerberg s-a angajat să crească cheltuielile pentru IA în acest an și să poziționeze compania în fruntea tehnologiei. În același timp, măsura amplifică riscurile de climat intern și de retenție a talentelor, mai ales pe fondul concedierilor și al înghețării angajărilor descrise în articol. [...]

Posibila numire a lui John Ternus la conducerea Apple ar muta accentul strategiei AI spre dispozitive , nu doar spre modele și servicii, iar asta poate conta direct în competiția cu rivalii care împing masiv „AI în cloud”, potrivit unei analize publicate de CNET . Textul pornește de la ideea că un CEO cu profil puternic de „hardware” (adică orientat spre proiectarea și integrarea componentelor și a produsului final) ar putea fi un avantaj pentru planurile Apple în inteligență artificială, tocmai pentru că diferențiatorul companiei a fost istoric combinația strânsă dintre dispozitive, software și servicii. De ce contează pentru AI: controlul asupra „cutiei” în care rulează tehnologia În logica CNET, AI-ul Apple are mai multe șanse să se distingă dacă este împachetat în produse și funcții care rulează eficient pe dispozitivele companiei, unde Apple controlează atât arhitectura hardware, cât și sistemele de operare. Un lider format în zona de hardware ar înclina natural spre această abordare: optimizare la nivel de dispozitiv, integrare și livrare de funcții AI ca parte din experiența produsului. Această direcție ar putea susține o strategie în care AI-ul nu este perceput ca un „add-on” (o funcție adăugată ulterior), ci ca o componentă proiectată împreună cu produsul. Limitările informației din sursă Materialul CNET este un comentariu/analiză și nu oferă, în fragmentul disponibil, detalii operaționale verificabile despre un plan concret de implementare, termene sau investiții. De asemenea, nu sunt prezentate cifre sau indicatori financiari care să permită o evaluare a impactului economic pe termen scurt. În consecință, concluzia rămâne una de interpretare editorială: un CEO „de hardware” ar putea fi potrivit pentru o strategie AI centrată pe dispozitive, însă direcția efectivă depinde de deciziile companiei și de execuție. [...]

Băncile europene ar putea primi în zilele următoare acces la modelul IA „Mythos”, dar implementarea vine cu riscuri de securitate cibernetică și cu presiune din partea autorităților de reglementare pentru controale mai stricte, potrivit Agerpres , care citează informații Reuters. Extinderea accesului la „Mythos”, modelul de inteligență artificială al start-up-ului american Anthropic , ar urma să vizeze bănci din Europa și Marea Britanie, într-un moment în care instituțiile financiare încearcă să țină pasul cu rivalii din SUA, care au primit deja acces inițial la tehnologie. Ce se știe despre calendar și condițiile de acces Surse apropiate dosarului au indicat că accesul pentru băncile europene ar putea fi acordat „în câteva zile”, însă o altă estimare menționează că implementarea ar putea dura „zile sau săptămâni”. Procesul include verificări pentru a se asigura că modelul este implementat în siguranță, potrivit uneia dintre surse. Bloomberg a relatat anterior că Anthropic va oferi în curând acces la „Mythos” pentru instituții financiare din Marea Britanie. De ce contează: avertismente pe zona de securitate și atenție sporită a regulatorilor Experți în securitate cibernetică avertizează că „Mythos” ridică provocări importante pentru industria bancară și pentru sistemele tehnologice existente, context în care au apărut avertismente din partea organismelor de reglementare și a decidenților prezenți la reuniunea de primăvară a Fondului Monetar Internațional. Pe fondul acestor preocupări, autoritățile de reglementare se grăbesc să evalueze riscurile de securitate cibernetică asociate noului model de inteligență artificială, în timp ce băncile încearcă să recupereze decalajul față de instituțiile care au intrat mai devreme în testare. Cine are deja acces și cum s-a făcut selecția Anthropic a oferit inițial acces la „Mythos” partenerilor din inițiativa „Project Glasswing” și altor aproximativ 40 de organizații care dezvoltă sau întrețin infrastructură software critică. Dintre bănci, JPMorgan Chase (parte din inițiativa Glasswing) este singura instituție despre care Anthropic a spus public că are acces la „Mythos”. În același timp, Bank of America a fost în Glasswing încă de la început și a testat intern tehnologia, potrivit unei surse citate. Presiune pentru „teren de joc” egal în industrie Joachim Nagel, președintele Bundesbank (Banca Centrală a Germaniei), a cerut ca toate instituțiile să aibă acces la „Mythos” pentru a asigura condiții concurențiale echitabile și pentru a evita utilizarea abuzivă a modelului. [...]

Sam Altman acuză că Anthropic folosește „marketing bazat pe frică” pentru a justifica accesul restrâns la modelul său de securitate cibernetică Mythos , într-un nou episod al rivalității dintre cele două laboratoare, potrivit TechCrunch . Anthropic a anunțat Mythos la începutul lunii și l-a pus la dispoziția unui grup restrâns de clienți din zona enterprise. Compania susține că modelul ar fi „prea puternic” pentru a fi lansat public, invocând riscul ca infractorii cibernetici să îl transforme într-o armă. Critici ai acestei poziționări au spus că retorica este exagerată. Într-o apariție la podcastul „Core Memory”, Altman a sugerat că această abordare ar fi o modalitate de a păstra inteligența artificială în mâinile unui cerc mic și exclusiv. „Există oameni în lume care, pentru mult timp, au vrut să păstreze IA în mâinile unui grup mai mic de oameni. Poți justifica asta în multe feluri diferite.” Altman a mers mai departe cu o comparație menită să ilustreze mecanismul comercial din spatele mesajului, descriindu-l drept „marketing incredibil” să pretinzi că ai construit „o bombă” și apoi să vinzi „un adăpost anti-bombă” extrem de scump. De ce contează: controlul accesului devine argument comercial Miza nu este doar schimbul de replici dintre competitori, ci modul în care „siguranța” și riscul de abuz sunt folosite pentru a stabili cine primește acces la modele avansate și în ce condiții. În cazul Mythos, justificarea pentru distribuția limitată este tocmai potențiala utilizare malițioasă, iar Altman atacă direct această logică, sugerând că poate funcționa și ca instrument de poziționare și vânzare către clienți mari. Context: „frica” ca instrument recurent în industria IA TechCrunch notează că „marketingul bazat pe frică” nu este o invenție a Anthropic și că o parte semnificativă a industriei a folosit, în timp, tactici de alarmare și hiperbolă pentru a-și prezenta produsele ca fiind foarte puternice. Publicația amintește, totodată, că retorica despre riscuri extreme ale IA nu a venit doar de la activiști, ci și de la cei care vând această tehnologie publicului — inclusiv Altman. [...]