Știri
Știri din categoria Inteligență artificială

Anthropic a lansat un marketplace pentru aplicații bazate pe modelul AI Claude, într-o mișcare strategică menită să consolideze poziția companiei pe piața enterprise, chiar în contextul controverselor recente legate de relația cu Pentagonul. Platforma numită Anthropic Marketplace permite companiilor să cumpere software dezvoltat de terți direct din bugetele deja alocate serviciilor Claude.
Conceptul este simplu: firmele care au contracte anuale pentru API-ul și serviciile Anthropic pot folosi o parte din acea sumă pentru a achiziționa aplicații bazate pe Claude, fără a mai încheia contracte separate cu fiecare furnizor.
Anthropic compară noua platformă cu marketplace-urile existente în ecosistemele Amazon Web Services și Microsoft Azure, unde clienții pot achiziționa software de la parteneri folosind bugetele de cloud deja contractate.
Diferența majoră este că Anthropic nu percepe comision pentru tranzacțiile realizate prin marketplace, cel puțin în etapa inițială. În mod normal, platformele cloud rețin între 3% și 15% din veniturile generate de aplicațiile vândute prin marketplace.
Prin eliminarea acestui comision, compania încearcă să accelereze adoptarea și să atragă cât mai multe aplicații bazate pe Claude.
Printre partenerii de lansare se numără câteva nume importante din ecosistemul software:
Pentru aceste firme, marketplace-ul oferă acces direct la clienții enterprise ai Anthropic, care au deja bugete aprobate și infrastructură pregătită pentru utilizarea Claude.
Momentul lansării este considerat strategic, deoarece vine la doar o zi după ce Departamentul Apărării al SUA a desemnat Anthropic drept „risc pentru lanțul de aprovizionare” în proiectele legate de Pentagon.
Decizia a apărut după ce compania a refuzat să permită utilizarea modelelor Claude pentru:
În urma acestei decizii, orice contractor care lucrează cu Pentagonul trebuie să certifice că nu folosește tehnologia Anthropic în proiecte militare.
Compania a declarat că restricțiile sunt limitate doar la proiectele militare și că va contesta decizia în instanță.
Dincolo de contextul politic, marketplace-ul face parte dintr-o strategie mai amplă prin care Anthropic încearcă să transforme Claude într-o platformă centrală pentru aplicații enterprise.
Compania a lansat recent mai multe produse dedicate mediului corporativ:
Prin marketplace, Anthropic încearcă să ofere două opțiuni clienților: fie construiesc aplicații direct pe Claude, fie cumpără soluții gata dezvoltate de parteneri.
Astfel, compania urmărește să extindă numărul de organizații și procese de business care depind de Claude, consolidându-și poziția în competiția intensă dintre platformele de inteligență artificială enterprise.
Recomandate

Anthropic a publicat un ghid de 33 de pagini despre cum pot fi create „abilități” pentru Claude , un set de instrucțiuni care transformă chatbotul într-un asistent specializat pentru anumite sarcini, precum redactarea documentelor, planificarea proiectelor sau automatizarea unor procese repetitive. Informațiile apar în ghidul oficial , destinat în principal dezvoltatorilor, dar ideea din spatele lui este ușor de înțeles: în loc să explici de fiecare dată ce vrei de la inteligența artificială, îi poți „preda” o procedură pe care o va aplica automat în viitor. Pe scurt, un „skill” (abilitate) este un mic pachet de instrucțiuni și resurse care îi spune lui Claude cum să rezolve un anumit tip de problemă. În practică, este un folder cu un fișier principal numit SKILL.md , în care sunt descrise rolul, condițiile de utilizare și pașii pe care AI-ul trebuie să îi urmeze. Pot exista și fișiere suplimentare – scripturi, documentație sau modele de documente – pe care Claude le poate consulta atunci când execută sarcina. Conceptul este comparat în ghid cu o bucătărie profesională. Conectarea la diverse servicii externe oferă acces la „ingrediente și unelte”, iar skill-urile reprezintă „rețetele”. Cu alte cuvinte, AI-ul nu doar că are acces la date sau aplicații, ci știe și cum să le folosească într-o ordine logică pentru a obține un rezultat util . Autorii ghidului arată că aceste abilități sunt utile mai ales pentru procese repetitive. De exemplu, un skill poate automatiza planificarea unui sprint într-un proiect software: verifică statusul proiectului, analizează capacitatea echipei, propune priorități și creează automat taskuri în aplicația de management. În alte cazuri, skill-urile pot genera documente standardizate, pot organiza cercetări sau pot coordona mai multe servicii digitale într-un flux automat. Potrivit documentației, skill-urile sunt gândite să funcționeze pe mai multe niveluri: o descriere scurtă care îi spune lui Claude când trebuie activată abilitatea, instrucțiuni complete care se încarcă doar când este necesar și fișiere suplimentare consultate la nevoie. Acest sistem reduce consumul de resurse și menține conversațiile rapide. Anthropic susține că această abordare ar putea schimba modul în care sunt folosite modelele AI. În loc să fie simple chatboturi, ele pot deveni asistenți personalizați cu proceduri prestabilite , adaptate pentru companii, echipe sau proiecte specifice. Skill-urile pot fi distribuite și altor utilizatori, iar organizațiile pot instala astfel de „rețete” direct pentru toți angajații. În esență, ghidul arată direcția în care evoluează inteligența artificială: nu doar conversații generale, ci sisteme configurate să execute fluxuri de lucru concrete, aproape ca niște aplicații construite peste un model AI. [...]

Șefa diviziei de robotică a OpenAI a demisionat după acordul companiei cu Pentagonul , invocând îngrijorări legate de utilizarea inteligenței artificiale în supraveghere și sisteme militare. Potrivit The Next Web , Caitlin Kalinowski , responsabilă de programele de hardware și robotică ale companiei, a anunțat public plecarea după aproximativ 16 luni la OpenAI. Într-un mesaj publicat pe rețeaua X, Kalinowski a explicat că decizia este una de principiu și a criticat modul în care a fost gestionat acordul cu Departamentul Apărării al Statelor Unite. „Inteligența artificială are un rol important în securitatea națională, dar supravegherea americanilor fără control judiciar și autonomia letală fără autorizare umană sunt linii care ar fi meritat mai multă deliberare”, a scris ea. Contextul acordului dintre OpenAI și Pentagon Demisia vine după ce OpenAI a încheiat un acord pentru implementarea modelelor sale de inteligență artificială în rețelele clasificate ale Pentagonului. Decizia a venit la scurt timp după ce compania rivală Anthropic a pierdut un contract militar în urma unor negocieri tensionate cu Departamentul Apărării. Anthropic susținuse că modelele sale nu ar trebui folosite pentru supraveghere internă în masă sau arme complet autonome , însă Pentagonul a insistat asupra unor condiții mai largi de utilizare. După blocarea negocierilor, administrația americană a decis să oprească utilizarea tehnologiei Anthropic în agențiile federale. La scurt timp, Sam Altman a anunțat că OpenAI a ajuns la propriul acord cu armata americană. CEO-ul companiei a recunoscut ulterior că procesul a fost „grăbit” și a generat reacții negative. Ce a făcut Kalinowski la OpenAI Caitlin Kalinowski era una dintre cele mai importante figuri din zona de hardware a companiei. Ea fusese recrutată în 2024 pentru a dezvolta programul de „AI fizic” , care vizează integrarea inteligenței artificiale în sisteme robotice și dispozitive hardware. Anterior, Kalinowski a lucrat: aproape 6 ani la Apple , unde a contribuit la dezvoltarea MacBook Pro și Mac Pro peste 9 ani la Meta , unde a condus proiecte de hardware pentru realitate virtuală și ochelari de realitate augmentată La OpenAI, ea a coordonat inclusiv un laborator din San Francisco unde roboți sunt antrenați să execute sarcini domestice. Impactul asupra OpenAI Demisia lasă programul de robotică al companiei fără principalul său lider tehnic într-un moment în care OpenAI încearcă să extindă AI-ul dincolo de software, către dispozitive fizice și sisteme autonome. Reacțiile negative nu s-au limitat la interiorul companiei. După anunțul acordului militar, dezinstalările aplicației ChatGPT ar fi crescut cu aproximativ 295% , iar aplicația rivală Claude , dezvoltată de Anthropic, a urcat pe primul loc în App Store din SUA. OpenAI a declarat că acordul cu Pentagonul include limite clare, printre care interdicția folosirii AI pentru supraveghere internă în masă sau arme autonome , și a subliniat că va continua dialogul cu angajații și societatea civilă privind utilizarea responsabilă a tehnologiei. [...]

Administrația Trump pregătește reguli care obligă furnizorii de AI ai statului să acorde o licență irevocabilă , potrivit Biziday , care citează un draft guvernamental consultat de Financial Times. Proiectul vizează companiile ce semnează contracte cu guvernul federal și ar impune ca modelele lor să poată fi folosite de SUA „în toate situațiile permise de lege”, adică „pentru orice scop legal”, în limitele cadrului juridic american. Draftul este elaborat de GSA, agenția federală responsabilă de achizițiile publice, și face parte dintr-un plan mai amplu de standardizare a modului în care instituțiile statului cumpără servicii de inteligență artificială. Un oficial familiarizat cu subiectul a spus pentru Financial Times că abordarea este similară cu măsurile analizate pentru contractele militare, ceea ce sugerează o extindere a regulilor din zona apărării către întregul aparat federal. Pe lângă licența irevocabilă, documentul introduce cerințe de „neutralitate ideologică” pentru instrumentele livrate către agențiile federale. În forma descrisă, companiile ar trebui să furnizeze sisteme „neutre și non-partizane” și să nu favorizeze ideologii precum diversitatea, echitatea și incluziunea, iar dezvoltatorii nu ar trebui să „integreze intenționat judecăți partizane sau ideologice în rezultatele sistemelor AI”. Un alt punct cu impact direct asupra furnizorilor internaționali sau a celor care operează pe mai multe piețe este obligația de transparență privind adaptările făcute pentru alte jurisdicții. Draftul cere companiilor să dezvăluie dacă modelele au fost modificate pentru a respecta reglementări externe, inclusiv legislația europeană, precum Digital Services Act (DSA), act normativ al UE care stabilește obligații pentru platforme și servicii digitale. Contextul politic și comercial al acestor reguli este conflictul recent dintre Pentagon și Anthropic. Săptămâna trecută, Departamentul Apărării a anunțat anularea unui contract de 200 de milioane de dolari după ce Anthropic ar fi refuzat utilizarea nelimitată a tehnologiei sale, invocând riscuri de supraveghere în masă și dezvoltarea armelor autonome letale. Compania a cerut clauze speciale de protecție, însă secretarul apărării, Pete Hegseth, a susținut că obiectivul real ar fi fost obținerea unui drept de veto asupra deciziilor operaționale ale armatei; ulterior, Casa Albă a desemnat Anthropic drept „un risc pentru lanțul de aprovizionare”. „Inteligența artificială are un rol important în securitatea națională, însă supravegherea americanilor fără control judiciar și utilizarea autonomiei letale fără autorizare umană sunt limite care meritau o analiză mai aprofundată.” În paralel, șefa diviziei de robotică de la OpenAI, Caitlin Kalinowski, și-a anunțat demisia sâmbătă, invocând îngrijorări legate de acordul companiei cu Pentagonul și spunând că nu a existat suficient timp pentru a evalua implicațiile implementării modelelor pe rețele cloud clasificate. OpenAI a răspuns că acordul include măsuri de protecție suplimentare și că „liniile sale roșii” interzic utilizarea tehnologiei pentru supraveghere internă sau pentru arme autonome, adăugând că va continua dialogul cu angajații, autoritățile și societatea civilă. Din perspectiva reglementării contractelor federale pentru AI, draftul descris ar împinge piața către condiții mai dure pentru furnizori, în special pe trei direcții: licență irevocabilă acordată guvernului SUA pentru utilizarea sistemelor „în toate situațiile permise de lege”; cerințe de „neutralitate ideologică” și interdicția de a introduce deliberat judecăți partizane în rezultate; obligația de a declara dacă modelele au fost ajustate pentru a respecta reguli din alte jurisdicții, inclusiv DSA din UE. În ultimul an, agenția americană a încheiat acorduri cu OpenAI, Meta, xAI și Google pentru a oferi modele AI agențiilor guvernamentale la costuri reduse, ceea ce ridică miza acestor reguli: ele pot deveni un standard de facto pentru accesul la contracte federale. Dacă draftul va fi adoptat în forma descrisă, companiile de AI vor trebui să aleagă între acceptarea unei utilizări foarte largi a modelelor în sectorul public și renunțarea la o parte din controlul contractual asupra modului în care tehnologia lor este folosită de stat. [...]

Claude, chatbotul dezvoltat de Anthropic, a devenit aplicația gratuită numărul 1 în App Store , iar compania spune că platforma câștigă peste un milion de utilizatori noi în fiecare zi , într-un context tensionat generat de disputa dintre firmă și administrația americană. Ascensiunea rapidă vine după ce guvernul SUA a decis să interzică folosirea tehnologiei Anthropic de către agențiile federale, potrivit unei analize publicate de The Decoder . Ascensiune rapidă pentru Claude Aplicația Claude a urcat spectaculos în clasamentele Apple App Store. Conform datelor Sensor Tower citate de presa internațională, aplicația se afla pe locul 131 în SUA la sfârșitul lunii ianuarie , a intrat în top 20 în februarie , iar pe 28 februarie a ajuns pe primul loc . Claude a devenit cea mai descărcată aplicație gratuită pentru iPhone în mai multe țări, printre care: Statele Unite Canada Germania Irlanda Luxemburg Reprezentanții Anthropic spun că fiecare zi din ultima săptămână a stabilit un nou record de înscrieri , iar numărul utilizatorilor gratuiti a crescut cu peste 60% din ianuarie . Disputa cu guvernul SUA Explozia de popularitate a venit după un conflict public între Anthropic și administrația americană. Pe 27 februarie , președintele Donald Trump a ordonat agențiilor federale să înceteze imediat utilizarea tehnologiei companiei. În paralel, Departamentul Apărării a catalogat Anthropic drept „risc pentru lanțul de aprovizionare al securității naționale” , ceea ce ar putea afecta colaborarea companiei cu contractorii militari. Decizia a venit după ce CEO-ul Anthropic, Dario Amodei , a refuzat să elimine două restricții importante din contractele companiei: interdicția utilizării AI pentru supravegherea în masă a cetățenilor americani interdicția folosirii AI pentru arme autonome fără control uman Reacția utilizatorilor și impactul asupra ChatGPT Decizia OpenAI de a prelua contractul militar pe care Anthropic îl respinsese a declanșat reacții negative din partea unor utilizatori. Datele Sensor Tower arată că: dezinstalările ChatGPT au crescut cu 295% într-o singură zi descărcările au scăzut cu 13% într-o zi și cu încă 5% în următoarea recenziile de o stea au crescut cu 775% CEO-ul OpenAI, Sam Altman , a admis ulterior că acordul cu Pentagonul a părut „oportunist și grăbit” , iar compania a adăugat ulterior mai multe garanții privind utilizarea tehnologiei. Viitor incert pentru Anthropic Situația rămâne însă incertă. Investitori majori ai companiei, printre care Amazon și Nvidia , ar fi îngrijorați de decizia guvernului american de a considera Anthropic un risc de securitate. Experți juridici citați de publicații precum Lawfare susțin că această desemnare ar putea fi contestată în instanță, mai ales deoarece guvernul american a folosit anterior tehnologia companiei în diverse proiecte. Anthropic a anunțat deja că va contesta decizia în instanță , iar disputa ar putea avea efecte importante asupra pieței globale de inteligență artificială. O lecție pentru industria AI Episodul arată că, într-un moment în care societatea devine tot mai preocupată de modul în care este folosită inteligența artificială, poziționarea etică a companiilor poate deveni un avantaj competitiv major . Pentru moment, această strategie pare să fi adus companiei Anthropic o creștere explozivă a popularității. [...]

ChatGPT a înregistrat o creștere de 295% a dezinstalărilor într-o singură zi , pe 28 februarie 2026, imediat după anunțul privind un acord între OpenAI și Pentagon, potrivit Știrile ProTV . Datele companiei de analiză Sensor Tower arată că reacția utilizatorilor a fost aproape instantanee, în contextul în care armata americană a decis să înlocuiască sistemul Claude, dezvoltat de Anthropic , cu ChatGPT. În aceeași zi în care OpenAI a confirmat înțelegerea, numărul dezinstalărilor a explodat, iar efectele s-au văzut rapid și în alte statistici: instalările ChatGPT au scăzut cu 13% și 5% în ultimele două zile din februarie; recenziile cu o singură stea au crescut cu 775%; aplicația Claude a înregistrat o creștere a instalărilor de 37% pe 27 februarie și de 51% pe 28 februarie. Contextul tensiunii ține de condițiile în care tehnologia ar putea fi utilizată. Anthropic ar fi refuzat folosirea lui Claude pentru dezvoltarea armelor autonome și pentru programe de supraveghere în masă. În schimb, OpenAI a acceptat utilizarea ChatGPT „în toate scopurile legale”, formulare care a stârnit nemulțumiri în rândul unei părți a utilizatorilor, mai ales pe fondul opoziției față de politicile Pentagonului din actuala administrație americană. Inițial, conducerea OpenAI a susținut că termenii acordului sunt similari celor care au generat divergențe între Pentagon și Anthropic. Ulterior însă, directorul companiei a admis că grăbirea încheierii înțelegerii a fost o greșeală și a anunțat că termenii vor fi renegociați. Episodul arată cât de sensibilă rămâne relația dintre marile companii de inteligență artificială, instituțiile militare și publicul larg, într-un moment în care tehnologia este tot mai prezentă în decizii cu impact strategic și etic major. [...]

Claude a depășit ChatGPT în descărcările din SUA după refuzul unui contract militar , potrivit Android Headlines . Aplicația dezvoltată de Anthropic a urcat pe primul loc în clasamentul Apple App Store din Statele Unite, pe fondul reacțiilor critice la adresa OpenAI, care a acceptat un acord similar cu autoritățile americane din domeniul apărării. Creșterea vine după ce Anthropic a anunțat că nu poate finaliza un parteneriat cu Departamentul de Război al SUA, invocând lipsa unor garanții suficiente privind utilizarea inteligenței artificiale în supraveghere în masă și arme autonome. Conducerea companiei a indicat că limitele etice legate de utilizarea militară au stat la baza deciziei. În paralel, OpenAI a confirmat un acord pentru furnizarea tehnologiei ChatGPT către structuri guvernamentale, susținând că a primit asigurări privind respectarea principiilor de siguranță. Cu toate acestea, pe forumuri și rețele sociale au apărut mesaje critice din partea utilizatorilor, care se declară preocupați de implicarea politică și militară în dezvoltarea inteligenței artificiale. Potrivit Axios , Claude a depășit temporar ChatGPT la ritmul descărcărilor din SUA. Controversa a căpătat și o dimensiune politică după ce președintele Donald Trump a criticat public Anthropic și a cerut agențiilor federale să renunțe la instrumentele sale. Totuși, conform relatărilor din The Wall Street Journal , sistemele Anthropic sunt încă utilizate în anumite structuri, iar o tranziție completă către alte soluții ar putea dura luni. Episodul arată că, dincolo de performanțele tehnice, încrederea publică și poziționarea etică influențează rapid preferințele utilizatorilor într-o piață a inteligenței artificiale tot mai sensibilă la deciziile politice. [...]