Știri
Știri din categoria Inteligență artificială

Neuralink riscă să rămână în urmă dacă mizează pe „cursorul controlat cu mintea”, în timp ce domeniul se mută spre refacerea vorbirii, arată o analiză publicată de The Verge. Ideea centrală: interfețele creier–calculator (BCI) care traduc gândurile direct în vorbire par să aibă un potențial mai mare pentru pacienți decât cele care controlează un cursor pe ecran, iar competiția ar fi avansat deja pe această direcție.
Textul notează că produsele Neuralink au fost până acum „brain-to-cursor” — sisteme care permit controlul unui mouse cu ajutorul activității cerebrale. În paralel, competitori ai companiei ar fi accelerat dezvoltarea unor BCI care transformă intenția de a vorbi în rezultate de tip „gând–la–vorbire”, adică redarea cuvintelor pe ecran pe baza semnalelor neuronale asociate vorbirii.
Analiza pune accent pe diferența de „comportament” pe care încearcă să îl reproducă aceste tehnologii. Deși toate BCI-urile conectează creierul la un computer (prin cabluri sau Bluetooth) și încearcă să interpreteze „impulsurile” electrice ale neuronilor, miza este ce rezultat final obțin pentru pacient: navigare cu un cursor sau comunicare prin vorbire.
În acest context, publicația susține că abordarea orientată spre vorbire este „mai promițătoare” și că ar fi fost suficient de convingătoare încât Neuralink să investească discret în BCI-uri axate pe vorbire — un semnal că direcția inițială ar putea să nu fie cea mai eficientă pentru aplicații medicale cu impact imediat.
Articolul reamintește că Elon Musk a asociat Neuralink cu promisiuni foarte ambițioase — de la „abilități supraomenești” la fuziunea minții cu inteligența artificială — însă susține că obiectivele rămân departe, pe fondul limitărilor științifice și al complexității creierului uman. În același timp, analiza menționează un „istoric sumbru” al implanturilor la maimuțe și „un anumit succes” la subiecți umani, fără a detalia cifre sau rezultate clinice.
Ce urmează, în logica materialului: presiunea competitivă și utilitatea clinică ar putea împinge Neuralink să își recalibreze prioritățile de produs, de la controlul cursorului către soluții care vizează direct restaurarea comunicării prin vorbire.
Recomandate

Echipa lui Elon Musk recrutează în Europa pentru „antrenarea” lui Grok, cu un venit de până la 260 de euro pe zi (aprox. 1.300 lei), semn că dezvoltarea AI se sprijină încă masiv pe muncă umană specializată, inclusiv în zona de conținut vizual. Informațiile apar în Libertatea , care citează publicația italiană Il Fatto Quotidiano . Rolul este unul remote și, potrivit articolului, vizează în primă fază recrutări în Italia. Plata „poate ajunge” la circa 260 de euro pe zi, în funcție de numărul de zile lucrate, ceea ce sugerează un model de colaborare flexibil, legat de volum. Ce presupune munca, concret Jobul nu este descris ca unul de programare. Sarcina principală este lucrul cu conținut vizual pentru a îmbunătăți modul în care Grok „înțelege”: imagini; videoclipuri; conținut 3D. Activitățile menționate includ etichetarea, adnotarea și explicarea conținutului vizual, astfel încât sistemul să poată interpreta corect ceea ce „vede”. Andrea Stroppa, prezentat ca un colaborator apropiat al lui Musk în Italia, spune că rolul presupune contribuții directe la proiecte multimedia, unde contextul și sensul imaginilor trebuie explicate în detaliu. De ce contează economic: AI „multimodal” înseamnă costuri recurente cu oameni Deși AI este asociată cu automatizarea, articolul punctează că, pentru a-și crește performanța, are nevoie de intervenție umană. Libertatea notează, citând Wired, că obiectivul proiectului este îmbunătățirea capacităților „multimodale” ale lui Grok — adică abilitatea de a procesa simultan text, imagini și alte tipuri de conținut. În același context, Grok este prezentat ca o alternativă la ChatGPT, cu un stil „mai direct” și mai puțin „politically correct”. Proiectul este plasat în competiția cu rivalii, iar AI-ul dezvoltat în jurul platformei X este evaluat la peste 40 de miliarde de dolari, potrivit articolului. Cine poate aplica și ce urmează Profilurile căutate sunt, în special, din zone creative și tehnice: fotografi, designeri, experți video, animație 3D și post-producție. Pe termen scurt, echipa lui Musk „ar putea” extinde recrutările și către alte domenii, inclusiv finanțe și științe umaniste, mai notează sursa. Articolul nu oferă detalii despre numărul de posturi, durata proiectului sau condițiile contractuale, astfel că amploarea recrutării rămâne neclară. [...]

Administrația Trump împinge marile bănci americane spre testarea AI-ului Anthropic , deși Pentagonul a încercat să blocheze compania , într-un episod care riscă să creeze incertitudine de reglementare și operațională pentru instituțiile financiare care adoptă rapid tehnologia, potrivit The Next Web . Secretarul Trezoreriei, Scott Bessent, și președintele Rezervei Federale, Jerome Powell, au chemat în această săptămână executivi de la JPMorgan Chase, Goldman Sachs, Citigroup, Bank of America și Morgan Stanley și i-au îndemnat să folosească modelul „Mythos” al Anthropic pentru a identifica vulnerabilități de securitate cibernetică în propriile sisteme, conform Bloomberg, citat de publicație. Recomandarea vine în timp ce Departamentul Apărării se află în litigiu cu Anthropic, după ce a etichetat compania drept „risc pentru lanțul de aprovizionare”, ceea ce o exclude de la contracte militare. De ce contează: semnale contradictorii de la același guvern Contradicția este una de politică publică cu efect direct asupra pieței: aceeași administrație care a încercat să scoată Anthropic din zona de apărare încurajează acum sistemul financiar să se bazeze pe tehnologia sa pentru securitate. În centrul disputei cu Pentagonul se află refuzul Anthropic de a elimina două restricții de siguranță din modelele sale: interdicția utilizării în arme complet autonome și interdicția folosirii pentru supravegherea în masă a cetățenilor americani. Potrivit articolului, conflictul a escaladat în februarie, când secretarul Apărării Pete Hegseth i-ar fi dat CEO-ului Anthropic, Dario Amodei, un termen limită pentru a renunța la aceste restricții, în caz contrar compania riscând pierderea unui contract de apărare de 200 milioane de dolari (aprox. 920 milioane lei). Amodei a refuzat, iar ulterior a urmat desemnarea ca „risc pentru lanțul de aprovizionare” și un ordin al președintelui Trump ca agențiile federale să nu mai folosească tehnologia Anthropic. În instanță, situația a rămas mixtă: un judecător federal din California a emis o ordonanță preliminară care blochează desemnarea, însă o curte de apel din Washington, D.C. a respins cererea Anthropic de a opri temporar „blacklisting”-ul pe durata procesului. Efectul practic descris de publicație: Anthropic este exclusă din contractele Departamentului Apărării, dar poate lucra în continuare cu alte agenții guvernamentale. Ce este Mythos și de ce nu e disponibil public „Claude Mythos Preview” este prezentat ca un model de vârf („frontier model”), pe care Anthropic spune că nu l-a antrenat explicit pentru securitate cibernetică; capacitatea de a găsi vulnerabilități ar fi apărut ca efect al îmbunătățirilor generale în raționamentul pe cod și operare autonomă. În testare, modelul ar fi identificat „mii” de vulnerabilități „zero-day” (defecte necunoscute anterior dezvoltatorilor) în principalele sisteme de operare și browsere. Anthropic nu a lansat public modelul, ci l-a inclus într-un program restricționat, „ Project Glasswing ”, care oferă acces către aproximativ 50 de organizații. Lista menționată include, între altele, Amazon Web Services, Apple, Google, Microsoft, Nvidia, Cisco, CrowdStrike, Palo Alto Networks și JPMorgan Chase. Ca parte a inițiativei, Anthropic ar fi angajat până la 100 milioane de dolari (aprox. 460 milioane lei) în credite de utilizare și 4 milioane de dolari (aprox. 18,4 milioane lei) în donații către organizații de securitate open-source. Publicația notează însă și scepticismul din piață: Tom’s Hardware a pus sub semnul întrebării afirmațiile despre „mii” de descoperiri severe, arătând că acestea s-ar baza pe 198 de evaluări manuale și că multe vulnerabilități semnalate ar fi în software mai vechi sau greu de exploatat. În plus, o parte a comunității de securitate ar vedea lansarea restricționată și ca o tactică comercială de tip „scarcity” (crearea artificială a rarității) pentru clienți mari. Ce testează băncile și ce urmează pe partea de supraveghere JPMorgan Chase este menționată ca partener oficial în Project Glasswing, iar Bloomberg (citat de articol) susține că Goldman Sachs, Citigroup, Bank of America și Morgan Stanley testează intern Mythos. Cazurile de utilizare raportate includ: detectarea vulnerabilităților; semnalarea riscurilor de fraudă; automatizarea fluxurilor de lucru de conformitate (compliance) în sistemele financiare. Pe partea de reglementare, reacția descrisă nu se limitează la SUA. Financial Times, citat de The Next Web, relatează că autorități din Marea Britanie – Bank of England, Financial Conduct Authority și HM Treasury – discută cu National Cyber Security Centre pentru a evalua riscurile și vulnerabilitățile evidențiate de Mythos, iar reprezentanți ai unor bănci, asigurători și burse ar urma să fie informați în următoarele două săptămâni. În ansamblu, episodul arată cum adoptarea accelerată a AI-ului în infrastructura financiară poate avansa mai repede decât coerența deciziilor guvernamentale: pentru bănci, recomandarea venită simultan de la Trezorerie și Fed cântărește operațional, chiar dacă o altă ramură a administrației încearcă să limiteze aceeași companie. [...]

Anthropic discută cu administrația Trump despre modelul său AI de vârf, Mythos, chiar dacă Pentagonul i-a tăiat accesul la contracte pe fondul unui litigiu privind condițiile de utilizare militară , potrivit Reuters . Miza este una de reglementare și guvernanță: cum ajunge un model „de frontieră” (frontier AI) în dialog cu statul, în timp ce o agenție-cheie îl tratează drept risc de securitate în lanțul de aprovizionare. Cofondatorul Anthropic, Jack Clark , a spus luni, la evenimentul Semafor World Economy din Washington, că firma discută cu administrația despre Mythos și că va discuta și despre modelele viitoare, în pofida disputei contractuale cu Pentagonul. El a descris conflictul drept unul „îngust”, dar a insistat că nu ar trebui să blocheze cooperarea pe teme de securitate națională. „Avem o dispută contractuală îngustă, dar nu vreau ca asta să stea în calea faptului că ne pasă profund de securitatea națională.” De ce contează: „gardurile de protecție” pentru utilizarea militară Reuters arată că disputa dintre Anthropic și Pentagon a pornit de la „guardrails” – condiții și limitări privind modul în care armata ar putea folosi instrumentele de inteligență artificială ale companiei. În urma conflictului, agenția a etichetat Anthropic luna trecută drept „risc în lanțul de aprovizionare”, interzicând utilizarea produselor sale atât în Pentagon, cât și la contractori. În paralel, natura și detaliile discuțiilor dintre Anthropic și guvernul SUA – inclusiv ce agenții sunt implicate – nu erau clare imediat, potrivit aceleiași surse. Context: ce este Mythos și de ce ridică probleme de securitate cibernetică Mythos a fost anunțat pe 7 aprilie și este prezentat de companie drept cel mai capabil model al său pentru programare și „sarcini agentice” – adică activități pe care modelul le poate executa autonom. Experți citați de Reuters spun că abilitatea de a scrie cod la nivel înalt ar putea oferi modelului o capacitate potențial fără precedent de a identifica vulnerabilități de securitate cibernetică și de a găsi modalități de exploatare a acestora. Ce urmează: bătălia juridică rămâne deschisă Un complet federal de apel din Washington, D.C., a refuzat săptămâna trecută să blocheze, deocamdată, decizia Pentagonului de a trece Anthropic pe lista de „blacklisting” pe criterii de securitate națională, o victorie pentru administrația Trump. Reuters notează că decizia vine după ce o altă instanță de apel a ajuns la concluzia opusă într-o contestație separată inițiată de Anthropic. [...]

John Giannandrea , șeful strategiei de AI și învățare automată la Apple, pleacă din companie săptămâna aceasta , potrivit PhoneArena , care citează informații din newsletterul Power On al lui Mark Gurman. Plecarea închide un capitol început în 2018, când CEO-ul Tim Cook l-a recrutat de la Google pentru a conduce eforturile Apple în inteligență artificială (AI) și învățare automată (machine learning). Giannandrea a fost, în ultimii opt ani, vicepreședinte senior responsabil de strategia de AI și machine learning, iar momentul-cheie al mandatului său a venit în 2024, când Apple a prezentat la WWDC 2024 (Worldwide Developers Conference) suita de funcții „Apple Intelligence” și planurile pentru un Siri refăcut. Conform relatării, livrarea acestor produse nu a decurs lin, iar rolul lui Giannandrea în coordonarea dezvoltării AI ar fi fost redus semnificativ în lunile dinaintea anunțului privind plecarea. În interpretarea lui Gurman, problemele Apple cu Apple Intelligence și Siri nu ar fi neapărat rezultatul unei „greșeli personale” a lui Giannandrea, ci al modului în care este condusă compania. „Vârful Apple este condus ca o mică afacere de familie, iar oamenii din afară precum Giannandrea nu sunt împuterniciți suficient pentru a produce schimbări reale”, susține Mark Gurman, citat de PhoneArena. Calendarul plecării pare legat și de compensația în acțiuni: Gurman afirmă că pe 15 aprilie urmează să se consolideze (vest) acțiuni Apple, iar acesta ar fi motivul pentru care Giannandrea ar fi așteptat până acum. Tot el spune că ultimele zile ale lui Giannandrea la Apple se încheie „săptămâna aceasta”. Pentru piață, miza este dublă: pe de o parte, Apple își reorganizează conducerea într-un moment în care AI a devenit o componentă centrală a produselor și a competiției din tehnologie; pe de altă parte, plecarea unui executiv adus special pentru această zonă ridică întrebări despre capacitatea companiei de a accelera refacerea lui Siri și livrarea funcțiilor promise. PhoneArena mai notează, tot pe baza informațiilor lui Gurman , că este puțin probabil ca Giannandrea să se alăture curând unei alte mari companii de tehnologie; planul ar fi să facă activitate de consiliere în zona startup-urilor. În paralel, publicația amintește că, la început, conducerea Apple ar fi fost reticentă față de AI, iar șeful diviziei software, Craig Federighi, ar fi devenit mai favorabil după ce a folosit AI pentru a scrie cod într-o seară. Pe scurt, din informațiile prezentate de sursă, principalele repere ale acestui episod sunt: Giannandrea a fost recrutat în 2018 de la Google pentru a conduce AI și machine learning la Apple. În 2024, Apple a prezentat la WWDC suita „Apple Intelligence” și direcția pentru un nou Siri, dar implementarea a avut sincope. Rolul lui Giannandrea ar fi fost redus înainte ca plecarea să fie anunțată, iar ieșirea efectivă are loc în această săptămână, în jurul datei de 15 aprilie (consolidarea acțiunilor). Potrivit lui Gurman, el ar urma să se orienteze spre consiliere pentru startup-uri, nu spre o nouă poziție într-un gigant tech. [...]

Un sondaj citat de TechRadar indică sabotaj intern la implementările AI , pe fondul temerilor legate de pierderea locurilor de muncă și al unei tensiuni tot mai vizibile între management și angajați: 29% dintre salariați ar „sabotaja activ” introducerea instrumentelor de inteligență artificială în companie, procentul urcând la 44% în rândul Generației Z. Ce arată raportul despre adopția AI în companii Datele provin dintr-un raport (PDF) realizat de Writer (firmă de „agenți AI” pentru companii) și Workplace Intelligence. Conform materialului, formele de „sabotaj” menționate includ: refuzul de a folosi instrumente AI impuse de companie; introducerea de informații proprietare ale companiei în sisteme AI publice, ca metodă de a compromite implementarea. TechRadar notează că o parte dintre angajații care se simt amenințați de AI aleg să nu utilizeze aceste instrumente, chiar și atunci când sunt cerute explicit. Riscul operațional: conflictul cu managementul și costul în carieră Raportul indică și o reacție dură din partea conducerii: 77% dintre executivi spun că ar fi mai puțin dispuși să ofere promovări sau roluri de leadership angajaților care evită instrumentele AI. În termeni operaționali, asta sugerează că adopția AI nu mai este doar o decizie tehnologică, ci devine un criteriu de evaluare și selecție internă, cu potențial de a amplifica tensiunile în organizații. Context: avertismente despre joburi și percepția publică În ianuarie 2026, la World Economic Forum, CEO-ul și cofondatorul Palantir, Alex Karp, a spus că AI „va distruge locurile de muncă din umaniste”, dar va avantaja piața pentru persoane cu pregătire vocațională și creativă. În același registru, CEO-ul Anthropic, Dario Amodei, a avertizat (potrivit TechRadar) că AI ar putea distruge jumătate dintre joburile „entry level” de tip white-collar. Materialul mai citează: un sondaj NBC News potrivit căruia 46% dintre alegătorii înregistrați din SUA au o opinie negativă despre AI, față de 26% cu opinie pozitivă; un studiu Anthropic (martie) care arată că modelul Claude poate realiza majoritatea sarcinilor asociate unor joburi din informatică, drept, business și finanțe. Într-un interviu pentru Axios , Karp este citat astfel: „Dacă ești genul de persoană care ar fi mers la Yale, clasic cu IQ mare, și ai cunoștințe generaliste, dar nu specifice, ești terminat.” De ce contează pentru companii Dincolo de dezbaterea despre piața muncii, datele din raport indică un risc imediat pentru implementările AI: rezistența internă poate lua forme care afectează direct proiectele (adopție scăzută, utilizare neconformă) și poate crea probleme de guvernanță a datelor, atunci când informații ale companiei ajung în sisteme publice. TechRadar sugerează că mesajul transmis de lideri și executivi este unul de adaptare forțată: angajații care nu folosesc AI pot fi penalizați în evoluția profesională, în timp ce o parte dintre cei mai tineri angajați încearcă să blocheze sau să încetinească schimbarea. [...]

SK Telecom își mută accentul pe inferență și eficiență energetică în centrele AI , printr-o soluție de server care combină procesoare CPU și acceleratoare NPU, dezvoltată împreună cu Arm și startup-ul Rebellions , potrivit The Elec . Miza este reducerea costurilor și creșterea competitivității operaționale în centrele de date pentru inteligență artificială, într-un moment în care industria se mută de la antrenarea modelelor la rularea lor în timp real. SK Telecom spune că a semnat pe 9 aprilie un memorandum de înțelegere cu Arm și Rebellions pentru colaborare pe infrastructură AI. În cadrul acordului, companiile vor dezvolta o soluție de server care integrează „Arm AGI CPU” cu viitorul NPU „RebelCard” al Rebellions, cu obiectivul de a îmbunătăți performanța la inferență (adică rularea modelelor AI pentru a genera răspunsuri/predicții). Soluția urmează să fie testată în centrele AI ale SK Telecom. De ce contează: inferența rulează continuu, iar energia devine cost Publicația notează că, pe măsură ce serviciile AI sunt livrate în timp real, accentul infrastructurii se mută de la „putere brută” către servicii rapide, eficiente ca preț și cu consum mai mic de energie. Cum sarcinile de inferență rulează continuu, eficiența energetică se traduce direct în costuri operaționale și, implicit, în competitivitate. În acest context, SK Telecom argumentează că, deși plăcile grafice (GPU) pot rula astfel de sarcini, ele pot fi ineficiente energetic pentru inferență, ceea ce alimentează interesul pentru cipuri specializate precum NPU-urile (unități de procesare neuronală), optimizate pentru acest tip de lucru. Cum arată arhitectura: CPU pentru „orchestrare”, NPU pentru calculele AI Soluția propusă pornește de la ideea de „calcul eterogen” (folosirea mai multor tipuri de procesoare în același sistem). În servicii AI reale, pe lângă calculele modelului, trebuie rulate și operațiuni generale precum: intrare/ieșire de date, comunicații de rețea, administrarea memoriei, programarea sarcinilor (workload scheduling). Conform articolului, CPU-urile gestionează aceste operațiuni generale și coordonarea sistemului, în timp ce NPU-urile se ocupă de inferență, pentru a crește eficiența și performanța ansamblului. Ce urmează: testare în centrele SKT și posibilă rulare a propriului model SK Telecom spune că intenționează să implementeze soluția în centrele sale AI pentru a verifica performanța și stabilitatea. Compania ia în calcul și operarea propriului model de tip „foundation model” (model de bază, antrenat pe volume mari de date și adaptabil la mai multe sarcini), A.X K1, pe noua platformă de server. [...]