Știri
Știri din categoria Inteligență artificială

Apple ar putea transforma Apple Intelligence într-o platformă cu mai mulți furnizori de modele AI, ceea ce ar schimba concret modul în care utilizatorii aleg și folosesc funcțiile de inteligență artificială pe iPhone, iPad și Mac, potrivit Mobilissimo.
Informația vizează iOS 27, iPadOS 27 și macOS 27, unde Apple ar urma să permită integrarea directă, la nivel de sistem, a unor modele AI dezvoltate de terți, nu doar a ChatGPT, singura opțiune „third-party” (de la un furnizor extern) integrată oficial până acum.
Potrivit articolului, noile integrări ar fi descrise drept „Extensions”, iar utilizatorii ar putea selecta modelul preferat direct din aplicația Settings, după instalarea unei aplicații compatibile din App Store. Miza operațională este că aceeași funcție din sistem ar putea rula pe modele diferite, în funcție de preferințe și de ce aplicații sunt instalate pe dispozitiv.
Conform informațiilor citate de Mobilissimo din Bloomberg, Apple ar testa deja intern integrarea unor modele dezvoltate de Google și Anthropic.
Dacă suportul pentru mai mulți furnizori ajunge în versiunea finală, schimbările ar putea afecta inclusiv funcții centrale ale Apple Intelligence, precum:
Un detaliu menționat este că Apple ar putea introduce voci diferite pentru Siri, în funcție de modelul AI folosit (de exemplu, o voce distinctă pentru modelul propriu Apple față de una asociată unui model extern).
Mutarea ar sugera o schimbare de abordare: Apple ar accepta că ritmul de evoluție al AI este prea rapid pentru a rămâne limitată la propriile modele și ar încerca să transforme Apple Intelligence într-o „platformă” compatibilă cu mai mulți furnizori, în loc să mizeze pe o singură integrare externă.
Deocamdată, nu există informații oficiale despre lista completă de modele compatibile sau despre condițiile pe care Apple le-ar putea impune dezvoltatorilor. Mobilissimo notează că, dacă funcția va fi inclusă în iOS 27, utilizatorii ar putea avea pentru prima dată control direct asupra modelului AI folosit în sistemul de operare.
Recomandate

Google pregătește pentru macOS un agent Gemini care poate prelua controlul asupra computerului și automatiza organizarea fișierelor , o extindere cu impact operațional direct asupra modului în care utilizatorii își gestionează documentele și fluxurile de lucru în Google Workspace , potrivit 9to5Google . În prezent, aplicația Gemini pentru macOS are două funcții principale: o interfață nativă de chat (similară celei web) și o comandă rapidă „alt-space” care deschide Gemini din orice aplicație. Această a doua funcție permite și partajarea ferestrei curente cu Gemini, oferind asistentului context vizual despre sarcina în desfășurare. Ce ar urma să facă agentul: fișiere locale + integrare cu Workspace O analiză a echipei „APK Insight” a publicației indică faptul că Google plănuiește să extindă prezența Gemini pe Mac printr-un mod de utilizare „agentic” (adică un asistent care execută pași în numele utilizatorului), similar cu ceea ce oferă Claude Cowork. 9to5Google descrie patru exemple de comenzi (prompts) care conturează direcția produsului: Conversia fișierelor într-un tabel : scanarea unui folder local (de tip facturi sau rapoarte), extragerea datelor și structurarea lor într-un Google Sheet. Organizarea folderelor : identificarea fișierelor neorganizate din Desktop sau Downloads, gruparea lor după tip sau context și arhivarea „dezordinii”. Standardizarea fișierelor : citirea metadatelor și redenumirea în masă a unui număr mare de fișiere, cu rearanjare în subfoldere mai ușor de înțeles. „Închiderea buclei” după ultima ședință : preluarea celui mai recent transcript Meet sau a notițelor dintr-un document și redactarea unui e-mail de follow-up cu idei și acțiuni. Primele trei scenarii pun accent pe fișierele locale și pe transferul structurii rezultate în aplicații din Google Workspace, în timp ce al patrulea mută accentul spre aplicații Google precum Meet, Docs și Gmail. Cum ar funcționa tehnic: acces la ecran și funcții de accesibilitate Conform publicației, aceste capabilități ar urma să se bazeze pe „Screen Access” și pe funcțiile de accesibilitate din macOS, pentru ca Gemini să poată „vedea” ecranul și să controleze mouse-ul și tastatura. Practic, miza este automatizarea unor sarcini repetitive (organizare, redenumire, extragere de date) direct pe computer, nu doar răspunsuri în chat. De ce contează: productivitate și competiție directă cu Claude Din perspectiva utilizării, un astfel de agent ar transforma Gemini pe macOS dintr-o aplicație de conversație într-un instrument de execuție a sarcinilor, cu efect imediat asupra productivității, mai ales în organizații care folosesc intens Google Workspace. 9to5Google notează și un contrast cu Android: pe telefoane, doar un subset redus de dispozitive (exemplul dat este seria Galaxy S26) poate cere lui Gemini să automatizeze sarcini simple în aplicații, precum comandarea de mâncare. Pe Mac, ambiția pare mai mare, iar Google ar urmări să poziționeze Gemini ca rival direct pentru Claude Cowork, pe fondul experimentelor anterioare cu zona de „computer use” din previzualizarea Gemini 2.5. [...]

Premierul Italiei avertizează că deepfake-urile pot manipula opinia publică , după ce a redistribuit pe Instagram o fotografie falsă cu ea, generată cu ajutorul inteligenței artificiale, potrivit G4Media . Mesajul Giorgiei Meloni mută discuția din zona „incidentelor” individuale spre riscul operațional al dezinformării: conținutul sintetic (generat de AI) poate fi folosit ca instrument de atac și influențare, cu efecte care depășesc persoana vizată. Meloni spune că în ultimele zile au circulat „mai multe fotografii false” cu ea, „create cu ajutorul inteligenței artificiale” și prezentate ca autentice. Ea afirmă că, în cazul imaginii redistribuite, autorul „a și înfrumusețat-o”, dar subliniază că miza rămâne folosirea oricărui mijloc „doar pentru a ataca și a inventa minciuni”. „Deepfake-urile sunt un instrument periculos, deoarece pot înșela, manipula și afecta pe oricine.” De ce contează: riscul se mută de la reputație la manipulare În postarea citată, premierul italian insistă că problema „depășește sfera” personală: astfel de falsuri pot induce în eroare și pot fi redistribuite rapid, amplificându-și impactul. Meloni își construiește mesajul în jurul unei reguli de igienă informațională, pe care o formulează explicit: „verifică înainte să crezi și crede înainte să distribui”. Totodată, ea atrage atenția asupra asimetriei de putere: „Eu pot să mă apăr. Mulți alții nu pot”, sugerând că țintele fără vizibilitate publică sau resurse pot fi mai vulnerabile la astfel de atacuri. Context: episoade anterioare și legătura cu politica Materialul amintește că nu este prima dată când utilizarea inteligenței artificiale sau a conținutului manipulat intersectează politica. Potrivit informațiilor prezentate, în urmă cu cinci ani, când Meloni era lidera partidului FdI, chipul ei a fost folosit într-un filmuleț pornografic publicat pe un site pentru adulți, iar doi bărbați (tată și fiu) au ajuns ulterior în fața instanței. De asemenea, articolul menționează că în februarie anul trecut, înaintea votului pentru referendumul privind justiția, a existat „o avalanșă de știri false” pe rețelele sociale, în favoarea votului „da”, inclusiv prin „sute de profiluri” care au postat comentarii cu fraze identice, hashtag-uri similare și sloganuri repetate. [...]

Cinci dintre cele mai mari edituri atacă în instanță strategia Meta de a antrena Llama pe conținut piratat, într-un dosar construit explicit pe „dovada” de impact economic pe care judecătorul a spus că o așteaptă — potrivit The Next Web , Elsevier, Cengage, Hachette, Macmillan și McGraw Hill, alături de scriitorul Scott Turow, au depus marți, la un tribunal federal din Manhattan, o acțiune colectivă propusă împotriva Meta. Plângerea susține că Meta ar fi „piratat milioane” de cărți și articole științifice pentru a-și antrena modelele de limbaj Llama, fără permisiune, plată sau licență. Reclamanții cer certificarea cauzei ca acțiune colectivă, în numele altor deținători de drepturi aflați în situații similare. Reuters a relatat despre acest dosar, notează publicația. Miza depășește un nou episod din seria proceselor privind drepturile de autor în antrenarea inteligenței artificiale: cazul este construit să testeze direct punctul vulnerabil identificat de instanță într-un litigiu anterior câștigat de Meta — dovada de „prejudiciu de piață” (market harm), adică pierderi măsurabile de venituri cauzate de substituirea produselor editoriale de către răspunsurile unui model AI. De ce acest proces ar putea schimba jocul față de „ Kadrey v. Meta ” The Next Web arată că noul dosar diferă structural de „Kadrey v. Meta”, procesul intentat în 2023 în California de un grup de autori (printre care Sarah Silverman), care a acuzat Meta că ar fi descărcat cărți protejate de drepturi de autor din biblioteci pirat (LibGen, Z-Library, Anna’s Archive) pentru a antrena Llama. În iunie 2025, judecătorul Vince Chhabria a acordat Meta o hotărâre favorabilă pe baza excepției de „utilizare rezonabilă” (fair use) din dreptul american, considerând antrenarea suficient de „transformativă”. Însă, potrivit publicației, judecătorul a subliniat explicit limitele deciziei și a indicat că reclamanți viitori ar putea avea câștig de cauză dacă vin cu dovezi mai puternice privind prejudiciul de piață. Noul proces este conceput tocmai pe această linie, cu trei diferențe care, în lectura The Next Web, îi avantajează pe reclamanți: Amploarea catalogului : nu mai e vorba de un număr limitat de titluri ale unor autori, ci de operațiunile editoriale ale cinci companii cu pondere mare în publicarea academică, educațională și comercială. Dovezi de substituție și venituri : editurile academice și educaționale pot documenta mai ușor liniile de venit pe care un model AI le poate înlocui (de exemplu, când un student primește un răspuns care ar fi necesitat consultarea unui manual). Contextul pieței de licențiere : din 2023, au apărut mai multe acorduri de licențiere între companii AI și editori; Meta ar fi semnat astfel de acorduri cu Reuters, CNN, Fox News, People Inc. și USA Today. Existența acestor licențe poate cântări în analiza prejudiciului de piață, pentru că sugerează că există o piață de licențiere funcțională. Ce urmează și de ce contează pentru piața AI Dincolo de întrebarea juridică îngustă — dacă folosirea de materiale piratate pentru antrenarea Llama se încadrează la „fair use” — dosarul încearcă să stabilească dacă antrenarea modelelor generative poate funcționa fără o piață de licențiere robustă sau dacă licențele devin o componentă structurală a industriei. The Next Web notează că procedura va avansa lent: certificarea acțiunii colective, cereri de respingere, faze de judecată sumară și programarea unui proces pot dura, în mod obișnuit, 18–24 de luni . În acest interval, riscul pentru Meta este asimetric: o nouă victorie ar întări ideea că antrenarea pe corpuri de date piratate poate fi apărată ca „fair use” chiar și împotriva unor reclamanți industriali; o înfrângere ar putea crește costurile prin despăgubiri și remedii care să schimbe practicile de antrenare și negociere a licențelor în întreg sectorul. [...]

Anthropic mută automatizarea în zona de conformitate bancară , lansând un agent de investigații anti-spălare de bani (AML) care promite să reducă verificările din „ore sau zile” la „minute” și anunțând primele implementări la BMO și Amalgamated Bank, potrivit The Next Web . Miza este una operațională și de cost: AML este o categorie în care cheltuielile de conformitate au crescut rapid în bugetele băncilor, iar orice comprimare reală a timpilor de lucru poate schimba structura costurilor. Anunțurile au fost făcute la un eveniment Anthropic cu acces pe bază de invitație, „Briefing: Financial Services”, organizat la New York, la o zi după ce compania a comunicat un joint venture de 1,5 miliarde de dolari (aprox. 6,9 miliarde lei) pentru servicii enterprise cu Blackstone, Hellman & Friedman și Goldman Sachs. Ce a lansat Anthropic pentru finanțe Pachetul prezentat include: Claude Opus 4.7 , descris ca cel mai capabil model al companiei pentru sarcini specifice sectorului financiar; o bibliotecă de circa 10 agenți preconfigurați pentru fluxuri de lucru consumatoare de timp în banking și administrarea activelor (de la pitchbook-uri și analize de rezultate, la memorandumuri de credit, subscriere, KYC, închidere de lună, audituri de extrase și daune în asigurări); integrare completă cu Microsoft 365 ; un parteneriat extins de date , cu integrarea Moody’s direct în Claude. Agenții sunt livrați ca „arhitecturi de referință”, cu abilități, conectori și sub-agenți necesari pentru a rula fluxurile „cap-coadă”, nu doar ca un instrument de tip chat pentru întrebări punctuale. AML: piesa cu impact direct în bugetele de conformitate Elementul cu cea mai mare greutate operațională este parteneriatul cu FIS (furnizor listat de tehnologie bancară), care a construit pe Claude un Financial Crimes AI Agent pentru investigații AML. Conform FIS, „problema globală” a criminalității financiare se ridică la aproximativ 40 miliarde de dolari anual (aprox. 184 miliarde lei), incluzând amenzi, investigații și costuri generate de alertele false. Primele implementări anunțate sunt la: BMO Amalgamated Bank Disponibilitatea mai largă este planificată pentru a doua jumătate a lui 2026 . Moody’s „în interiorul” Claude și extinderea partenerilor de date Moody’s își integrează platforma în Claude ca aplicație nativă , astfel încât utilizatorii să poată extrage ratinguri de credit, date de risc și analize ale structurii de proprietate pentru peste 600 de milioane de companii fără a părăsi interfața Claude. În același timp, Anthropic își extinde lista de parteneri de date cu nume precum Verisk, Third Bridge, Fiscal AI, Dun & Bradstreet, Experian, GLG, Guidepoint și IBISWorld, pe lângă parteneri existenți menționați în material (LSEG, S&P Capital IQ, Morningstar, PitchBook). În termeni practici, compania încearcă să acopere o parte mare din „universul” de date folosit în cercetarea de acțiuni și analiza de credit. De ce contează: de la „chat” la fluxuri autonome, cu trasabilitate Diferența față de lansările anterioare, centrate pe interogarea datelor în chat, este trecerea către fluxuri predefinite rulate autonom , cu „urme de audit”, trasabilitate pentru cerințe de reglementare și guvernanță integrată. Materialul leagă această direcție de platforma Claude Managed Agents , lansată în aprilie, care mută o parte din complexitatea de orchestrare către Anthropic, nu către echipele tehnice ale clienților. Riscuri: guvernanță, dependență și concurență The Next Web indică trei riscuri principale: Guvernanța : băncile operează în regimuri de reglementare prudente față de deciziile autonome; materialul menționează că șeful Trezoreriei SUA a cerut public, la final de aprilie, prudență în abordarea unor lansări recente ale Anthropic. Concentrarea : Anthropic ajunge să fie un strat comun pentru mai multe inițiative și implementări în ecosistemul financiar, ceea ce poate amplifica efectele unei eventuale disfuncționalități. Durabilitatea avantajului competitiv : platforme de agenți sunt dezvoltate și de OpenAI, Google și Microsoft, iar întrebarea este dacă integrarea adâncă în date și fluxuri creează costuri de schimbare suficient de mari. Pentru bănci, următoarea întrebare practică rămâne una de execuție: dacă reducerea timpilor de investigație AML „din ore în minute” se confirmă la scară, impactul se va vedea direct în costurile operaționale; dacă nu, riscul îl împart furnizorul și instituțiile care au intrat devreme în producție. [...]

Dezvăluirea din instanță ridică miza financiară a litigiului OpenAI–Musk , după ce președintele companiei, Greg Brockman , a spus că participația sa în OpenAI valorează aproape 30 de miliarde de dolari (aprox. 138 mld. lei), potrivit Mediafax . Brockman a declarat totodată că nu a investit personal niciun ban în OpenAI. Mărturia a fost depusă în cadrul procesului civil care analizează fondarea OpenAI în 2015 ca startup non-profit, finanțat în principal de Elon Musk, și transformarea ulterioară într-o companie cu scop lucrativ, evaluată acum la 852 de miliarde de dolari (aprox. 3.919 mld. lei), conform Associated Press (AP), citată de Mediafax. Ce înseamnă economic cifra de 30 de miliarde de dolari La acest nivel, Brockman ar ajunge comparabil, ca avere, cu nume din topurile globale ale celor mai bogați oameni, menționează materialul, care indică și că o astfel de valoare l-ar plasa pe lista Forbes. Dincolo de componenta personală, dezvăluirea punctează dimensiunea financiară a OpenAI și, implicit, presiunea din jurul controlului și direcției companiei într-un litigiu care vizează chiar modul în care a fost schimbată arhitectura organizației. Contextul procesului: acuzații de „trădare” a misiunii inițiale Procesul civil îi vizează pe Sam Altman și Greg Brockman, acuzați că l-ar fi trădat pe Musk prin îndepărtarea de misiunea fondatoare a OpenAI, descrisă ca rol de „administrator altruist” al unei tehnologii cu potențial revoluționar. Potrivit acuzațiilor, conducerea ar fi trecut la un model de a face bani „pe la spatele” lui Musk. În același dosar, avocații OpenAI au încercat să introducă drept probă un mesaj text trimis de Musk către Brockman cu două zile înainte de începerea procesului, pentru a testa posibilitatea unei înțelegeri, conform unui document depus la tribunal (document care nu include schimbul de mesaje în sine). După ce Brockman ar fi răspuns că ambele părți ar trebui să renunțe la pretenții, Musk ar fi replicat, potrivit documentului: „Până la sfârșitul acestei săptămâni, tu și Sam veți fi cei mai urâți oameni din America. Dacă insistați, așa va fi”. Judecătoarea Yvonne Gonzalez Rogers , care supraveghează procesul, nu a admis schimbul de mesaje ca probă. [...]

Un nou document depus la instanță arată că Elon Musk a încercat să negocieze o înțelegere cu OpenAI cu doar două zile înainte de începerea procesului , într-un litigiu care poate avea efecte directe asupra conducerii companiei și, implicit, asupra competiției din industria inteligenței artificiale, potrivit CNN . Conform documentului depus duminică seară de OpenAI, Musk i-a trimis pe 25 aprilie un mesaj președintelui OpenAI, Greg Brockman, „pentru a sonda interesul pentru o înțelegere”. Procesul a început săptămâna trecută la un tribunal federal din Oakland, California, iar miza, așa cum este descrisă în material, include posibilitatea ca directorul general Sam Altman și Brockman să fie îndepărtați din board-ul OpenAI dacă Musk obține câștig de cauză. În același document, OpenAI susține că, după ce Brockman ar fi sugerat ca ambele părți să renunțe la pretențiile reciproce, Musk ar fi răspuns cu un mesaj dur: „Până la sfârșitul acestei săptămâni, tu și Sam veți fi cei mai urâți bărbați din America. Dacă insistați, așa să fie.” De ce contează: procesul poate influența guvernanța OpenAI și dinamica pieței AI Musk a dat în judecată OpenAI și liderii săi, susținând că ar fi încălcat un „trust caritabil” și că s-ar fi îmbogățit nejustificat prin tranziția de la o organizație non-profit la structura actuală. Potrivit CNN, OpenAI funcționează acum ca o „for-profit benefit corporation” (o companie cu scop lucrativ, dar cu obligații declarate de interes public), supravegheată de o fundație non-profit. Musk, cofondator și finanțator inițial al OpenAI, a afirmat în instanță că ar fi fost indus în eroare să doneze bani pentru a construi ceea ce a devenit una dintre cele mai mari companii de inteligență artificială din lume, acuzând conducerea că ar fi „furat o organizație caritabilă”, potrivit relatării. Poziția OpenAI și disputa pe probe OpenAI susține, la rândul său, că Musk ar fi împins chiar el compania spre o structură cu scop lucrativ și că demersul juridic ar urmări, de fapt, să lovească un competitor, după ce nu a reușit să păstreze controlul asupra organizației. Musk a părăsit board-ul OpenAI în 2018 și a fondat xAI în 2023. Avocații OpenAI au încercat să introducă mesajele lui Musk ca probe, argumentând că acestea ar indica „motiv și părtinire” și că ar susține ideea că procesul este folosit pentru a ataca un competitor și conducerea acestuia. Judecătoarea Yvonne Gonzalez Rogers a respins însă cererea, spunând că mesajele ar fi trebuit depuse ca probă în timpul mărturiei lui Musk. Avocatul lui Musk nu a răspuns imediat solicitării de comentariu, mai notează CNN. Ce urmează În următoarele săptămâni sunt așteptați să depună mărturie Brockman, Altman și alte nume importante din industria tehnologiei, potrivit articolului. În paralel, OpenAI a prezentat în instanță elemente care, spune compania, ar arăta că Musk a susținut o structură cu scop lucrativ, inclusiv dovezi că ar fi cerut asociaților să înregistreze o corporație pe numele OpenAI. De cealaltă parte, avocații lui Musk au prezentat mesaje din 2022 în care acesta îi spunea lui Altman că evaluarea de 20 de miliarde de dolari a OpenAI după investiția de 10 miliarde de dolari a Microsoft i s-a părut un „bait and switch” (o practică în care condițiile percepute inițial sunt schimbate ulterior în defavoarea celeilalte părți), iar Altman i-ar fi răspuns că „este de acord că se simte rău”, menționând totodată că Musk a refuzat participația oferită de OpenAI. [...]