Știri
Știri din categoria Inteligență artificială

Odată cu iOS 26.4, CarPlay începe să accepte mai multe aplicații de tip „chatbot” cu inteligență artificială, ceea ce deschide o nouă categorie de utilizare vocală în mașină, dar cu limitări comerciale evidente. Potrivit 9to5Mac, după ce ChatGPT a fost primul care a ajuns pe CarPlay la scurt timp de la lansarea iOS 26.4, Perplexity este al doilea chatbot AI care adaugă suport pentru CarPlay.
În iOS 26.4, Apple permite folosirea aplicațiilor de tip chatbot AI de pe iPhone prin CarPlay, însă implementarea este construită în jurul interacțiunii vocale. Perplexity, la fel ca ChatGPT în CarPlay, este gândit ca o aplicație de „voice chat” (conversație vocală), nu ca o experiență bazată pe tastare sau navigare complexă pe ecran.
Pentru utilizatori, asta înseamnă că accesul la astfel de servicii în mașină devine mai „nativ” în ecosistemul CarPlay, în limitele interfeței orientate spre reducerea distragerii atenției la volan.
Diferența majoră față de ChatGPT, conform aceleiași surse, este că Perplexity „în general” cere un abonament Pro de 20 dolari/lună (aprox. 90 lei/lună) pentru a putea folosi în mod substanțial conversația vocală. În lipsa abonamentului, aplicația din CarPlay poate deveni rapid neutilizabilă, afișând mesajul că a fost atinsă limita pentru „voice mode” (modul vocal).
Consecința practică: deși suportul CarPlay există, valoarea reală pentru utilizatorii fără abonament este limitată, iar adoptarea ar putea fi, cel puțin inițial, mai degrabă o funcție pentru clienții plătitori.
Apple permite doar anumite categorii de aplicații în CarPlay, tocmai pentru că platforma este concepută să facă utilizarea iPhone-ului mai sigură în timpul condusului. Chatboții AI intră în categoria „voice-based conversational apps” (aplicații conversaționale bazate pe voce) — iar, strict vorbind, categoria nu este rezervată exclusiv chatboților AI.
Ca exemplu, autorul materialului menționează că publicația sportivă NewOrleans.Football are o aplicație conversațională pentru CarPlay, construită în jurul unui „mock draft” NFL pentru echipa New Orleans Saints, alături de aplicația oficială a echipei.
În acest moment, suportul CarPlay pentru chatboți AI rămâne limitat la câteva aplicații. 9to5Mac notează că încă se așteaptă compatibilitate CarPlay pentru alte servicii cunoscute, precum Claude (Anthropic) și Gemini (Google), iar Grok (xAI) nu are suport CarPlay „deocamdată”.
Separat de CarPlay, Perplexity a lansat în această săptămână o funcție de „asistent AI pentru computer” pe Mac (pentru abonați) și a adus recent pe iPhone și iPad browserul său cu AI, Comet, potrivit materialului.
Recomandate

Apple pregătește pentru iOS 27 funcții de „scanare” cu inteligență artificială direct în aplicațiile de bază, o mișcare menită să reducă diferența față de Android la capitolul instrumente AI integrate , potrivit WinFuture , care citează indicii găsite în cod backend (server-side) asociat viitoarei versiuni de iOS. Ce ar urma să se schimbe în iOS 27: AI în Wallet, Safari, Contacte și Health Din codul descoperit reies cel puțin patru funcții noi legate de „Apple Intelligence”, cu integrare mai adâncă în aplicațiile de sistem: Health : un „scanner” de valori nutritive ar folosi „Visual Intelligence” (recunoaștere de imagine) pentru a identifica ingredientele/alimentația și a transfera datele în aplicația Health. Contacte : camera ar putea citi numere tipărite de pe cărți de vizită și le-ar salva direct în agendă. Wallet : un import pentru bilete și legitimații fizice ar permite scanarea acestora și transformarea în „pașapoarte” digitale (carduri digitale în Wallet). Safari : grupurile de file (tab groups) ar putea fi denumite automat de AI în funcție de tema paginilor deschise. Unghiul operațional este relevant: dacă funcțiile ajung în versiunea finală, iPhone-ul ar putea prelua mai mult din fluxurile „din lumea reală” (documente tipărite, bilete, etichete alimentare) direct în aplicațiile Apple, fără aplicații terțe. De ce contează: Wallet încearcă să recupereze o funcție deja standard pe Android Publicația notează că, potrivit MacRumors , descoperirile au fost confirmate de dezvoltatorul Nicolás Alvarez și că Apple ar încerca să acopere o lacună în Wallet: Google ar fi introdus o funcție comparabilă de import pe Android încă din august 2024, în timp ce utilizatorii Apple ar fi depins până acum de soluții externe. Calendar și incertitudini: funcțiile pot întârzia iOS 27 este așteptat să fie prezentat în iunie, la WWDC 2026, însă WinFuture avertizează că nu există garanția că toate funcțiile vor fi gata la lansarea din septembrie. În plus, denumirile interne pot varia, iar modul exact de funcționare este, deocamdată, dedus din interpretarea codului. În paralel, Apple ar lucra la hardware care ar necesita recunoaștere vizuală mai precisă (de exemplu, dispozitive cu camere), iar publicația menționează și dezvoltarea unei versiuni extinse a asistentului Siri, cu potențial avantaj al procesării locale pe dispozitiv (fără trimiterea datelor în cloud, acolo unde este posibil). [...]

Google spune că a suspendat mai multe aplicații „nudify” din Play Store și investighează în continuare problema , după ce o analiză a arătat că astfel de instrumente bazate pe inteligență artificială sunt încă ușor de găsit și descărcat, inclusiv de minori, potrivit Android Authority . Miza este una de aplicare a regulilor platformei: deși politicile Apple și Google restricționează aplicațiile care promovează exploatarea sau abuzul, căutări după termeni precum „nudify” sau „undress” ar afișa „zeci” de astfel de aplicații în App Store și Google Play. În plus, cele două magazine ar promova aceste instrumente prin reclame și sugestii de completare automată (autocomplete), susține publicația, citând un raport recent. Un element cu impact operațional direct este clasificarea de vârstă: unele dintre aplicații ar fi evaluate „E” („pentru toată lumea”), ceea ce ar permite, legal, descărcarea lor și de către copii, conform articolului. Răspunsul Google: suspendări și „proces în desfășurare” Google a transmis publicației că Play Store „nu permite aplicații care conțin conținut sexual” și că, atunci când sunt raportate încălcări, compania investighează și ia măsuri. Compania spune că „multe” dintre aplicațiile menționate în raport au fost suspendate și că verificările continuă. „Google Play nu permite aplicații care conțin conținut sexual. Când ne sunt raportate încălcări ale politicilor noastre, investigăm și luăm măsurile adecvate. Multe dintre aplicațiile la care se face referire în acest raport au fost suspendate din Google Play pentru încălcarea politicilor noastre. Procesul nostru de investigare și aplicare a regulilor este în desfășurare.” Ce arată raportul și ce a făcut Apple Pentru context, raportul citat de Android Authority ar fi identificat 20 de aplicații „nudify” în Play Store și 18 în App Store. Apple ar fi început, la rândul său, să ia măsuri: compania a spus pentru Bloomberg că a eliminat 15 aplicații, potrivit aceleiași surse. În acest moment, Google nu indică un termen pentru finalizarea investigației și nici câte aplicații au rămas active; compania se limitează la a spune că aplicarea regulilor este „în desfășurare”. [...]

Un studiu realizat de cercetători de la Oxford , MIT, UCLA și Carnegie Mellon sugerează că folosirea AI poate reduce perseverența și performanța atunci când asistența dispare, un risc operațional pentru companiile care își mută rapid sarcini către astfel de instrumente , potrivit HotNews . Autorii descriu fenomenul ca un efect de tip „broasca fiartă”: degradarea capacităților cognitive ar apărea treptat, pe măsură ce utilizatorii se bazează tot mai mult pe inteligența artificială fără să observe costul. Cercetarea, citată de The Independent , vorbește despre două consecințe „îngrijorătoare” ale utilizării AI pentru îndeplinirea sarcinilor: „reducerea perseverenței și afectarea rezultatelor în absența asistenței”. Ce au testat cercetătorii și ce au observat Participanții au primit o serie de sarcini, inclusiv de raționament matematic și înțelegerea textului. Concluzia centrală raportată de autori este că, „după doar 10 minute” de rezolvare a problemelor cu ajutorul AI, persoanele care au pierdut accesul la aceasta: au avut rezultate mai slabe; au renunțat mai frecvent decât cei care nu au folosit deloc AI. Echipa descrie beneficiile utilizării AI ca venind „cu un cost cognitiv ridicat” și spune că rezultatele „ridică întrebări urgente” despre efectele cumulative ale utilizării zilnice asupra perseverenței și raționamentului. De ce contează pentru utilizarea zilnică în organizații Miza, în interpretarea autorilor, nu este doar performanța „pe moment”, ci efectul în timp. Ei avertizează că, dacă aceste efecte se acumulează odată cu utilizarea susținută, sistemele de AI „optimizate doar pentru utilitatea pe termen scurt” riscă să erodeze tocmai capacitățile umane pe care ar trebui să le sprijine. În lucrare se argumentează că sarcini precum aritmetica fracțiilor sau înțelegerea textului pot părea ușor de delegat, dar stăpânirea lor conceptuală este o condiție pentru abilități de nivel superior, precum algebra sau raționamentul critic. În lipsa acestor competențe, dezvoltarea ulterioară poate fi blocată. „Dificultăți dezirabile” și riscul de dependență de asistență Grace Liu, cercetătoare la Carnegie Mellon și coautoare, spune pentru The Independent că este nevoie de mai multă cercetare despre interacțiunea oamenilor cu AI și invocă ideea de „dificultăți dezirabile” – efortul productiv care construiește abilități în timp. „Dacă inteligența artificială elimină în mod constant această dificultate, oamenii pot ajunge la răspunsul corect pe moment, dar își dezvoltă mai puțin capacitatea independentă.” Ea mai precizează că nu este vorba despre faptul că AI ne face „mai puțin inteligenți”, ci despre un efect mai subtil, a cărui amploare „la scară largă și în contexte diferite” rămâne de clarificat prin cercetări suplimentare. [...]

CEO-ul Anthropic , Dario Amodei, merge vineri la Casa Albă pentru o întâlnire cu șefa de cabinet Susie Wiles, într-un moment în care compania se judecă cu administrația Trump după ce modelul său de inteligență artificială Claude a fost „pus pe lista neagră” pentru utilizare guvernamentală , potrivit CNN . Miza întâlnirii ține de felul în care SUA încearcă să împace o linie dură față de Anthropic cu riscurile de securitate națională ale renunțării la o tehnologie considerată de vârf. Amodei urmează să se întâlnească cu Susie Wiles, au declarat pentru CNN două surse familiarizate cu discuțiile. Axios a relatat prima despre întâlnire. Anthropic a refuzat să comenteze. De ce contează: guvernul vrea acces la tehnologie, dar conflictul e în instanță Întâlnirea are loc pe fondul unei dispute între companie și administrația Trump, după ce președintele a anunțat că guvernul va rupe legăturile cu Anthropic. Potrivit articolului, ruptura a venit după ce Anthropic nu a acceptat condiții care ar fi permis armatei să folosească Claude pentru „toate scopurile legale”, inclusiv arme autonome și supraveghere în masă. Până de curând, Claude era singurul model de inteligență artificială disponibil în rețeaua clasificată a Pentagonului, notează CNN. După eșecul negocierilor, Pentagonul a declarat Anthropic „risc pentru lanțul de aprovizionare” – o etichetă folosită anterior doar pentru companii asociate cu adversari străini – ceea ce ar echivala, practic, cu excluderea companiei din contractele guvernamentale. Ce se întâmplă în justiție Anthropic a dat în judecată administrația Trump. Luna trecută, un judecător federal din California a blocat efortul guvernului de a „pedepsi” compania, stabilind că agențiile federale din afara Departamentului Apărării nu pot folosi această desemnare de „risc pentru lanțul de aprovizionare” pentru a rupe legăturile cu Anthropic. Guvernul a făcut apel. Într-un dosar separat, la două săptămâni după acea decizie, administrația a obținut o victorie la Curtea de Apel a Circuitului DC: instanța a spus că nu va împiedica Departamentul Apărării să taie legăturile cu Anthropic pe durata procesului. În decizia unanimă, instanța a argumentat că o intervenție în acel moment: „ar forța armata Statelor Unite să prelungească relația cu un furnizor nedorit de servicii critice de inteligență artificială în mijlocul unui conflict militar semnificativ în desfășurare”. „Mythos”, instrumentul care complică ruptura În paralel, CNN arată că guvernul american încearcă să cântărească implicațiile de securitate națională ale renunțării la tehnologia Anthropic, inclusiv un instrument numit „Mythos”, descris ca fiind capabil să identifice amenințări de securitate cibernetică, dar care poate oferi și o „hartă” pentru atacatori despre cum să lovească firme sau instituții guvernamentale. Bloomberg a relatat că Office of Management and Budget a transmis agențiilor că se pregătește să le ofere acces la Mythos „pentru a se pregăti”. Axios a mai relatat că și Casa Albă discută pentru a obține acces la Mythos. Anthropic a refuzat să comenteze dacă administrația Trump lucrează pentru a testa acest instrument. Un oficial al Casei Albe a declarat pentru CNN că administrația „se implică proactiv” pentru a proteja SUA și că orice tehnologie nouă care ar putea fi folosită de guvern necesită o perioadă tehnică de evaluare „pentru fidelitate și securitate”. Ce urmează Din informațiile publicate nu reiese agenda exactă a întâlnirii de la Casa Albă și nici dacă aceasta va schimba poziția Pentagonului față de Anthropic. În schimb, contextul indică o tensiune de fond: guvernul cere libertate totală de utilizare a modelelor AI în timp de război, iar Anthropic susține că modelele nu sunt încă suficient de fiabile pentru arme autonome și că legislația SUA nu ține pasul cu riscurile supravegherii în masă. [...]

Capacitățile de „hacking” ale noului model Claude Mythos ridică un risc operațional direct pentru securitatea cibernetică , iar subiectul a ajuns deja pe agenda miniștrilor de finanțe și a Fondului Monetar Internațional , potrivit Mediafax . Modelul, dezvoltat de Anthropic , este descris ca fiind capabil să depășească performanțele umane în sarcini legate de securitate informatică, ceea ce amplifică temerile privind criminalitatea cibernetică. Mythos este unul dintre cele mai recente modele din familia Claude și a fost prezentat public la începutul lunii aprilie 2026 sub numele „Mythos Preview”, potrivit BBC, citată de Mediafax. Anthropic concurează pe piața globală cu ChatGPT (OpenAI) și Gemini (Google), însă Mythos este prezentat ca un salt calitativ față de versiunile anterioare. De ce contează pentru companii și instituții Cercetători care testează comportamentul modelelor de inteligență artificială au concluzionat că Mythos este „incredibil de capabil” în sarcini de securitate informatică. Concret, instrumentul ar putea identifica erori ascunse în coduri vechi de zeci de ani și le-ar putea exploata „cu ușurință”, ceea ce, în practică, ar reduce semnificativ bariera de intrare pentru atacuri asupra sistemelor insuficient protejate. În același timp, Institutul pentru Siguranța IA din Marea Britanie a evaluat că amenințarea cea mai mare ar viza sistemele vulnerabile și slab apărate. În organizațiile cu securitate cibernetică solidă, riscul ar fi, teoretic, mai limitat. Acces restricționat și testare limitată Tocmai din cauza acestor capacități, Anthropic nu a lansat Mythos pentru utilizatorii obișnuiți ai Claude. În schimb, accesul a fost acordat unui grup de 12 companii de tehnologie printr-un program numit Project Glasswing. Printre partenerii menționați se numără: Amazon Web Services Apple Microsoft Google Nvidia Broadcom CrowdStrike Anthropic spune că a extins accesul și către „alte peste 40 de organizații” responsabile de software critic, cu obiectivul declarat de a întări reziliența acestor sisteme față de amenințările pe care modelul le-ar putea genera. O limitare importantă: mulți analiști independenți nu au putut testa modelul personal, iar unii rămân sceptici față de capacitățile anunțate. Îngrijorare la nivel internațional: de la FMI la UE Tema a ajuns în discuții la nivel înalt. Ministrul canadian al finanțelor, François-Philippe Champagne, a declarat pentru BBC că Mythos a fost discutat la o reuniune a FMI la Washington. Separat, Andrew Bailey, guvernatorul Băncii Angliei, a spus că este necesară o analiză atentă a implicațiilor pentru riscul de criminalitate cibernetică, iar UE se află, de asemenea, în discuții cu Anthropic. Ciaran Martin, fost șef al Centrului Național de Securitate Cibernetică din Marea Britanie, a afirmat că ideea că Mythos ar putea descoperi vulnerabilități mult mai rapid decât alte modele „a șocat cu adevărat oamenii”. Pe termen mediu, Martin a indicat că astfel de instrumente ar putea fi folosite și pentru remedierea vulnerabilităților fundamentale ale internetului, iar mesajul transmis de NCSC este să nu se intre în panică și să se insiste pe „securitatea cibernetică de bază”. [...]

Anthropic își extinde Claude spre zona de lucru vizual, cu un editor care poate produce prezentări, prototipuri și „slide-uri”, într-o mișcare ce o apropie de instrumentele folosite în mod curent de echipele de design și marketing , potrivit Engadget . Compania a lansat „Claude Design” ca „research preview” (o versiune de test), disponibilă abonaților, iar utilizarea intră în aceleași limite de consum ale planului. Ce aduce „Claude Design” în fluxul de lucru Noul produs pornește de la un prompt, iar apoi utilizatorii pot rafina rezultatele prin conversație, comentarii inserate direct și editări. O funcție notabilă este generarea de „slidere” personalizate pentru elemente specifice din design, pe care utilizatorul le poate ajusta pentru a modifica parametri vizuali (de exemplu, intensitatea sau densitatea unor elemente grafice). Anthropic poziționează produsul ca un instrument de lucru vizual, nu ca un generator clasic de imagini. Sistemul din spate este Opus 4.7 , descris de companie drept „cel mai capabil model de viziune” al său de până acum (adică un model care poate înțelege și manipula conținut vizual, nu doar text). Personalizare pentru organizații și funcții pentru companii Pentru clienții organizaționali, Anthropic spune că a construit un proces de „onboarding” prin care Claude își poate forma un „limbaj vizual” intern după ce citește baza de cod și documentele de design existente ale unei organizații. Ulterior, „fiecare proiect” ar folosi automat culori, tipografie și comentarii, conform companiei. Pe lângă prompturi text, există suport pentru încărcarea de imagini și documente. Pentru clienții enterprise, este inclus și un instrument de captură web, care poate prelua elemente de pe site-ul companiei. Mai există partajare integrată și posibilitatea de a exporta un design direct către Claude Code. De ce contează: intrare într-o zonă aglomerată și compatibilitate cu rivalii Lansarea vine în aceeași săptămână în care Adobe și Canva au prezentat, la rândul lor, asistenți vizuali cu inteligență artificială, ceea ce sugerează o accelerare a competiției pe instrumente care mută AI-ul din zona de „chat” în zona de producție de materiale vizuale. Un detaliu cu implicații operaționale: proiectele din Claude Design pot fi exportate în Canva, ceea ce indică o strategie mai degrabă de integrare în ecosisteme existente decât de înlocuire directă a acestora. Disponibilitate Claude Design este disponibil ca parte a abonamentelor Anthropic Pro, Max, Team și Enterprise, iar consumul se contabilizează în limitele de utilizare ale fiecărui plan. Anthropic mai spune că, în următoarele săptămâni, va simplifica realizarea de integrări cu noua aplicație. [...]