Inteligență artificială14 mai 2026
Apple caută să permită aplicații cu agenți AI în App Store fără să încalce regulile de securitate - discuții interne despre un sistem de conformare la standarde de confidențialitate
Apple caută să deschidă App Store pentru aplicații cu „agenți” AI, dar fără să slăbească filtrul de securitate și fără să-și submineze propriile reguli care interzic aplicațiilor să scrie cod și să creeze alte aplicații direct pe iPhone și iPad, potrivit AppleInsider . Miza este una operațională și de control al riscului: procesul de evaluare (review) din App Store este construit ca să verifice aplicațiile înainte de publicare și să reducă expunerea utilizatorilor la pericole precum programe malițioase (malware). În cazul aplicațiilor care pot genera cod sau chiar alte aplicații după ce au trecut de review, Apple nu ar mai putea inspecta în avans ce se produce efectiv pe dispozitiv. De ce „agenții” AI intră în conflict cu regulile App Store Apple ar avea discuții interne despre cum ar putea integra în App Store aplicații care folosesc „agenți” AI (sisteme capabile să execute sarcini mai complexe, în lanț), fără să încalce ghidurile existente. Publicația notează că Apple acceptă folosirea AI pentru a produce aplicații, însă are dificultăți când aplicațiile în sine folosesc AI într-un mod care poate încălca regulile magazinului. Un punct sensibil este „ vibe coding ” – folosirea AI pentru a scrie cod și a crea programe. AppleInsider arată că Apple a blocat până acum aplicații cu capabilități de acest tip, deoarece ghidurile App Store interzic aplicațiilor să „codeze” și să producă alte aplicații direct pe iPhone și iPad. Riscul de securitate și riscul comercial merg în paralel Problema nu este doar teoretică. Dacă o aplicație de „agentic coding” trece de review și apoi generează cod care poate fi folosit pentru malware, acel rezultat nu ar fi fost inspectabil de Apple înainte, tocmai pentru că este creat ulterior, pe dispozitiv. În plus, AppleInsider notează și un risc de venituri: dacă aceste aplicații pot crea „alte aplicații” pentru utilizator, ele ar putea reduce nevoia de a cumpăra aplicații separate din App Store, ceea ce ar pune presiune pe modelul economic al magazinului. Ce soluții ar lua în calcul Apple Compania ar încerca să „reconcilieze” problema prin proiectarea unui sistem care să oblige aplicațiile să respecte standarde de confidențialitate și securitate. O astfel de abordare ar limita însă aplicațiile mai elaborate, cu acces extins în sistem – AppleInsider dă ca exemplu că nu ar exista software de tip „OpenClaw”, cu „acoperire” masivă în întregul sistem al utilizatorului. Pe scurt, Apple ar căuta o cale de mijloc: să permită monetizarea popularității acestor aplicații, dar să reducă riscul ca ele să afecteze ecosistemul. Context: WWDC și deschiderea către modele AI terțe WWDC din iunie este așteptată să includă „mult conținut” legat de AI, însă nu este clar dacă această direcție va include și schimbări pentru App Store. Separat, AppleInsider menționează un alt efort: posibilitatea ca utilizatorii să aleagă modele AI terțe care să ruleze pe iPhone, ca alternativă la Apple Intelligence. În prezent, ChatGPT este deja integrat astfel încât unele funcții Apple Intelligence (inclusiv interogări Siri) să poată rula prin el, iar zvonurile indică suport pentru mai multe modele în generația „27” a sistemelor de operare Apple. Diferența față de dilema App Store: modelele care ar primi acces mai profund în iOS și macOS ar urma să fie aprobate de Apple și supuse unei verificări mai stricte, iar acestea „nu vor avea capacitatea de a scrie cod”, potrivit materialului. [...]