Știri
Știri din categoria Inteligență artificială

Wikipedia a interzis folosirea inteligenței artificiale pentru generarea sau rescrierea conținutului în enciclopedia sa online, potrivit The Guardian. Decizia vizează în special utilizarea modelelor lingvistice de mari dimensiuni (LLM, sisteme de tip ChatGPT) și se aplică versiunii în limba engleză, care are peste 7,1 milioane de articole.
Schimbarea de politică vine după dezbateri în comunitatea de editori voluntari, unde subiectul folosirii AI a fost disputat. Publicația notează că un vot al editorilor a susținut interdicția, conform 404 Media.
Wikipedia motivează măsura prin faptul că utilizarea LLM „încalcă adesea” principiile de bază ale proiectului. Totuși, politica introduce două excepții: AI poate fi folosită pentru traduceri și pentru corecturi minore de stil, cu condiția ca un om să verifice rezultatul și ca instrumentul să nu adauge informații noi.
„Editorilor li se permite să folosească LLM-uri pentru a sugera corecturi de bază ale propriilor texte și să includă unele dintre ele după o revizuire umană, cu condiția ca LLM-ul să nu introducă conținut propriu”, se arată în noua politică.
În același document, Wikipedia avertizează că astfel de modele pot modifica sensul unui text dincolo de cerința inițială și pot ajunge la formulări care nu sunt susținute de sursele citate. Contextul mai larg este creșterea utilizării instrumentelor de AI pentru informare, The Guardian menționând că ChatGPT ar fi depășit Wikipedia la numărul de vizite lunare anul trecut.
Articolul amintește și poziții anterioare ale lui Jimmy Wales, fondatorul Wikipedia, care a descris rezultatele înșelătoare sau „halucinate” ale AI drept „un dezastru” și a spus că, deși AI ar putea ajuta în anumite zone, nu ar trebui folosită pentru redactarea articolelor „cel puțin deocamdată”.
Recomandate

Google a început să permită importul de conversații și „memorie” în Gemini din alte aplicații de inteligență artificială, potrivit 9to5Google . Funcția apare odată cu lansarea Gemini 3.1 Flash Live și vizează mutarea contextului din servicii precum ChatGPT și Claude în ecosistemul Gemini. Opțiunea poate fi accesată din interfața Gemini, din meniul „Settings & help” (pictograma rotiță) din colțul stânga-jos, unde apare „Import memory to Gemini”. Utilizatorii sunt trimiși la pagina gemini.google.com/import, care oferă două variante: import de conversații și import de „memorie” (un rezumat structurat al informațiilor despre utilizator). Pentru „Import chats”, utilizatorul exportă datele dintr-o altă aplicație și încarcă în Gemini un fișier.zip de până la 5 GB. Google menționează explicit ChatGPT și Claude și spune că pot fi încărcate până la 5 fișiere.zip pe zi. Pașii indicați pentru export sunt: ChatGPT : numele de utilizator (stânga-jos) → Settings → Data controls → „Export data” → Export → Confirm Export Claude : numele de utilizator (stânga-jos) → Settings → Privacy → „Export data” → Export → selectarea intervalului de date → Export Linkul de descărcare pentru export este trimis pe e-mailul asociat contului de pe platforma respectivă, notează publicația. Conversațiile importate apar în panoul lateral obișnuit din Gemini, dar sunt diferențiate printr-o pictogramă de import. Ele pot fi căutate și șterse individual, iar pentru ștergerea în masă utilizatorul trebuie să găsească intrarea de import și să apese „Delete”, ceea ce elimină toate conversațiile aduse prin acel fișier.zip. Dacă același fișier.zip este încărcat din nou, Gemini adaugă conversațiile noi și suprascrie conversațiile importate anterior. Separat, „Import memory” funcționează prin copierea într-o altă aplicație de chat a unui îndemn (prompt) furnizat de Google, care cere un rezumat al conversațiilor anterioare fără pronume la persoana întâi și a doua, pe categorii precum demografie, interese, relații, evenimente/proiecte și instrucțiuni. Rezultatul este apoi lipit în Gemini. Importul nu este disponibil în prezent în Spațiul Economic European, Elveția sau Regatul Unit, mai arată sursa. [...]

Studenții de la AC Iași testează un câine-robot numit GrivAI , potrivit Euronews , care ar urma să fie făcut treptat mai independent cu ajutorul algoritmilor de inteligență artificială. Deocamdată, robotul este controlat prin comenzi și se plimbă în laboratoarele Facultății de Automatică și Calculatoare din Iași. GrivAI este folosit ca platformă practică pentru dezvoltarea și testarea algoritmilor, după o perioadă în care lucrul s-a făcut mai ales în simulatoare. Asistentul Alexandru Brașoveanu spune: „Scopul lui este să ne ajute sa dezvoltăm și să testam algortimul de inteligență artificială.” Prof. Robert Gabriel, prodecanul Facultății de Automatică și Calculatoare, UTI Iași: „Este foarte important deoarece, până acum, s-a lucrat la nivel de simulator. Acum, folosind acest câine GrivAI, cum a fost el numit, avem posibilitatea de a permite testarea acestor algoritmi de AI în vederea deplasării autonome a unui dispozitiv din punctul A în punctul B." Din punct de vedere tehnic, GrivAI are opt camere și o rețea de senzori, este rezistent la șocuri și poate ridica aproximativ 20 de kilograme. Potrivit inventatorilor, are și funcții de localizare în spațiu care nu necesită control uman, inclusiv capacitatea de a se amplasa singur. Studenții și profesorii văd proiectul ca pe un instrument de învățare și un pas spre aplicații în teren. Un student, Robert, consideră că robotul ar putea fi folosit „în misiuni de salvare în zone cu risc seismic”, iar conducerea facultății ia în calcul și implicarea persoanelor nevăzătoare, pentru a testa dacă „cățelul electronic” le poate ajuta să se deplaseze în siguranță. Robotul a costat peste 100.000 de euro și a fost achiziționat într-un proiect de cercetare, prin Hubul Român de Inteligență Artificială. [...]

Un dezvoltator Mozilla a lansat „cq”, un fel de Stack Overflow pentru agenți . Proiectul, anunțat pe blogul Mozilla.ai de Peter Wilson , își propune să atenueze o slăbiciune frecventă a instrumentelor de programare bazate pe inteligență artificială: folosirea de informații învechite și lipsa unui mecanism standard de împărtășire a „lecțiilor” învățate după momentul în care a fost antrenat modelul. Conform descrierii, agenții de programare ajung adesea să ia decizii pe baza unor date depășite, de exemplu să încerce apeluri către interfețe (API) care au fost între timp retrase. Cauza ține de „tăietura” temporală a datelor de antrenare și de absența unui acces fiabil și structurat la contextul curent de rulare. Uneori se folosește RAG (generare augmentată cu regăsire, adică aducerea de informații recente din surse externe în timpul execuției), dar nu constant și nici complet, mai ales în situațiile în care agentul nu știe că îi lipsește o informație relevantă. O a doua problemă vizată este duplicarea efortului: mai mulți agenți ajung să rezolve aceleași blocaje în mod repetat, fără să existe un canal comun de reutilizare a soluțiilor apărute după data-limită a antrenării. Rezultatul este consum de resurse (inclusiv „jetoane” de procesare, adică unități de calcul facturate de furnizorii de modele) și energie pentru probleme care, în practică, au fost deja rezolvate de alții. cq încearcă să creeze un „bun comun” de cunoștințe: înainte să abordeze o sarcină necunoscută (o integrare de API, o configurație CI/CD sau un cadru software nou), agentul interoghează „cq commons”; dacă alt agent a întâlnit deja situația, informația poate fi reutilizată înainte de a se scrie cod. Când un agent descoperă ceva nou, propune acea cunoaștere înapoi, iar alți agenți confirmă ce funcționează și semnalează ce a devenit depășit, într-un model în care încrederea se acumulează prin utilizare, nu prin autoritate. Ars Technica notează însă că, pentru adopție la scară, proiectul va trebui să gestioneze riscuri precum securitatea, „otrăvirea” datelor (introducerea intenționată de informații false) și acuratețea, în condițiile în care cq vrea să depășească soluțiile curente de tip fișiere.md (precum claude.md sau agents.md) în care dezvoltatorii adaugă manual instrucțiuni pe baza încercărilor și erorilor. [...]

Apple pregătește un Siri complet nou ca aplicație separată , potrivit unor informații publicate de Bloomberg , schimbarea urmând să fie prezentată oficial la WWDC 2026, pe 8 iunie, odată cu lansarea iOS 27 și macOS 27. Noua versiune transformă asistentul într-un „agent AI” integrat la nivelul întregului sistem, capabil să interacționeze mai profund cu aplicațiile și să execute sarcini folosind date personale din e-mailuri, mesaje sau notițe, într-o încercare clară a Apple de a recupera terenul pierdut în fața unor soluții precum Google Gemini sau Perplexity . Una dintre cele mai importante schimbări este apariția unei aplicații dedicate Siri, testată intern de Apple. Aceasta va introduce o interfață de tip chat, similară aplicației Mesaje, și va permite: acces la istoricul conversațiilor cu Siri; căutarea în interacțiunile anterioare; alternarea între comenzi vocale și text; încărcarea de documente și imagini pentru analiză. Pe lângă funcțiile conversaționale extinse, Siri va putea genera răspunsuri mai detaliate, inclusiv rezumate, liste și conținut vizual extras de pe web. De asemenea, Apple lucrează la integrarea asistentului în interfața iPhone, inclusiv prin Dynamic Island, unde utilizatorii ar putea primi sugestii de tip „Caută sau întreabă”. Schimbarea indică o repoziționare majoră a Siri, care nu mai este doar un asistent vocal pasiv, ci devine un instrument central în ecosistemul Apple Intelligence. Miza este clară: transformarea Siri într-un concurent real pentru noile motoare de căutare și asistenți bazați pe inteligență artificială, într-un moment în care interfața conversațională devine standardul în tehnologie. Apple nu a confirmat oficial toate detaliile, însă prezentarea de la WWDC 2026 este așteptată să clarifice direcția companiei și nivelul real de integrare al noii generații Siri în produsele sale. [...]

OpenAI renunță la platforma video Sora , iar Disney abandonează investiția de 1 miliard de dolari potrivit Variety , într-o mișcare care schimbă brusc direcția uneia dintre cele mai ambițioase inițiative din zona inteligenței artificiale generative. Decizia vine fără explicații oficiale din partea companiei conduse de Sam Altman , dar are efecte imediate: parteneriatul strategic cu Disney este încheiat, iar planurile gigantului media de a investi masiv în OpenAI sunt abandonate. Platforma Sora, lansată inițial la finalul lui 2024 și actualizată în 2025, permitea generarea de videoclipuri realiste pe baza comenzilor text. Tehnologia a atras rapid atenția industriei de divertisment, dar și critici legate de drepturile de autor și utilizarea conținutului protejat. Ce pierde Disney odată cu oprirea Sora Disney semnase un acord pe trei ani cu OpenAI, care prevedea integrarea a peste 200 de personaje din universurile sale – inclusiv Marvel, Pixar și Star Wars – în videoclipuri generate de utilizatori. Planurile includeau: crearea de videoclipuri „inspirate de fani” folosind personaje licențiate selecții de conținut generate de Sora în platforma Disney+ o investiție de aproximativ 1 miliard de dolari în OpenAI După anunțul retragerii Sora, compania a confirmat că renunță la investiție, dar va continua să exploreze alte tehnologii AI. Context tensionat în industrie Decizia apare într-un climat tot mai tensionat între studiourile de la Hollywood și companiile AI. Mai multe inițiative similare au fost contestate în instanță sau prin notificări legale, pe fondul acuzațiilor de încălcare a drepturilor de autor. Printre cazurile recente: acțiuni ale Disney împotriva Google, Meta și Character.AI procese împotriva Midjourney și Minimax presiuni asupra ByteDance pentru sistemele sale AI În paralel, organizații din industria creativă, inclusiv grupuri japoneze precum CODA, au cerut limitarea utilizării conținutului protejat în antrenarea modelelor AI. Ce urmează pentru utilizatori OpenAI a transmis că va reveni cu detalii privind calendarul închiderii aplicației și API-ului Sora, precum și despre modalitățile prin care utilizatorii își pot salva proiectele. În lipsa unor explicații oficiale, decizia sugerează o repoziționare strategică a companiei în domeniul inteligenței artificiale. Pentru industrie, însă, mesajul este clar: dezvoltarea AI video rămâne promițătoare, dar confruntarea cu regulile drepturilor de autor devine inevitabilă. [...]

Larry Fink avertizează că inteligența artificială poate adânci inegalitatea , potrivit The Guardian. În scrisoarea anuală către investitori, publicată luni, Fink susține că beneficiile financiare ale AI ar putea ajunge în principal la un număr restrâns de companii și investitori. Directorul general al BlackRock, companie care administrează active de 14 trilioane de dolari, descrie inteligența artificială drept un element devenit „central pentru competiția strategică” dintre marile puteri, precum SUA și China. În acest context, el atrage atenția că dinamica investițiilor și a adoptării accelerate poate amplifica un tipar deja cunoscut: câștigurile se concentrează la cei care dețin active. Fink notează că „bogăția masivă” creată în ultimele generații a mers în mare măsură către cei care aveau deja active financiare și avertizează că AI riscă să repete modelul „la o scară și mai mare”. El mai spune că boom-ul AI ar putea accelera tendința prin care companiile de top acumulează tot mai mult capital, în timp ce restul pieței se luptă să țină pasul. În scrisoare, el argumentează că firmele care au datele, infrastructura și finanțarea necesare pentru a implementa AI la scară largă sunt poziționate să beneficieze „în mod disproporționat”, ceea ce poate adânci prăpastia dintre bogați și săraci. „Întrebarea mai amplă este cine participă la câștiguri”, avertizează Fink, adăugând că atunci când capitalizarea de piață crește, dar proprietatea rămâne concentrată, prosperitatea poate părea tot mai îndepărtată pentru cei din afara acestui cerc. Pe fondul creșterilor puternice ale acțiunilor companiilor tehnologice orientate spre AI, Fink spune că este cert că inteligența artificială va crea valoare economică semnificativă, însă provocarea este ca participarea la această creștere să se extindă. The Guardian amintește, totodată, îngrijorările privind o posibilă bulă investițională în AI, iar Banca Angliei a avertizat în octombrie asupra riscurilor tot mai mari ale unei „corecții bruște” pe piețele globale, pe fondul evaluărilor accelerate ale principalelor companii din domeniu. [...]