Știri din categoria Inteligență artificială

Acasă/Știri/Inteligență artificială/NotebookLM va învăța modul în care...

NotebookLM va învăța modul în care gândești și lucrezi - personalizarea răspunsurilor prin AI avansat

NotebookLM va adapta răspunsurile în funcție de stilul utilizatorului.

Google testează o funcție prin care NotebookLM ar putea învăța din conversațiile utilizatorului, pentru a-și personaliza răspunsurile în funcție de stilul de lucru și preferințe, potrivit Android Police. Inițiativa ar extinde conceptul de „Personal Intelligence” (personalizare pe baza contextului utilizatorului) către NotebookLM, un instrument de notițe și cercetare asistat de inteligență artificială.

La începutul lui 2026, Google a anunțat „Personal Intelligence” pentru Gemini, cu posibilitatea de a conecta asistentul la istoricul din Gmail, Photos, Search și YouTube pentru a adapta răspunsurile. În cazul NotebookLM, direcția pare diferită: accentul ar fi pus pe învățarea din conversațiile purtate în aplicație, astfel încât instrumentul să „înțeleagă” cum preferă utilizatorul să primească informația și cum își organizează munca.

Semnalul concret vine dintr-o descoperire în versiuni de test: TestingCatalog a identificat o opțiune „Personal Intelligence” în setările NotebookLM, inclusiv un comutator la nivel de aplicație și unul la nivel de caiet (notebook). Asta ar sugera că utilizatorii ar putea alege între activarea personalizării pentru toate proiectele sau limitarea ei la anumite caiete, în funcție de sensibilitatea conținutului.

Din fragmentele de text (strings) analizate, funcția ar urma să învețe din chat-uri și să construiască o „persona” a utilizatorului, adică un profil de preferințe care să ghideze răspunsurile. Un exemplu menționat în material descrie un utilizator interesat de inteligență artificială și învățare automată, care preferă explicații concise și tehnice, cu exemple de cod când este relevant. Persona ar fi editabilă, ceea ce ar permite corectarea presupunerilor greșite despre stilul de lucru sau preferințe.

Miza pentru NotebookLM este direct legată de productivitate: instrumentul este folosit pentru cercetare continuă, notițe și lucru cu texte lungi, iar personalizarea bazată pe conversații ar putea reduce nevoia de a repeta aceleași instrucțiuni (format, ton, nivel de detaliu) de la o sesiune la alta. Totuși, Android Police subliniază că este prea devreme pentru a ști exact cum va funcționa în practică; una dintre posibilități este ca NotebookLM să poată face referire la discuții anterioare pentru context suplimentar.

În forma observată în testare, „Personal Intelligence” din NotebookLM ar urma să fie mai „închisă” decât varianta din Gemini, adică mai degrabă limitată la conversațiile din aplicație, nu la date din mai multe servicii Google. Funcția fiind abia reperată în test, lansarea ar putea dura, deși Google a accelerat în ultima perioadă ritmul actualizărilor pentru NotebookLM, notează Android Police.

Recomandate

Articole pe același subiect

Actualizarea iOS 26.4 aduce îmbunătățiri semnificative pentru Siri și funcții AI avansate.
Inteligență artificială09 feb. 2026

Apple lansează iOS 26.4 beta cu Siri revizuită - actualizarea aduce funcții AI avansate începând cu 23 februarie

Apple pregătește în iOS 26.4 prima etapă a unei revizuiri majore a lui Siri , iar prima versiune beta pentru dezvoltatori este programată în săptămâna care începe pe 23 februarie, conform jurnalistului Mark Gurman (Bloomberg). Miza este una strategică: Apple încearcă să livreze, cu întârziere, funcții de inteligență artificială (IA) prezentate inițial la WWDC 2024 și amânate ulterior din motive de calitate. Revizuirea lui Siri din iOS 26.4 este descrisă ca fiind cea mai consistentă din istoria asistentului, cu accent pe capacități care să facă interacțiunea mai utilă în sarcini concrete, nu doar în comenzi simple. Noul Siri se sprijină pe trei direcții principale, care ar urma să fie introduse treptat: înțelegerea „contextului personal” (acces la informații din e-mailuri, mesaje, calendar, mementouri, fotografii și istoricul de navigare pentru a răspunde la întrebări mai complexe); înțelegerea a ceea ce este pe ecran (interpretarea conținutului vizualizat și acțiuni în consecință); integrare mai profundă cu aplicațiile (inclusiv execuția de sarcini în mai mulți pași). „Prima versiune beta iOS 26.4 a Apple, destinată dezvoltatorilor și care este planificată să includă părți din noul Siri, este programată pentru săptămâna 23 februarie. De asemenea, un eveniment de lansare de produs este programat pentru săptămâna 2 martie.” Din punct de vedere tehnic, Apple ar urma să folosească un model Gemini personalizat, în baza unui acord cu Google, pentru funcții precum rezumarea și planificarea, în timp ce cererile mai ușoare ar rămâne pe dispozitiv, potrivit Etavrian . Publicația menționează și că procesarea pentru aceste funcții ar rula pe infrastructura Apple de tip Private Cloud Compute (servere controlate de Apple), cu promisiunea că datele utilizatorilor nu sunt partajate cu Google. Calendarul indicat în material sugerează că beta-ul pentru dezvoltatori din săptămâna de 23 februarie este doar începutul, iar versiunea publică iOS 26.4 ar putea ajunge la utilizatori la final de martie sau început de aprilie 2026, după ciclul obișnuit de testare. Separat, Gurman mai indică un eveniment de lansare de produse în săptămâna de 2 martie, iar cele mai probabile sunt noi modele MacBook Pro cu cipuri M5 Pro și M5 Max. Pentru Apple, revizuirea majoră a lui Siri are și o componentă de credibilitate: funcțiile au fost anunțate în 2024, dar au fost amânate repetat, iar compania a schimbat abordarea tehnică în 2025 către o „arhitectură mai profundă, cap-coadă”. În paralel, proiectul ar fi trecut sub coordonarea lui Craig Federighi și a lui Mike Rockwell, iar șeful zonei de IA, John Giannandrea, ar fi fost retras din proiectele orientate către consumatori. [...]

Un copil vorbește la telefon, evidențiind riscurile tehnologiilor moderne.
Inteligență artificială09 feb. 2026

Voci clonate și realități paralele – noile amenințări digitale pentru echilibrul familial

Falsurile generate de inteligența artificială și algoritmii digitali schimbă deja relațiile din familie , iar efectele se văd tot mai clar în nivelul de încredere, comunicare și siguranță emoțională, arată o analiză publicată de TVR Info , pe baza explicațiilor oferite de psihologul Radu Leca. Specialiștii avertizează că noile tehnologii nu mai afectează doar spațiul public sau profesional, ci pătrund direct în intimitatea familiei, unde pot declanșa conflicte, anxietate și decizii greșite. Un prim risc major este reprezentat de falsurile audio și video realizate cu ajutorul inteligenței artificiale . Tehnologiile de clonare vocală permit imitarea aproape perfectă a vocii unui copil, nepot sau partener, iar aceste simulări sunt folosite frecvent în scenarii de urgență fabricate. Emoția puternică generată de panică îi determină pe mulți să reacționeze impulsiv, inclusiv prin transferuri rapide de bani. Psihologii recomandă stabilirea unui „cuvânt de siguranță”, cunoscut doar de membrii familiei, care să fie folosit pentru verificarea autenticității unui apel sau mesaj suspect. Pe lângă fraude, algoritmii de recomandare influențează modul în care membrii familiei percep realitatea. Platformele digitale afișează conținut care confirmă opiniile deja existente, creând bule informaționale greu de spart. În acest context, apar tensiuni între generații, mai ales când părinții și copiii ajung să trăiască în realități paralele, alimentate de surse diferite de informație. Terapia sistemică indică diversificarea surselor și cultivarea dialogului ca soluții pentru prevenirea izolării și radicalizării opiniilor. Un alt efect tot mai vizibil este anxietatea profesională generată de automatizare. Mulți adulți resimt teama pierderii relevanței sociale sau a locului de muncă, iar această presiune se transferă în viața de familie prin iritabilitate și retragere emoțională. Specialiștii subliniază că sprijinul familiei și adaptarea continuă la noile tehnologii pot reduce sentimentul de inutilitate, reamintind că empatia, experiența și judecata etică rămân calități exclusiv umane. Nu în ultimul rând, colectarea masivă de date expune intimitatea familială. Analiza comportamentului online, a fotografiilor și a locațiilor permite conturarea unor profiluri detaliate, care pot fi exploatate de persoane rău intenționate. Reducerea informațiilor publicate, limitarea permisiunilor aplicațiilor și stabilirea unor reguli clare privind viața digitală devin măsuri esențiale de protecție. Educația preventivă, discutată deschis în familie, ajută la păstrarea unui echilibru între conectare și siguranță. În concluzie, tehnologia nu este un adversar în sine, dar utilizarea ei fără discernământ poate fragiliza relațiile de familie. Calmul, verificarea informațiilor și dialogul constant rămân cele mai eficiente instrumente pentru a transforma mediul digital dintr-o sursă de conflict într-un sprijin real pentru viața de zi cu zi. [...]

Mike Krieger discutând despre impactul inteligenței artificiale în programare.
Inteligență artificială08 feb. 2026

Claude AI scrie 100% din codul intern la Anthropic - Programatorii devin curatori și arhitecți de prompturi

Claude AI scrie acum aproape tot codul intern la Anthropic, potrivit declarațiilor recente ale directorului de produs Mike Krieger , cofondator al Instagram. Afirmațiile sale confirmă previziunile ambițioase ale CEO-ului Dario Amodei, care estima încă din martie 2025 că AI-ul va genera 90% din cod în decurs de 6-12 luni. La începutul lui 2026, cifra a atins practic 100%. Inginerii de la Anthropic trimit acum zilnic cereri de tip pull request cu 2.000–3.000 de linii de cod complet scrise de Claude. Boris Cherny, șeful proiectului Claude Code, a declarat că nu a mai scris manual niciun rând de cod de peste două luni. Această transformare a schimbat profund rolul programatorilor din companie. În loc să scrie cod, aceștia se concentrează acum pe supervizare, verificări, ajustări de strategie și definirea prompturilor. Într-un raport intern publicat de Anthropic în noiembrie 2025, s-a arătat că Claude era deja implicat în 59% din activitatea zilnică a angajaților , crescând productivitatea cu până la 50%. Pe plan tehnic, b a progresat de la a necesita intervenție umană la fiecare 10 pași, la a executa peste 20 de acțiuni consecutive fără ajutor. Inginerii spun că acest lucru le oferă libertate creativă, eliminând sarcinile repetitive. Implicații pentru industrie Declarațiile au avut ecouri imediate pe piață. Acțiunile companiilor IT din India , precum Infosys, TCS sau HCLTech, au scăzut, pe fondul îngrijorărilor privind viitorul outsourcingului de servicii software. În același timp, Microsoft și Salesforce raportează că doar 30% din codul lor este generat de AI, iar Alphabet afirmă că a ajuns la 50%. Unii experți atrag însă atenția că aceste procente se aplică, cel mai probabil, uneltelor interne și aplicațiilor auxiliare , nu componentelor critice ale modelelor AI. De asemenea, rolul oamenilor ca designeri de soluții și evaluatori de rezultate rămâne esențial. În timp ce Claude AI pare să redefinească programarea în cadrul Anthropic, industria largă adoptă un ritm mai moderat. Totuși, direcția este clară: inteligența artificială devine motorul central al dezvoltării software . [...]

Cipuri de memorie HBM4 Samsung, esențiale pentru inteligența artificială.
Inteligență artificială08 feb. 2026

Cipurile HBM4 de la Samsung, gata de producție – vor alimenta sistemele AI ale Nvidia și Google

Samsung ar putea începe producția în masă a noilor cipuri de memorie HBM4 destinate inteligenței artificiale încă din februarie 2026 , potrivit SamMobile . Aceste cipuri de memorie ultra-performantă vor fi esențiale pentru viitoarea generație de sisteme AI de la Nvidia și Google , marcând o relansare puternică a diviziei de memorii a gigantului sud-coreean. După ce a ratat livrările de cipuri HBM3E către Nvidia în trecut, Samsung vrea să evite o greșeală similară cu HBM4 . Producția se va desfășura în campusul de la Pyeongtaek, iar primele livrări sunt destinate platformei Nvidia Vera Rubin , acceleratorul AI de nouă generație programat pentru lansare în a doua jumătate a anului. Alte livrări vor merge către Google, care va integra aceste cipuri în TPU-urile Ironwood de generația a șaptea . Ce diferențiază HBM4 de generațiile anterioare? Samsung folosește un proces de fabricație din clasa 10nm , în timp ce rivalul SK Hynix utilizează 12nm Viteza atinsă în testele interne: până la 11,7 Gbps Performanță și eficiență superioare, esențiale pentru aplicațiile AI de mare intensitate Potrivit sursei citate, cipurile HBM4 produse de Samsung au trecut testele de calitate Nvidia „cu brio” , consolidându-le poziția ca alternativă viabilă și competitivă la SK Hynix, liderul actual pe acest segment. Un alt aspect important este că capacitățile de producție pentru 2026 ale ambilor producători ( Samsung și SK Hynix ) sunt deja rezervate integral , semn al cererii uriașe venite din partea giganților tehnologici precum Amazon, Microsoft, OpenAI sau Google, care se întrec în a-și asigura stocuri într-un context de posibilă criză a cipurilor. În condițiile în care cipurile HBM4 devin nucleul platformelor AI de ultimă generație, acest segment ar putea deveni unul dintre cele mai profitabile pentru Samsung în următorii ani, cu venituri estimate de ordinul miliardelor. [...]

Liderii BRICS la summit, discutând despre inteligența artificială suverană.
Inteligență artificială07 feb. 2026

India, Rusia și China vor IA suverană – BRICS sfidează dominația ChatGPT și Gemini

BRICS își construiește propriul ecosistem de inteligență artificială , încercând să reducă influența dominantă a modelelor dezvoltate în Silicon Valley , precum ChatGPT sau Gemini. Potrivit Berliner Zeitung , China, India și Rusia lucrează activ la dezvoltarea unor modele „suverane”, în încercarea de a câștiga independență tehnologică și influență geopolitică. Demersul este susținut de inițiative comune lansate la summitul BRICS din Kazan (2024), dar succesul nu este garantat, din cauza dezechilibrelor interne și a limitărilor tehnologice. China: liderul de facto al IA-ului non-occidental China a realizat cele mai mari progrese, cu modele precum DeepSeek și Qwen , care în unele teste tehnice (codare, matematică) rivalizează sau depășesc modelele occidentale. Acestea sunt dezvoltate în regim open-source , mizând pe extinderea globală și sprijinul din partea statului și marilor companii tech. Beijingul consideră inteligența artificială o tehnologie strategică, nu doar economică, ci și politică. Până în 2030, China ar putea concentra 86% din impactul economic estimat al IA în spațiul BRICS. India: accent pe local și diversitate lingvistică India urmează o altă direcție, dezvoltând modele precum Krutrim AI și Sarvam , gândite pentru un public intern vast, de 1,4 miliarde de oameni, care vorbesc peste 20 de limbi diferite. Aceste modele se adresează realităților locale, dar rămân dependente de componente occidentale și au o prezență internațională redusă. Strategia sa este mai mult inward-looking , axată pe incluziune lingvistică, dar mai puțin competitivă tehnologic. Rusia: autonomie cu piedici structurale Rusia mizează pe modele dezvoltate intern, precum GigaChat (Sberbank) și YandexGPT , dar se confruntă cu limite clare: lipsa semiconductorilor proprii, izolare internațională și lipsa atractivității externe. În ciuda performanței tehnice modeste, aceste sisteme îndeplinesc un rol politic intern esențial: controlul conținutului digital și al narațiunilor în contextul sancțiunilor și al „războiului informațional”. Inițiative comune BRICS: între ambiție și fragmentare Din 2024, BRICS derulează proiecte comune precum: Centrul pentru NLP multilingvistic Smart Agriculture AI Digital Cloud Corridor – pentru autonomie în procesare de date Carta etică AI – alternativă la regulile occidentale Acestea sunt sprijinite financiar de New Development Bank , cu investiții de peste 5 miliarde de dolari . Obstacole în calea succesului global Deși unele estimări prevăd un impact economic de 600 de miliarde de dolari până în 2030 , realitatea este complicată. Diferențele de reglementare, lipsa unui cadru tehnologic comun și inegalitățile între membri frânează dezvoltarea unui front unitar BRICS în domeniul IA. În plus, studiile arată că modelele din aceste țări nu sunt neutre politic : China evită subiecte ca Taiwanul, iar Rusia reflectă pozițiile oficiale în privința Ucrainei și NATO . Astfel, IA nu doar că devine o unealtă de putere, ci și un vector al narațiunilor naționale , fie ele occidentale sau non-occidentale. Deși China pare capabilă să concureze serios cu giganții occidentali ai IA, India și Rusia trebuie să-și consolideze pozițiile mai întâi pe plan intern. Un ecosistem BRICS unificat în domeniul inteligenței artificiale pare improbabil pe termen scurt, dar fragmentarea globală a IA este deja un fapt — una în care dominația absolută a Occidentului începe să fie pusă sub semnul întrebării. [...]

Interfețe grafice inovatoare generate de inteligența artificială, cu feedback de la designeri.
Inteligență artificială07 feb. 2026

Apple testează un model open-source care depășește GPT-5 în generarea de interfețe – cheia stă în feedbackul natural oferit de designeri

Apple a demonstrat că un model de inteligență artificială open-source, ajustat cu ajutorul feedbackului direct al designerilor, poate depăși performanța GPT-5 în generarea de interfețe grafice (UI) . Studiul, publicat pe platforma de cercetare a companiei, schimbă radical modul în care este colectat feedbackul uman pentru antrenarea modelelor de limbaj: în loc de metode tradiționale precum sistemele de notare sau alegerile între variante, cercetătorii au folosit intervenții directe ale designerilor în interfețele generate de AI. Feedbackul natural bate clasificarea Cercetarea s-a bazat pe interacțiunile a 21 de designeri profesioniști care au oferit corecturi folosind metode proprii de lucru: schițare vizuală pe interfață, comentarii naturale și modificări directe în software-ul de design. Aceste acțiuni au generat 1.460 de exemple de preferințe între variante de UI, transformate apoi în date pentru antrenarea unui model AI. Evaluatorii independenți au fost de acord cu intervențiile designerilor în 76,1% din cazuri și cu schițele vizuale în 63,6%, în timp ce acordul cu alegerile bazate doar pe clasificare a fost de doar 49,2%, practic echivalent cu șansa . Astfel, cercetătorii au concluzionat că datele generate prin metode de lucru naturale sunt semnificativ mai consistente și utile pentru AI decât evaluările formale. Un model mic, dar bine învățat Folosind aceste date, echipa Apple a antrenat un model open-source, Qwen2.5-Coder, aplicând o tehnică proprie de optimizare numită ORPO. Rezultatul a fost remarcabil: modelul a depășit toate bazele de comparație, inclusiv GPT-5, în evaluări realizate de oameni în format „arena” – în care mai mulți evaluatori compară răspunsuri fără să știe ce model le-a generat. Performanța confirmă că modelele mai mici, dar fin ajustate , pot întrece sisteme mai mari și mai complexe, dacă sunt instruite cu date de calitate superioară. Studiul atrage atenția și asupra costurilor: o revizuire completă a unei interfețe de către un designer a necesitat în medie 3,45 minute, față de doar 12 secunde pentru o evaluare clasică prin alegere. Ca soluție de compromis, schițele vizuale au oferit o combinație eficientă: feedback scurt, dar profund, cu o medie de doar 42 de caractere de explicație per intervenție. Modelul antrenat de Apple este disponibil public pe GitHub , ceea ce deschide oportunități pentru comunitatea de cercetare și pentru companiile care vor să integreze astfel de sisteme în produse comerciale. [...]