Știri
Știri din categoria Inteligență artificială

Airbnb spune că a ajuns să genereze cu inteligență artificială 60% din codul nou, un semnal că automatizarea începe să schimbe concret productivitatea echipelor de inginerie și modul în care compania își scalează dezvoltarea de software, potrivit TechRadar. Declarațiile au fost făcute de CEO-ul Brian Chesky în cadrul conferinței cu investitorii pentru rezultatele din T1 2026.
Chesky a spus că, în trimestrul raportat, 60% din codul produs de inginerii Airbnb a fost scris cu ajutorul unor instrumente de inteligență artificială. În același timp, el a prezentat AI ca pe un multiplicator de capacitate pentru echipe: compania folosește AI pentru a construi mai rapid instrumente destinate partenerilor API (parteneri care își gestionează proprietățile prin software-uri diferite și se conectează la platformă prin interfețe de programare).
„AI oferă un avantaj uriaș — unde înainte ai fi avut nevoie de o echipă de 20 de ingineri, un inginer poate acum să pornească agenți care fac multă muncă sub supraveghere.”
Mesajul central: Airbnb încearcă să accelereze livrarea de software către parteneri, inclusiv în zone unde „înainte nu avea resurse”.
Compania a extins utilizarea AI și în asistența pentru utilizatori. Chesky a afirmat că „botul” de suport clienți al Airbnb poate gestiona aproximativ 40% dintre probleme fără a le escalada către un agent uman.
În același timp, CEO-ul a recunoscut limitări: instrumentele AI pot avea probleme în felul în care prezintă informația către utilizatorii care contactează suportul, ceea ce poate duce la o experiență mai slabă.
Deși Airbnb folosește intens AI în dezvoltare și suport, Chesky a spus că nimeni nu a „rezolvat” încă AI pentru travel sau comerț electronic, criticând modelul actual de chatbot. El a enumerat patru probleme:
TechRadar notează că afirmațiile Airbnb se înscriu într-un trend mai larg: CEO-ul Microsoft, Satya Nadella, a spus recent că aproape o treime din codul companiei este produs în acest fel (mențiune în material, cu trimitere la un articol TechRadar). Publicația adaugă însă că astfel de cifre trebuie privite cu prudență și citează o cercetare (menționată tot de TechRadar) potrivit căreia codul generat de AI produce de 1,7 ori mai multe probleme decât cel scris de oameni, ceea ce poate însemna revizuiri mai lungi și riscul ca mai multe erori să ajungă în produsul final.
Pentru companii, miza devine un echilibru dificil: câștig de viteză și volum la livrare, dar cu presiune suplimentară pe controlul calității și pe procesele de verificare.
Recomandate

Managerii care fac doar „people management” și angajații care refuză schimbarea riscă să fie scoși din joc pe măsură ce AI intră în fluxurile de lucru , avertizează CEO-ul Airbnb , Brian Chesky, într-o intervenție citată de HotNews . Mesajul are o miză operațională directă: rolurile de coordonare și execuție vor fi evaluate tot mai mult prin capacitatea de a lucra efectiv cu instrumente de inteligență artificială, nu doar prin supraveghere sau rutină. Chesky spune că două categorii „nu vor supraviețui erei inteligenței artificiale”: managerii care se ocupă exclusiv de gestionarea oamenilor și angajații „rigizi”, care nu vor să se schimbe și să evolueze. Declarațiile au fost făcute în podcastul „Invest Like The Best”, potrivit revistei Fortune. Ce se schimbă în rolul de manager În viziunea CEO-ului Airbnb, pe măsură ce AI modifică structurile companiilor și felul în care se muncește, șefii trebuie să devină „manageri de personal hibrizi”. Concret, asta înseamnă o abordare mai tehnică și o legătură mai strânsă cu produsul sau rezultatul final, nu doar coordonare administrativă. „Nu cred că managerii de personal vor avea vreo valoare în viitor. Când mă refer la managerii de personal, mă refer la oameni care gestionează doar oameni.” Chesky adaugă că relațiile cu echipa rămân importante, dar „simpla supraveghere” nu mai este suficientă; accentul se mută pe gestionarea oamenilor „pe parcursul activității”, în contextul concret al muncii. Presiunea pe angajați: adaptarea devine criteriu de performanță CEO-ul Airbnb susține că nici angajaților care cred că pot evita noua tehnologie nu le va fi mai ușor. În același timp, el își păstrează o perspectivă relativ optimistă, argumentând că instrumentele pot fi învățate „foarte ușor”, dacă există o „mentalitate de creștere”. În context, HotNews amintește și alte avertismente din industrie: CEO-ul Anthropic, Dario Amodei, a spus că AI ar putea afecta jumătate din munca de birou de nivel începător, iar șeful departamentului de AI al Microsoft, Mustafa Suleyman , a estimat că „majoritatea, dacă nu toate” sarcinile de birou ar putea fi automatizate în 12–18 luni (menționat de HotNews într-un material separat). La ce să se aștepte companiile Mesajul central al lui Chesky mută discuția de la „AI va lua joburi” la „AI va schimba conținutul joburilor”: companiile vor cere tot mai mult competențe practice de lucru cu AI, inclusiv de la manageri. În acest cadru, rolurile care nu se conectează la livrarea efectivă a muncii – sau care resping schimbarea – devin mai vulnerabile. [...]

Jensen Huang spune că AI declanșează „cea mai mare construcție de infrastructură tehnologică” și împinge economia spre reindustrializare. Într-un discurs la ceremonia de absolvire a Carnegie Mellon University , CEO-ul NVIDIA a descris, potrivit NVIDIA , inteligența artificială drept motorul unei transformări care va schimba „fiecare industrie”, cu efecte directe asupra investițiilor în infrastructură și asupra modului în care se organizează munca. Huang a tras o paralelă între începutul carierei sale în perioada „revoluției PC” și momentul actual, pe care îl numește începutul „revoluției AI”. Mesajul central: schimbarea de platformă tehnologică este mai amplă decât cele anterioare (PC, internet, mobil, cloud) deoarece „inteligența” este „fundamentală” pentru toate domeniile economiei. De ce contează: AI ca val de investiții și reorganizare a muncii În discurs, Huang a susținut că AI alimentează „cea mai mare extindere a infrastructurii tehnologice din istoria omenirii” și o „oportunitate o dată pe generație” de a „reindustrializa America” și de a reconstrui capacitatea țării „de a produce/ a construi”. El a extins impactul dincolo de sectorul tehnologic, indicând că beneficiile și cererea de competențe vor apărea într-o plajă largă de ocupații, inclusiv în meserii și roluri operaționale precum electricieni, instalatori, muncitori în construcții metalice, tehnicieni și „toate tipurile de constructori”. Automatizare vs. valoare adăugată: cum descrie NVIDIA efectul asupra joburilor Huang a argumentat că AI „automatizează sarcini, dar ridică nivelul lucrătorilor”, insistând asupra diferenței dintre „sarcină” și „scopul” unei profesii. Exemplul folosit a fost radiologia: AI poate automatiza citirea imaginilor (sarcina), dar rolul medicului rămâne îngrijirea pacientului (scopul), ceea ce ar muta accentul spre activități cu valoare mai mare. Reguli și responsabilitate: „siguranța” AI, în paralel cu avansul tehnologic O parte importantă a mesajului a vizat riscurile și guvernanța (setul de reguli și mecanisme de control) pentru AI. Huang a spus că „responsabilitatea generației noastre” este să avanseze AI „înțelept” și a cerut ca dezvoltarea capabilităților să meargă împreună cu „siguranța AI”. În același timp, a atribuit un rol explicit decidenților publici, care ar trebui să creeze „balize/limite” („guardrails”) pentru protecția societății, fără a bloca inovația. Recomandarea lui pentru a „răspunde momentului” a fost un set de patru direcții urmărite simultan: avans „în siguranță”; politici „gândite”; acces larg la AI; încurajarea implicării cât mai multor oameni. Context: discurs la Carnegie Mellon și recunoaștere academică Discursul a fost ținut duminică, la ceremonia de absolvire (a 128-a) a Carnegie Mellon University, în Pittsburgh, Pennsylvania. Huang a amintit rolul universității în istoria AI și roboticii și a primit titlul onorific de Doctor în Știință și Tehnologie, una dintre distincțiile majore ale instituției. În final, el a îndemnat absolvenții să se implice activ în modelarea direcției tehnologiei, avertizând că retragerea societății din fața tehnologiei nu oprește progresul, ci reduce capacitatea de a-i influența efectele. [...]

NVIDIA și partenerii săi au deschis ca standard MRC, un protocol care crește reziliența rețelelor pentru antrenarea AI la scară foarte mare , după ce a fost folosit în producție pe infrastructura Spectrum‑X, potrivit NVIDIA . Miza este una operațională: în clustere cu mii de GPU-uri, întreruperile sau congestia de rețea pot încetini ori opri antrenări lungi și costisitoare, iar MRC este proiectat să reducă aceste blocaje prin rutare pe mai multe căi și recuperare rapidă la pierderi de pachete. Ce este MRC și de ce contează pentru „fabricile” de AI MRC (Multipath Reliable Connection) este descris ca un protocol de transport RDMA (Remote Direct Memory Access – tehnologie care permite transferuri de date cu latență mică, ocolind o parte din procesarea clasică a sistemului de operare). Concret, MRC permite ca o singură conexiune RDMA să distribuie traficul pe mai multe rute din rețea, cu efecte urmărite direct în exploatare: creșterea debitului (throughput) prin folosirea simultană a mai multor căi; echilibrarea încărcării (load balancing) pentru a evita „punctele fierbinți”; disponibilitate mai bună, prin ocolirea automată a segmentelor cu probleme. NVIDIA susține că MRC ajută la menținerea unui nivel ridicat de utilizare a GPU-urilor, tocmai prin faptul că „ține” lățimea de bandă necesară pe durata antrenării și reduce timpii morți generați de problemele de rețea. Cum funcționează reziliența: rerutare în microsecunde și retransmisie „inteligentă” În arhitectura descrisă, MRC folosește mecanisme care vizează două tipuri de incidente frecvente la scară mare: congestia și pierderile de date. Pe congestie, protocolul ar evita dinamic rutele supraîncărcate „în timp real”, pentru a susține lățime de bandă ridicată chiar și când rețeaua este aglomerată. La pierderi de date, NVIDIA indică o retransmisie „rapidă și precisă”, menită să limiteze efectul întreruperilor scurte asupra joburilor de lungă durată. Un element cheie este „failure bypass”: tehnologia ar detecta o cădere de rută și ar reruta traficul automat, în hardware, „în doar microsecunde” — un detaliu relevant pentru antrenarea distribuită, unde sincronizarea între mii de GPU-uri este sensibilă la întreruperi. Cine îl folosește și cum ajunge un standard deschis NVIDIA indică drept utilizatori ai Spectrum‑X Ethernet (în acest context) OpenAI, Microsoft și Oracle. În plus, compania afirmă că centrele de date Microsoft Fairwater și Oracle Cloud Infrastructure (OCI) Abilene se bazează pe MRC pentru cerințe de performanță, scalare și eficiență. Un punct cu impact de industrie este că MRC, după utilizarea în producție cu performanță optimizată pe hardware Spectrum‑X, a fost „lansat ca specificație deschisă” prin Open Compute Project (OCP) — o mișcare care, în mod tipic, facilitează adoptarea mai largă și interoperabilitatea între furnizori. NVIDIA mai precizează că a colaborat la dezvoltarea MRC cu AMD, Broadcom, Intel, Microsoft și OpenAI. „Implementarea MRC în generația Blackwell a avut mult succes și a fost posibilă datorită unei colaborări puternice cu NVIDIA”, a declarat Sachin Katti, șeful diviziei de industrial compute la OpenAI. „Abordarea end‑to‑end a MRC ne-a permis să evităm o mare parte din încetinirile și întreruperile tipice legate de rețea și să menținem eficiența antrenărilor de frontieră la scară.” Implicația practică: flexibilitate de transport RDMA pe aceeași infrastructură Pe Spectrum‑X Ethernet, clienții ar avea opțiuni de modele de transport RDMA: atât Adaptive RDMA, cât și MRC, plus alte protocoale personalizate, care rulează nativ pe NVIDIA ConnectX SuperNICs și switch-urile Spectrum‑X și susțin designuri de rețea „multiplanar”. În această arhitectură, o rețea multiplanară înseamnă mai multe „plane” (fabrice) independente, fiecare oferind rute alternative între GPU-uri. NVIDIA afirmă că funcția Spectrum‑X Multiplane adaugă echilibrare de sarcină accelerată în hardware între plane, pentru reziliență și scalare, menținând latențe predictibile și permițând extinderea la „sute de mii de GPU-uri”. Pentru piață, mesajul operațional este că, pe măsură ce infrastructura de antrenare AI crește, diferențiatorul nu mai este doar viteza brută, ci capacitatea rețelei de a evita congestia și de a „supraviețui” defectelor fără a opri joburile — iar standardizarea deschisă a MRC urmărește să transforme aceste mecanisme într-o practică mai ușor de adoptat la scară. [...]

Google extinde în Europa o versiune de Google Finance cu funcții pe bază de inteligență artificială , mizând pe acces mai rapid la informații financiare și pe instrumente de analiză direct în produs, potrivit Google Blog . Lansarea are loc „săptămâna aceasta” și include suport complet pentru limbile locale, într-o versiune „reimaginată” a Google Finance, care adaugă capabilități orientate spre documentare, vizualizare și urmărirea evenimentelor de piață în timp real. Ce se schimbă pentru utilizatori și pentru fluxul de analiză Noul Google Finance introduce un set de funcții care mută o parte din munca de căutare și sinteză în interiorul platformei: Cercetare asistată de AI : utilizatorii pot întreba despre acțiuni individuale sau tendințe mai largi de piață și primesc un răspuns generat de AI, însoțit de linkuri pentru aprofundare. Pentru întrebări mai complexe, este disponibil „ Deep Search ”, menționat ca fiind acum disponibil global în Google Finance. Vizualizări avansate : instrumente noi de graficare permit afișarea unor indicatori tehnici (de exemplu, „moving average envelopes” – benzi construite în jurul unei medii mobile, folosite în analiza tehnică) și identificarea momentelor-cheie din grafice, cu explicații despre motivele mișcării de preț din ziua respectivă. Informații în timp real : un flux de știri refăcut și date extinse pentru mărfuri și criptomonede, pentru urmărirea piețelor pe măsură ce se mișcă. Rezultate financiare „live” : urmărirea teleconferințelor de raportare (earnings calls) cu audio live, transcrieri sincronizate și „insight-uri” generate de AI, inclusiv evidențieri adnotate. De ce contează: presiune pe viteza de documentare și pe instrumentele clasice Din perspectiva utilizării, extinderea în Europa cu suport local de limbă sugerează o încercare de a standardiza, la scară regională, un mod de lucru în care utilizatorul obține rapid o sinteză și apoi aprofundează prin surse linkuite, fără să iasă din produs. În același timp, integrarea transcrierilor și a „insight-urilor” pentru teleconferințe poate reduce timpul necesar pentru a parcurge integral apelurile cu investitorii, mai ales în zilele aglomerate de raportări. Google nu oferă în material o listă de țări, un calendar detaliat pe piețe sau indicatori de adopție; informațiile disponibile se limitează la faptul că lansarea are loc în Europa „săptămâna aceasta” și că include suport complet pentru limbile locale. [...]

YouTube testează o căutare cu AI care schimbă modul în care utilizatorii găsesc conținut , trecând de la o listă de rezultate la răspunsuri structurate și conversații interactive, potrivit Antena 3 . Noua funcție, descrisă ca un instrument de căutare bazat pe inteligență artificială, este gândită să ofere utilizatorilor răspunsuri „mai clare și ghidate”, inclusiv pentru întrebări mai complexe, cum ar fi planificarea unei excursii. Antena 3 notează că informația este preluată de la TechCrunch. Ce aduce „ Ask YouTube ” în căutare Funcția, numită „Ask YouTube”, permite utilizatorilor să formuleze întrebări, iar sistemul răspunde într-un format interactiv, cu pași și recomandări. În locul afișării clasice a unei liste de videoclipuri, rezultatele combină: text explicativ; clipuri video scurte și lungi, integrate în răspuns. Un element central este continuitatea: utilizatorii pot reveni cu întrebări suplimentare, iar sistemul păstrează formatul interactiv și poate sugera locuri sau opțiuni relevante, conform aceleiași surse. Cine are acces și ce urmează Deocamdată, funcția este disponibilă doar pentru abonații YouTube Premium din Statele Unite, cu vârsta de peste 18 ani, care aleg să participe la test. Google lucrează la extinderea accesului și pentru restul utilizatorilor, însă articolul nu precizează un calendar sau piețe vizate pentru lansarea mai largă. De ce contează schimbarea Inițiativa este prezentată ca parte din strategia mai amplă de integrare a inteligenței artificiale în experiența de căutare, cu accent pe răspunsuri mai complexe, interactive și adaptate nevoilor utilizatorilor. În practică, miza este o schimbare operațională în felul în care oamenii navighează pe YouTube: mai puțin „căutare și filtrare” și mai mult „întrebare și ghidare” direct în interfață. [...]

Comisia Europeană încearcă să obțină acces la modelele avansate de inteligență artificială ale OpenAI și Anthropic , într-un demers care țintește direct capacitatea UE de a evalua și gestiona riscurile acestor tehnologii înainte ca ele să fie folosite pe scară largă în economie, potrivit G4Media . Un purtător de cuvânt al Comisiei Europene, Thomas Regnier, a declarat că Bruxellesul „apreciază abordarea proactivă” a OpenAI, inclusiv disponibilitatea companiei de a oferi acces la noua generație de modele. În cazul Anthropic, Comisia ar fi avut deja „aproximativ patru sau cinci” întâlniri, însă discuțiile nu au ajuns la un stadiu în care să fie analizată concret posibilitatea accesului la modelele dezvoltate de companie, conform Reuters, citată de publicație. „În cazul uneia dintre ele (OpenAI), avem o companie care se oferă în mod proactiv să acorde acces. În cazul celeilalte (Anthropic), avem schimburi constructive, deși nu ne aflăm încă într-un stadiu în care să putem specula cu privire la un potențial acces sau nu.” De ce contează pentru reglementare și pentru companii Miza discuțiilor este una de reglementare și supraveghere: autoritățile europene încearcă să înțeleagă mai bine „riscurile și capacitățile” noilor modele de inteligență artificială, în special pe zona de funcții avansate care pot avea impact direct asupra securității și operațiunilor digitale. În mod specific, contextul invocat este legat de modele cu funcții avansate în: securitate cibernetică; automatizare. Ce urmează (și ce nu se știe încă) Din informațiile disponibile, discuțiile sunt în derulare, dar în cazul Anthropic nu există încă o bază pentru a anticipa dacă accesul va fi acordat sau în ce condiții. În cazul OpenAI, Comisia indică o deschidere mai mare din partea companiei, fără a detalia însă forma accesului sau calendarul. [...]