Știri
Știri din categoria Inteligență artificială

Atacurile repetate asupra locuinței lui Sam Altman ridică miza de securitate în jurul OpenAI, după ce poliția din San Francisco a anunțat arestarea a doi suspecți în legătură cu un nou incident cu focuri de armă, potrivit IT Home.
Poliția a reținut doi suspecți — Amanda Tom (25 de ani) și Muhammad Tariq Hussain (23 de ani) — acuzați de „tragere din culpă” (incident cu armă de foc tratat ca infracțiune, fără intenție dovedită în acest stadiu), conform informațiilor citate de publicație din The San Francisco Standard. În raportul preliminar, incidentul ar fi avut loc duminică dimineața, la ora locală 01:40, când o berlină Honda cu două persoane ar fi trecut pe lângă locuința lui Altman, apoi s-ar fi oprit în fața casei.
Conform raportului de intervenție, coroborat cu imagini de supraveghere și declarațiile personalului de securitate al locuinței, pasagerul din dreapta ar fi scos mâna pe geam și ar fi tras un foc de armă spre latura proprietății dinspre Lombard Street. Agenții de pază au declarat că au auzit împușcătura, iar mașina a părăsit apoi zona.
Camerele de supraveghere au surprins numărul de înmatriculare, iar poliția a identificat vehiculul și i-a oprit pe cei doi suspecți în zona 2000 Taylor Street. În urma percheziției la domiciliul acestora, polițiștii ar fi găsit trei arme de foc.
Acesta ar fi al doilea atac asupra locuinței CEO-ului OpenAI în decurs de două zile. Potrivit materialului, primul incident a avut loc vineri dimineața, când un bărbat de 20 de ani din Texas, Daniel Alejandro Moreno-Gama, ar fi aruncat un „cocktail Molotov” (sticlă cu material inflamabil) spre poarta metalică dinspre Chestnut Street, în jurul orei 03:40. Focul ar fi fost stins de personalul de securitate, iar momentul ar fi fost surprins de camere.
OpenAI ar fi transmis că, la scurt timp după incident, echipa de securitate de la sediul companiei din Mission Bay a observat o persoană care semăna cu suspectul, care ar fi făcut amenințări la adresa clădirii; aceasta a fost ulterior reținută de poliție.
În ambele cazuri, nu au fost raportate victime.
Seria de incidente evidențiază presiunea de securitate care poate apărea în jurul liderilor companiilor de inteligență artificială, într-un moment în care dezbaterea publică despre riscuri și efecte sociale se intensifică. IT Home notează că Altman a scris după incidentul cu dispozitiv incendiar:
„Teama și anxietatea oamenilor față de inteligența artificială sunt rezonabile. Asistăm la cea mai mare transformare pe termen lung a societății, poate din istorie.”
Potrivit sursei, Moreno-Gama a fost încarcerat vineri după-amiază în închisoarea comitatului San Francisco, fiind acuzat de tentativă de omor, incendiere și deținere sau fabricare de dispozitive incendiare, între altele. În cazul incidentului cu focuri de armă, ancheta este în desfășurare, iar acuzațiile menționate sunt cele comunicate în acest stadiu de poliție.
Recomandate

OpenAI își întărește măsurile de securitate după atacul cu un dispozitiv incendiar asupra locuinței lui Sam Altman , iar compania le-a transmis angajaților că birourile din San Francisco rămân deschise, cu prezență sporită a forțelor de ordine în zonă. Incidentul a avut loc la locuința din San Francisco a CEO-ului OpenAI, Sam Altman . Conform unui memorandum intern citat în material, un suspect ar fi aruncat un dispozitiv incendiar în jurul orei 3:45 (ora locală), acesta căzând lângă poarta exterioară și stingându-se de la sine. Au fost raportate doar pagube minore, fără răniți. La scurt timp după atac, o persoană care corespundea descrierii suspectului a apărut în apropierea sediului OpenAI de pe Third Street 1455 și ar fi amenințat că va distruge clădirea companiei. Poliția din San Francisco l-a reținut rapid, iar compania a informat personalul că a suplimentat paza și prezența de securitate în jurul clădirii, menținând totuși programul normal de lucru pentru ziua de vineri. Ce spun autoritățile și ce se știe despre suspect Poliția a transmis că a ajuns la fața locului la 4:12, după un apel privind un incendiu, și a confirmat că un bărbat a aruncat dispozitivul incendiar și a provocat un incendiu. Aproximativ o oră mai târziu, suspectul a fost găsit în zona Third Street (segmentul 1400), în fața unui spațiu comercial, fiind recunoscut ca persoana implicată în incidentul anterior. Autoritățile spun că este vorba despre un bărbat de 20 de ani; identitatea nu a fost făcută publică, iar acuzațiile sunt în curs de analiză în instanță. Reacția lui Altman: îngrijorările despre AI nu justifică violența Altman a publicat vineri pe blogul personal o fotografie de familie, afirmând că speră ca gestul să descurajeze atacuri similare. El a recunoscut că există îngrijorări legate de inteligența artificială, dar a insistat că dezbaterea nu trebuie să degenereze în violență și a cerut reducerea confruntării în discurs și acțiuni, inclusiv a „explozilor” reale sau simbolice. Pentru OpenAI , episodul mută discuția despre riscurile AI și tensiunile publice într-o zonă operațională imediată: continuitatea activității și protecția angajaților, în condițiile unei securități întărite la sediul din San Francisco. [...]

OpenAI cere o repoziționare a politicilor fiscale și sociale pe fondul automatizării , cu propuneri care mută accentul de pe taxarea muncii către impozitarea profiturilor și a câștigurilor de capital, inclusiv prin taxe pe „munca automatizată”, potrivit antena3.ro . Pachetul este prezentat ca răspuns la riscul ca inteligența artificială să afecteze locuri de muncă și industrii întregi. Compania fondată de Sam Altman a publicat o serie de recomandări de politici publice, descrise drept „idei inițiale”, în contextul în care avansul rapid al AI ar necesita reforme economice și politice de amploare. OpenAI susține că tranziția către „superinteligență” este incertă și ar trebui gestionată „printr-un proces democratic”. Miza economică: baza de impozitare, sub presiune dacă scade ocuparea Documentul propune modernizarea sistemului fiscal prin mutarea bazei de impozitare către veniturile corporative și câștigurile de capital, în locul veniturilor din muncă și al taxelor salariale, care ar putea fi lovite de pierderi de locuri de muncă asociate adoptării AI. În același cadru, OpenAI recomandă introducerea unor taxe legate de munca automatizată. Ce măsuri pune OpenAI pe masă Între recomandările principale menționate în material se află: săptămâna de lucru de 4 zile , pe care guvernul ar urma să o încurajeze și să o stimuleze la angajatori, fără reducerea salariilor ; „bonusuri de beneficii” corelate cu creșterile de productivitate generate de instrumentele AI; un fond public de avere , în care legislatorii și companiile de AI ar colabora pentru investiții pe termen lung legate de boom-ul AI, iar randamentele ar fi distribuite direct cetățenilor; consolidarea protecției sociale (sunt menționate Social Security și Medicaid) și măsuri temporare precum extinderea ajutoarelor de șomaj, care ar putea fi activate automat când indicatorii privind impactul AI ating anumite niveluri. Energie și infrastructură: cererea centrelor de date devine o problemă de politică publică OpenAI cere și accelerarea extinderii rețelei electrice din SUA, pe fondul presiunii create de construcția de centre de date și de consumul de energie necesar antrenării unor modele AI tot mai puternice. Context: temeri de recesiune și efecte deja vizibile în sectorul software Propunerile vin pe fondul creșterii îngrijorărilor privind un val de pierderi de locuri de muncă și perturbări economice. Materialul amintește un raport din februarie care descria un scenariu ipotetic în care progresele AI ar putea duce la o prăbușire a pieței și la o recesiune alimentată de consumatori, scenariu care ar fi declanșat o vânzare masivă pe burse. Totodată, este menționat impactul noilor instrumente pentru companii și programare dezvoltate de Anthropic și OpenAI asupra acțiunilor marilor companii software, fenomen numit „SaaSpocalipsă”, precum și faptul că AI a fost invocată ca factor în spatele concedierilor de la Block și Atlassian. Ce urmează În forma prezentată, recomandările OpenAI nu sunt un plan legislativ, ci un set de direcții de politică publică. Implementarea lor ar depinde de decizii ale autorităților și de disponibilitatea companiilor de a participa la experimente precum săptămâna de lucru de patru zile și mecanismele de redistribuire propuse. [...]

OpenAI susține că Elon Musk încearcă să schimbe din mers miza procesului, cu efect direct asupra calendarului și strategiei de apărare , potrivit ithome.com , care citează Bloomberg. Compania afirmă că Musk ar fi introdus, cu doar câteva săptămâni înainte de termen, o „surpriză legală” menită să ia pârâții pe nepregătite și să perturbe desfășurarea litigiului. Într-un document depus vineri noaptea la instanță, OpenAI spune că noile solicitări ale lui Musk urmăresc nu doar să complice procedura, ci și să „remodeleze” narațiunea publică despre proces. OpenAI califică aceste pretenții de ultim moment drept „necorespunzătoare din punct de vedere juridic” și „lipsite de bază factuală”. Ce cere Musk acum și de ce contează procedural Musk a dat în judecată OpenAI și Microsoft în 2024, acuzând OpenAI că s-a îndepărtat de misiunea inițială de cercetare după ce a atras investiții de ordinul miliardelor de dolari de la Microsoft și a început demersuri de reorganizare către un model cu scop lucrativ. În acțiune, el a cerut ca pârâții să plătească între aproximativ 79 miliarde și 134 miliarde de dolari (aprox. 360–610 miliarde lei) reprezentând „câștiguri ilegale”, conform materialului. Potrivit documentului depus de avocații lui Musk în această săptămână, el mai solicită: ca orice despăgubiri obținute la proces să fie direcționate către brațul caritabil al OpenAI, nu către el personal; ca instanța să anuleze transformarea corporativă a OpenAI; ca instanța să supravegheze viitoarele finanțări și tranzacții ale OpenAI, pentru a se asigura că nu se îndepărtează de misiunea inițială; demiterea lui Sam Altman din funcția de CEO al OpenAI și a unor membri ai consiliului de administrație. Din perspectiva operațională a litigiului, OpenAI susține că această schimbare de direcție ar necesita probe diferite și audierea unor martori diferiți față de cazul „împins” de Musk cu doar trei zile înainte, ceea ce ar putea complica pregătirea apărării într-un interval scurt. Calendar: proces programat pe 27 aprilie Procesul este programat pentru 27 aprilie, notează publicația. În acest context, OpenAI își construiește argumentul că noile cereri vin prea târziu și ar fi formulate tocmai pentru a crea presiune procedurală înainte de termenul de judecată. Materialul nu oferă, în fragmentul disponibil, un răspuns al lui Musk la poziția OpenAI și nici detalii despre cum ar urma instanța să se pronunțe asupra acestor solicitări înainte de termenul din 27 aprilie. [...]

Un agent AI pus să conducă un magazin cu un buget de 100.000 de dolari (aprox. 460.000 lei) a dat rapid rateuri operaționale, iar echipa umană a fost nevoită să intervină ca să evite blocaje , arată Libertatea , care relatează despre un experiment al startup-ului Andon Labs din San Francisco. Andon Labs a creat un agent AI numit Luna și i-a dat misiunea să deschidă și să administreze un magazin fizic, cu acces la internet și un card de credit, după ce cofondatorii Lukas Petersson și Axel Backlund au închiriat un spațiu comercial pentru trei ani. Obiectivul era ca agentul să construiască „de la zero” un magazin profitabil, gestionând inclusiv designul, aprovizionarea și angajarea personalului, cu intervenție umană minimă. Potrivit relatării, Luna a fost construită folosind Claude Sonnet 4.6 de la Anthropic. Unde s-a rupt lanțul: execuție slabă în managementul de zi cu zi Luna a ales un format de boutique, „Andon Market”, cu produse diverse – de la cărți și lumânări la jocuri și articole promoționale personalizate. Însă problemele au apărut imediat în zona de operare, acolo unde retailul depinde de proceduri și coordonare. Concret, experimentul a scos în evidență mai multe vulnerabilități: recrutare superficială : interviuri telefonice scurte, de 5–15 minute; transparență inconsistentă : agentul nu le spunea mereu candidaților că este o inteligență artificială, decât dacă era întrebat direct; planificare defectuoasă : în ziua deschiderii, Luna nu a reușit să organizeze eficient programul angajaților, iar cofondatorul Lukas Petersson spune că a fost nevoie de intervenția echipei pentru a asigura prezența personalului; inconsistență de brand : logo-ul creat de agent (o față zâmbitoare generică) apărea diferit pe materiale promoționale; decizii discutabile la angajare : Luna a refuzat candidați considerați promițători (de exemplu, studenți la informatică) pe motiv că nu aveau experiență în retail, decizie criticată în material ca semn al lipsei de „judecată umană”. De ce contează pentru companii: „agentul AI” nu înlocuiește încă funcțiile critice Dincolo de componenta spectaculoasă a testului, concluzia practică este că, în forma actuală, un agent AI poate gestiona unele sarcini, dar se poate bloca în activități aparent banale, cu impact direct în costuri și continuitatea operațiunilor (programarea oamenilor, comunicarea cu candidații, coerența execuției). Andon Labs a precizat că experimentul este controlat și că persoanele care lucrează în magazin sunt angajate oficial de companie, cu salariu garantat și protecții legale. Petersson a spus că obiectivul principal este evaluarea capabilităților modelelor actuale de inteligență artificială și identificarea limitelor lor. În același context, Libertatea notează că un studiu realizat de cercetători de la Carnegie Mellon a indicat dificultăți ale agenților AI în sarcini simple, precum gestionarea unei interfețe sau interpretarea corectă a conversațiilor colegilor. [...]

Amazon mizează pe AI ca motor de creștere pentru AWS, dar recunoaște că cererea depășește capacitatea disponibilă , într-un moment în care investițiile în infrastructură (energie, centre de date, cipuri) devin un factor limitativ pentru extindere, potrivit techradar.com . În scrisoarea anuală către acționari și într-o postare asociată, CEO-ul Amazon, Andy Jassy, își structurează viziunea despre viitorul AI în șase „adevăruri”, cu accent pe ritmul de adopție și pe implicațiile financiare și operaționale pentru AWS. Jassy susține că dezbaterea despre „supraevaluarea” AI ratează esențialul pentru Amazon: tehnologia va reinventa „fiecare experiență” pentru clienți, iar întrebările despre „bulă” și profitabilitate au, în opinia sa, răspunsuri diferite în cazul companiei: „nu, nu și da” (nu e supraevaluată, nu e o bulă, iar marjele și randamentul capitalului investit ar urma să fie atractive). AWS: creștere accelerată, dar cu „cerere neacoperită” Din perspectiva impactului economic, mesajul central este că AI împinge AWS într-o nouă etapă de expansiune. Jassy afirmă că AWS are un „AI revenue run rate” de peste 15 miliarde de dolari în T1 2026 și că acesta crește „rapid”. În același timp, el indică o constrângere operațională: capacitatea. Amazon a adăugat 3,9 GW de capacitate nouă de energie în 2025 și se așteaptă să își dubleze capacitatea totală până la finalul lui 2027, dar, chiar și așa, compania spune că există „capacity constraints” care duc la „unserved demand”, pe fondul cererii tot mai mari de putere de calcul pentru AI. Pariul pe cipuri proprii: reducerea costurilor și avantaj de marjă Un alt element cu miză financiară este strategia de cipuri. Jassy descrie businessul de cipuri al AWS drept „în plină efervescență”, menționând evoluția familiei Graviton (lansată în 2018) și cererea pentru Trainium. Deși Amazon își reafirmă parteneriatul cu Nvidia și faptul că va rămâne „cel mai bun loc” pentru rularea cipurilor Nvidia în AWS, Jassy spune că mulți clienți caută „preț-performanță” mai bună. În acest context, el leagă Trainium de o potențială schimbare de economie la scară: „La scară, ne așteptăm ca Trainium să ne economisească zeci de miliarde de dolari capex pe an și să ofere câteva sute de puncte de bază avantaj de marjă operațională față de dependența de cipurile altora pentru inferență.” („Inferența” este etapa în care un model AI deja antrenat rulează efectiv pentru a genera răspunsuri/rezultate.) De ce contează pentru piață: AI accelerează investițiile, dar și presiunea pe infrastructură Mesajul lui Jassy sugerează două consecințe directe pentru companii și pentru piața de cloud: AI crește cererea de infrastructură mai repede decât poate fi livrată , ceea ce poate însemna întârzieri, prioritizări și competiție mai dură pentru resurse (energie, hardware, capacitate de centre de date). Integrarea verticală (cipuri proprii) devine un instrument de control al costurilor , cu efect potențial asupra prețurilor și marjelor în cloud, dacă economiile de capex și avantajul de marjă se materializează. Ce urmează Jassy indică faptul că Amazon se bazează pe forța bazei de clienți și menționează, ca exemplu, un „angajament” recent al OpenAI de peste 100 miliarde de dolari, plus „mai multe acorduri” finalizate (dar neanunțate) sau aflate în negociere. Detaliile acestor acorduri nu sunt prezentate în material, însă compania lasă să se înțeleagă că vor exista anunțuri suplimentare. [...]

Comisia Europeană evaluează dacă ChatGPT intră sub regimul DSA pentru „platforme online foarte mari” , ceea ce ar putea aduce obligații suplimentare de conformitate pentru OpenAI în UE, pe fondul unei baze de utilizatori care depășește pragul legal, potrivit ithome.com . Evaluarea vizează aplicarea standardelor din Legea serviciilor digitale (DSA) pentru „platforme online foarte mari” (VLOP), categorie care se activează atunci când un serviciu depășește 45 de milioane de utilizatori activi lunar în Uniunea Europeană. Un purtător de cuvânt al Comisiei, Thomas Regnier, a declarat că numărul utilizatorilor ChatGPT a trecut acest prag, iar instituția verifică și evaluează datele raportate. În același timp, oficialul a indicat că, pe viitor, modelele mari de inteligență artificială ar putea fi incluse în cadrul DSA, însă aplicarea ar urma să fie decisă „de la caz la caz”, fără a rezulta automat că toate astfel de servicii vor intra sub același regim. OpenAI a transmis că datele publicate se referă la utilizatorii activi lunar ai funcției de căutare din ChatGPT în UE, calculați ca medie pe ultimele șase luni, în linie cu obligațiile actuale de raportare. Pentru perioada de șase luni încheiată în septembrie 2025, ChatGPT ar fi avut în UE aproximativ 120,4 milioane de utilizatori activi lunar, conform informațiilor prezentate în material. De ce contează pentru OpenAI și pentru piață Dacă ChatGPT este încadrat oficial ca „platformă online foarte mare” în sensul DSA, OpenAI ar putea intra într-un regim de supraveghere și conformitate mai strict în UE, cu efecte directe asupra modului în care serviciul este operat și raportat în spațiul comunitar. În acest moment, Comisia se află în etapa de verificare a datelor, iar concluzia evaluării nu este încă anunțată. Ce urmează Pe termen scurt, decizia depinde de validarea de către Comisie a indicatorilor de utilizare comunicați. Separat, discuția despre includerea modelelor mari de inteligență artificială în sfera DSA rămâne deschisă, dar, din informațiile disponibile, nu există încă o regulă generală, ci doar posibilitatea unei evaluări punctuale. [...]