Știri
Știri din categoria Inteligență artificială

Daniela Amodei , cofondatoare Anthropic, susține că studiile umaniste vor deveni esențiale în era inteligenței artificiale , iar abilitățile profund umane vor conta mai mult decât competențele tehnice. Potrivit Fortune , Amodei afirmă că numărul locurilor de muncă pe care inteligența artificială le poate face complet independent de oameni este „extrem de redus”, iar viitorul aparține colaborării dintre oameni și tehnologie. Într-un interviu pentru ABC News , ea a explicat că asocierea dintre om și inteligența artificială va genera locuri de muncă mai interesante și mai productive. Deși compania Anthropic a lansat recent instrumente avansate de programare bazate pe inteligență artificială, care au provocat fluctuații pe burse, Amodei spune că viitorul pieței muncii nu va favoriza exclusiv profilurile tehnice. Ce caută Anthropic la angajare Daniela Amodei, absolventă de literatură la Universitatea California din Santa Cruz, spune că la recrutare compania pune accent pe: abilități excelente de comunicare; inteligență emoțională ridicată; empatie și capacitatea de colaborare; curiozitate și dorința de a-i ajuta pe ceilalți. Ea susține că modelele de inteligență artificială sunt deja performante în domeniile științifice și tehnice, însă înțelegerea naturii umane, a istoriei și a comportamentului rămâne un avantaj distinct al oamenilor. Un mesaj pentru tineri Amodei recomandă tinerilor să își dezvolte gândirea critică, capacitatea de a scrie bine și de a performa în întâlniri profesionale. În opinia sa, aceste competențe vor deveni tot mai valoroase într-un context în care sarcinile analitice sunt preluate de sisteme automate. Mesajul este susținut și de alți lideri din tehnologie și finanțe, care subliniază că inteligența emoțională, discernământul și colaborarea vor reprezenta diferența într-o economie tot mai automatizată. [...]

OpenAI a discutat dacă să anunțe poliția canadiană după ce conversații din ChatGPT ale unui tânăr au ridicat semnale de alarmă intern, relatează TechCrunch , într-un material care readuce în prim-plan dezbaterile despre când și cum ar trebui companiile de inteligență artificială să raporteze către autorități posibile riscuri de violență. Cazul îl vizează pe Jesse Van Rootselaar, în vârstă de 18 ani, care ar fi ucis opt persoane într-un atac armat în Tumbler Ridge, Canada. Potrivit articolului, conversații în care descria violență cu arme au fost semnalate de instrumente interne de monitorizare a utilizării abuzive a modelelor lingvistice mari (LLM, adică sisteme care generează text pe baza unor seturi foarte mari de date) și au dus la interzicerea contului în iunie 2025. În interiorul OpenAI a existat o discuție despre oportunitatea contactării forțelor de ordine canadiene înainte de incident, însă compania nu a făcut acest pas, conform The Wall Street Journal , citat de TechCrunch. Un purtător de cuvânt al OpenAI a susținut că activitatea utilizatorului „nu a îndeplinit criteriile” pentru raportare către autorități, iar compania ar fi contactat ulterior autoritățile canadiene după atac. „Gândurile noastre sunt alături de toți cei afectați de tragedia din Tumbler Ridge. Am contactat proactiv Royal Canadian Mounted Police cu informații despre individ și utilizarea ChatGPT și vom continua să sprijinim investigația lor”, a declarat un purtător de cuvânt al OpenAI. Materialul plasează decizia într-un context mai larg al responsabilităților de raportare: pe lângă conversațiile din ChatGPT, ar fi existat și alte indicii în „amprenta digitală” a suspectului, inclusiv crearea unui joc pe Roblox care simula un atac armat într-un mall și postări despre arme pe Reddit. TechCrunch mai notează că instabilitatea persoanei ar fi fost cunoscută și poliției locale, care fusese chemată la domiciliu după un incendiu pornit în timp ce aceasta se afla sub influența unor droguri neprecizate. Pentru industria IA, episodul evidențiază o zonă gri: companiile au mecanisme de detectare și pot bloca utilizatori, dar raportarea către autorități implică praguri interne, interpretări juridice și riscuri de confidențialitate, iar consecințele pot fi majore dacă semnalele sunt subevaluate. În același timp, TechCrunch amintește că chatboturile de tip LLM au fost acuzate că pot agrava crize psihice, iar în 2025 au apărut mai multe procese care invocă transcrieri de conversații legate de sinucidere, inclusiv în materiale publicate de CBS News și CNN . [...]