
Anthropic uvodi obavezni izbor: deljenje podataka ili višegodišnje čuvanje razgovora
Korisnici Claude servisa od 28. septembra moraće da se izjasne — da li žele da njihovi razgovori i sesije kodiranja budu korišćeni za treniranje veštačke inteligencije, ili će njihovi podaci biti čuvani i do pet godina bez obrade u modelima.
Kompanija Anthropic, tvorac AI asistenta Claude, najavila je velike promene u politici privatnosti koje će stupiti na snagu krajem septembra. Nova pravila predviđaju da će podrazumevana opcija za sve korisnike biti deljenje podataka u svrhu treniranja modela. Oni koji to ne žele moraće aktivno da isključe ovu mogućnost, a u tom slučaju njihovi razgovori i koderske sesije neće biti korišćeni za razvoj, ali će se čuvati do pet godina.
Ova odluka odnosi se na sve korisnike Claude Free, Pro i Max verzija, uključujući i Claude Code sesije. Poslovni korisnici i dalje su izuzeti — što znači da podaci iz Claude for Work, obrazovnih paketa ili preko API integracija sa partnerima poput Amazona i Google-a neće ulaziti u ovu kategoriju.
U praksi, korisnicima će se prikazati iskačući prozor sa dve opcije — prihvatanje deljenja podataka ili odlaganje odluke. Novi korisnici moraće odmah da se izjasne prilikom registracije. Važno je naglasiti da promene važe samo za buduće interakcije: razgovori koji su već vođeni neće biti retroaktivno obrisani niti izuzeti iz sistema, ali nove odluke neće uticati na ranije sačuvane podatke, objavio je portal TechChrunch.
Anthropic naglašava da se podaci ne prodaju trećim stranama i da se koriste alati za automatsko uklanjanje ili zamagljivanje osetljivih informacija. Kompanija tvrdi da je cilj ovog poteza poboljšanje sposobnosti modela u oblasti analize, kodiranja i sigurnosnih mehanizama.
Saznajte sve o dešavanjima u biznisu, budite u toku sa lifestyle temama. PRIJAVITE SE NA NAŠ NEWSLETTER
Izvor: BIZLife
Foto: Unsplash