Siri spelar in att du har sex, och Apple-partners HÖR det

Siri spelar in när du har sex Apple-partners AUD Detta

Siri den registrerar användarna även när de inte inser att de kan få sina samtal eller handlingar registrerade, de skickas för analys till företagets partners. Apple hävdar att mindre än 1% av människors interaktioner med Siri analyseras, men med miljarder kommandon som ges dagligen är denna siffra extremt hög.

Enligt en av Apples partners som lyssnade på och analyserade inspelningar från Siri, spelar assistenten in människor i en mängd olika situationer. Han säger att han hörde människor ha sex, prata med läkaren, göra affärer, begå brott, inspelningarna med personens kontaktinformation bifogad, inspelningsplatsen och inte bara det.

Siri har inspelningar lyssnade på av Apples partners, precis som Amazon Alexa eller Google Assistant har inspelningar som också analyseras av människor. Allt görs för att systemen ska förbättras, och Apple tar för givet att allt den tidigare anställde i dess partnerföretag sa, utan att specifikt hänvisa till uttalandena.

Med tanke på att andra företag låter analysera de personliga assistenternas inspelningar av tredje part, om du tror att Apple inte gör detta, betyder det att du redan har blivit lurad.

"Det har förekommit otaliga fall av inspelningar som inkluderar privata samtal mellan läkare och patienter, affärstransaktioner, uppenbara brott, sexuella handlingar och så vidare. Dessa register åtföljs av användardata som visar plats, kontaktuppgifter och applikationsdata. Apple säger: En liten bråkdel av Siri-förfrågningar analyseras för att förbättra Siri och diktering. Användarförfrågningar är inte kopplade till användarens Apple-ID. Svar från Siri analyseras på säkra platser och alla anställda måste följa Apples strikta integritetskrav."