La feature serve per chi corre il rischio di perdere l’abilità di parlare, come coloro ai quali è stata appena diagnosticata la SLA
Apple ha annunciato in anteprima alcune feature di accessibilità che arriveranno quest’anno su iOS 17 e iPadOS 17, i nuovi sistemi operativi per gli smart device della Mela. Le due nuove funzioni si chiamano Live Speech e Personal Voice. Live Speech permetterà agli utenti di digitare quello che desiderano per sentirlo leggere ad alta voce, mentre Personal Voice è pensato per le persone a rischio di perdita della capacità di parlare, come quelle con una diagnosi recente di SLA. Usando Personal Voice, gli utenti dovranno leggere dei testi mostrati dallo smart device per circa 15 minuti su iPhone o iPad: usando il machine learning, il dispositivo creerà una voce sintetica uguale a quella del proprietario del dispositivo. La voce potrà poi essere integrata con Live Speech per conversazioni e scambi vocali. Sostanzialmente, la feature di iOS 17 permetterà a chiunque di ricreare la propria voce in modo sintetico e in 15 minuti. La feature debutterà più avanti nel corso dell’anno, con il debutto di iOS e iPadOS 17 atteso per l’autunno insieme con il lancio dei nuovi iPhone 15.