iPhones können in 15 Minuten mit der Stimme ihrer Nutzer sprechen

Christian Kahle, 17.05.2023 10:57 Uhr 1 Kommentar
iPhones werden zukünftig von Haus aus in der Lage sein, mit der Stimme ihres Besitzers zu sprechen. Dafür sorgt die Funktion "Personal Voice", die zu einem ganzen Paket an neuen Features für beeinträchtigte Anwender gehört. Die Funktion ist eigentlich für Personen gedacht, bei denen absehbar ist, dass sie ihre Fähigkeit zu sprechen vorübergehend oder dauerhaft verlieren können. Diese sollen dann weiterhin in der Lage sein, mit dem gewohnten Duktus ihrer Stimme mit Angehörigen und Freunden kommunizieren zu können. Umgesetzt wird die Stimmen-Kopie natürlich von einem neuen KI-Algorithmus.

Wie Apple mitteilte, soll die Datenverarbeitung für das Feature komplett auf dem Gerät des Nutzers stattfinden. In Verbindung mit der Abkapselung der persönlichen Daten, zu denen auch das Stimmenmuster gehört, werde so ein Schutz vor einem Missbrauch ermöglicht. Würde man die Muster hingegen in einer zentralen Datenbank in der Cloud speichern und diese gestohlen werden, könnten Kriminelle womöglich leicht neue Methoden des Identitätsdiebstahls entwickeln.


Klarheit und Sehhilfe

Laut dem Hersteller können Benutzer eine persönliche Stimme erstellen, indem sie eine Reihe kurzer Texte auf dem iPhone oder iPad laut vorlesen. Der gesamte Prozess soll in gerade einmal 15 Minuten abgeschlossen sein. Anschließend ist es in verschiedenen Anwendungen möglich, eine Mitteilung ins Gerät einzutippen, die der Kommunikationspartner dann mit der Stimme des Absenders erzählt bekommt.

Weiterhin führt Apple eine Funktion namens Assistive Access ein. Diese ist für Nutzer mit kognitiven Behinderungen gedacht und soll "Apps und Erlebnisse auf ihre wesentlichen Funktionen zu reduzieren, um die kognitive Belastung zu verringern". Nutzern werden hier einfache, große App-Icons und sehr reduzierte Benutzeroberflächen angeboten.



Es gibt auch einen neuen Erkennungsmodus in Magnifier, der sehbehinderten Nutzern helfen soll, mit physischen Objekten mit zahlreichen Textbeschriftungen zu interagieren. Laut Apple kann ein Nutzer etwa die Kamera seines Geräts auf eine Beschriftung wie eine Mikrowellen-Tastatur richten, die dann vom iPhone oder iPad laut vorgelesen wird, wenn der Nutzer seinen Finger über die einzelnen Zahlen oder Einstellungen des Geräts bewegt.

Zusammenfassung
  • iPhones werden mit "Personal Voice" sprechen können.
  • Funktion für Personen gedacht, die Stimme verlieren.
  • Datenverarbeitung erfolgt komplett auf dem Gerät.
  • Stimme durch Einlesen von Texten erstellen in 15 Min.
  • Assistive Access für Nutzer mit kognitiven Behinderungen.
  • Magnifier mit Erkennungsmodus für sehbehinderte Nutzer.
  • Kamera liest Beschriftungen laut vor.
Siehe auch:
1 Kommentare lesen & antworten
Folge WinFuture auf Google News
Verwandte Themen
iPhone Apple iOS
Desktop-Version anzeigen
Hoch © 2023 WinFuture Impressum Datenschutz Cookies