BARCELONA, SPAIN--(Marketwired - Mar 2, 2015) - Audience, Inc. (NASDAQ: ADNC), der führende Anbieter von fortschrittlichen Voice-Anwendungen und ein Wegbereiter in der multisensorischen Verarbeitung und bei Technologien für natürliches Benutzererlebnis (NUE - Natural User Experience) für Endgeräte, kündigte heute das erste Mitglied seiner NUE-Produktfamilie mit multisensorischen Prozessoren an: den N100. NUE-Produkte sind für den Einsatz mit Smartphones, Tablets, Wearables und IoT-Geräte gedacht. Die ersten N100-Geräte sollen Mitte 2015 zur Bemusterung verfügbar sein. Die multisensorische NUE-Technologie ist darauf ausgerichtet, nützliche Informationen über den Benutzer und die Benutzerumgebung aus der explodierenden Menge an Sensordaten abzuleiten, die auf modernen Endgeräten gespeichert sind. Dies ermöglicht eine realistische Kontextbezogenheit, womit das Gerät eines Benutzers Erkenntnisse über das alltägliche Leben des Benutzers bereitstellen kann.

"Wir stellen uns eine Welt vor, in der die Menschen auf natürliche Weise mit ihren Geräten interagieren und - auf eine erweiterte Weise - mit der sie umgebenden Welt, und das basierend auf Information und Erkenntnissen, die mittels multisensorischer Verarbeitung gewonnen werden. Es ist diese Vision, die Audience in der Entwicklung von NUE-Technologie antreibt, welche in Form von multisensorischen Prozessoren und Software bereitgestellt wird", sagte Peter Santos, President und CEO von Audience. "Wir haben die multisensorische NUE-Technologie entwickelt, um Informationen und Kontext aus Sensor- und Mikrophon-Daten über den Benutzer und seine Umwelt zu gewinnen und damit erweiterte kontextbezogene Daten bereitstellen zu können, die nützlich und immer verfügbar sind, und das bei Verlängerung der Akkudauer."

Über den multisensorischen NUE-Prozessor N100

Der N100 wird das erste Audience-Produkt sein, das ein vollständiges multisensorisches Erlebnis ermöglicht. Er wird VoiceQ- und MotionQ-Technologie integrieren, um auch Applikationen mit Kontextsensitivität zu unterstützen. Um diese Kontextsensitivität erreichen zu können, muss die Wahrnehmungsintelligenz des N100 um eine Schicht mit ausgefeilten Algorithmen ergänzt werden, damit Sensor- und Mikrophondaten interpretiert und übergeordnete Informationen abgeleitet werden können. Der N100 wird in der Lage sein, Kontext wie z.B. "der Benutzer rennt" interpretieren zu können, und sich dabei auf eine Reihe spezifischer Sprach- und Bewegungsfunktionen stützen, die von den Sensoren erfasst werden.

VoiceQ-Technologie

VoiceQ ist die berührungslose Technologie von Audience für Spracherkennung, die dem Gerät mitteilt, dass ein sicheres Schlüsselwort gesagt wurde und die entsprechende Aktion ausgeführt werden soll. Die N100 VoiceQ-Implementierung wird in drei Phasen ausgeführt. Mithilfe eines stromsparenden Always-on-Sprachdetektors achtet der N100 permanent auf Sprachsignale, während er sich im Modus für extrem niedrigen Stromverbrauch befindet. Bei Erkennung einer Spracheingabe wird das eingehende Signal mit parameterdefinierten Schlüsselwörtern oder Ausdrücken bzw. Auslösern verglichen. In dieser ersten Phase sind nur der N100 und das digitale Mikrophon im Normalbetrieb. Alle anderen Komponenten befinden sich im Bereitschaftszustand bzw. Sleep-Modus. Wird ein Sprachbefehl erkannt, aktiviert der N100 den Normalbetrieb des Geräts, indem er anzeigt, dass der Benutzer mittels einer Voice-Schnittstelle mit dem Gerät kommunizieren möchte. VoiceQ auf dem N100 ist so konzipiert, dass es bis zu fünf Schlüsselwörter unterstützt, wobei es sich um eine Kombination aus Schlüsselwörtern handeln kann, die vom Benutzer selbst oder aber vom OEM ausgewählt wurden.

Die VoiceQ-Technologie auf dem N100 soll Energie sparen, indem es im Vergleich zu früheren Auslöserimplementierungen bei Sprachanwendungen die Häufigkeit einer irrtümlichen Akzeptanz von Schlüsselwörtern deutlich reduziert. Die Akzeptanz eines falschen Schlüsselworts entspricht ungefähr dem Hören von Schlüsselwörtern während zwei Stunden oder 20 zusätzlichen Minuten nicht beabsichtigter Telefonnutzung. Daneben wurde der N100 so entwickelt, dass er eine energiesparende integrierte Implementierung der Hotword-Erkennung von Google einbinden kann, wodurch der N100 gleichzeitig sowohl VoiceQ als auch Google-Schlüsselwörter in weniger als 17 MIPS erkennen kann.

MotionQ-Technologie

Der N100 wird die erste Hardware-Implementierung der MotionQ 1.0-Bibliothek bieten -- dank der Übernahme Sensor Platforms durch Audience. Die NUE MotionQ-Software ist so konzipiert, dass sie erweiterte Algorithmen, eine stromsparende Architektur und eine ausgezeichnete Kontextsensitivität umfasst. Im Always-on-Modus kann der N100 permanent die Sensoren überwachen, mit denen er verbunden ist, und diese bei Bedarf nachkalibrieren und Kontext aus einem intelligenten Mix von Sensordaten ableiten. Der N100 ist mit Sensoren einer Vielzahl führender Anbieter kompatibel und unterstützt alle Sensortreiber mit Support für die Open Sensor Platform (OSP).

Das Design der N100 MotionQ-Implementierung ist partitioniert, um kritische Aufgaben energiesparend auszuführen, wie etwa die Sensor-Zusammenführung und die Kontexterfassung im N100 sowie die speicherintensive Kontextzuordnung im Anwendungsprozessor (AP). Der N100 implementiert die OSP Host API und ermöglicht damit die Kommunikation zwischen dem N100 und dem AP unter Verwendung des OSP-Protokolls. Die N100 MotionQ-Implementierung ist für den Audience-Befehlssatz im N100 optimiert, um eine branchenführende Sensor-Hub-Verarbeitung, Sensorfusion und Selbstkalibrierung in weniger als 2 MIPS zu gewährleisten.

Zusätzliche Informationen zu den Audience®-Prozessoren und Smart Codecs finden Sie unter www.audience.com/nue.

Über Audience

Audience ist der führende Anbieter von fortschrittlichen Voice-Anwendungen und leistet Pionierarbeit in der multisensorischen Verarbeitung und natürlichen Benutzererlebnisse für Endgeräte. Seine Technologien basieren auf Erkenntnisse der Neurowissenschaften im Bereich der auditiven Wahrnehmung und verbessern das Voice-Erlebnis bei Mobilgeräten sowie die Leistung sprachbasierter Dienste und die Audio-Qualität bei Multimedia-Lösungen. Anfang 2014 gab das Unternehmen seine Expansion im Bereich multisensorischer und Bewegungsverarbeitung bekannt. Mit der Kombination von erweiteter Sprachverarbeitung mit multisensorischer Verarbeitung möchte Audience die Art und Weise verändern, wie Endanwender ihre Geräte nutzen, und dazu ein nahtloses intuitives Benutzererlebnis und kontextsensitive Dienste bereitstellen. Die Produkte des Unternehmens wurden bereits in über 500 Millionen Geräte integriert, die weltweit vertrieben werden. Weiterführende Informationen finden Sie unter http://www.audience.com.

Hinweis zu zukunftsgerichteten Aussagen

Aussagen in dieser Pressemitteilung, bei denen es sich nicht um historische Tatsachen handelt, sind "zukunftsorientierte Aussagen" im Sinne des Private Securities Litigation Reform Act von 1995. Diese zukunftsorientierten Aussagen lassen sich an Begriffen erkennen wie z.B. "glauben", "werden", "erwarten", "planen", "könnten", "hoffen" und "dürften" sowie deren Verneinungsformen und anderen, ähnlichen Ausdrücken. Diese Aussagen beziehen sich unter anderem auf die Funktionen, Merkmale und Leistung unserer aktuellen und künftigen Produkte und basieren auf derzeitige Erwartungen und Annahmen, die Risiken und Unabwägbarkeiten unterliegen. Unsere tatsächlichen Ergebnisse können aufgrund von verschiedenen Faktoren wesentlich von unseren erwarteten Ergebnissen abweichen. Zu diesen Faktoren zählen: unsere Fähigkeit zum erfolgreichen Design und zur Entwicklung neuer Produkte; die Marktnachfrage und Marktakzeptanz unserer Produkte; unsere Fähigkeit, eine Integration mit den Produktdesigns unserer OEM durchzuführen; sowie weitere Risiken, welche die Herstellung von Halbleitern in der Fabless-Branche kennzeichnen. Diese und andere verbundene Risiken stehen unter "Risikofaktoren" in unserem aktuellsten Formular 10-Q auf der Website der SEC bereit unter www.sec.gov zur Verfügung. Die zukunftsgerichteten Aussagen stellen zudem lediglich die Überzeugungen und Annahmen der Firmenleitung zum Zeitpunkt der Erstellung dieser Pressemitteilung dar. Wir sind nicht verpflichtet, diese zukunftsgerichteten Aussagen zu aktualisieren.

ADNC-G

Bild verfügbar: http://www2.marketwire.com/mw/frame_mw?attachid=2775292
Bild verfügbar: http://www2.marketwire.com/mw/frame_mw?attachid=2775296
Eingebettetes Video verfügbar: http://www2.marketwire.com/mw/frame_mw?attachid=2775298