2015年03月03日 12時39分
Audience

Audience、NUEを発表 - 神経科学にヒントを得たNatural User Experience

Barcelona, Mar 3, 2015 - (JCN Newswire) - Advanced Voiceをリードし、消費者機器用マルチセンサ処理およびNatural User Experience (NUE)技術を開拓する企業、Audience, Inc. (NASDAQ: ADNC)は、NUEマルチセンサプロセッサファミリの最初の製品、N100を本日発表しました。NUE製品はスマートフォン、タブレット、ウェアラブル、IoTデバイスをターゲットにしており、最初のN100は2015年半ばにサンプルが利用可能になる予定です。NUEマルチセンサ技術は、最新デバイス上で大量に発生するセンサデータから、ユーザーやその環境に関するインテリジェントを引き出すように設計されており、コンテキストに対応した真の気づきを可能にしますので、デバイスを通じて日常生活の中で知見や気づきを得られます。

「我々が思い描いている世界では、人々はマルチセンサプロセシングにより得られる知見と気づきに基づいて、デバイスと自然にやり取りし、さらにユーザーの周りの世界とも高度な方法でやり取りします。このビジョンに基づいてAudienceはNUE技術を開発し、マルチセンサプロセッサとソフトウェアの形で実現しました。」と、Audience社長兼CEOのPeter Santosは述べました。「我々はNUEマルチセンサ技術を、センサとマイクのデータから、ユーザーとその環境についてのインテリジェンスとコンテキストを引き出し、バッテリ寿命を節約しながら有用な拡張コンテキストと常時接続を提供するように設計しました。」

NUE N100マルチセンサプロセッサについて

N100は、成熟したマルチセンサエクスペリエンスを実現する初のAudience製品となる予定です。コンテキスト認知可能なアプリケーションを実現するために、Audience VoiceQとMotionQが搭載されます。コンテキスト認知の達成には、N100センサインテリジェンスの上層に、センサやマイクのデータの解釈をして高度な情報を推論する洗練されたアルゴリズムの搭載などがあります。N100では、センサによって収集した一連の特徴的な音声と動作から、「ユーザーは今走っている」などのコンテキスト解釈をすることができます。

VoiceQ技術

VoiceQはAudienceのハンズフリー音声認識技術で、セキュアなキーワードが聞こえると、デバイスにアクションを起こすように通知します。N100 VoiceQは、3段階で実装されます。低電力の常時接続音声アクティビティ検出機能を使用してN100は、超低電力モードで音声信号を聴き取り続けます。音声が検出されると、入力信号はパラメータ定義されたキーフレーズまたはトリガーと比較されます。この第一段階では、N100とデジタルマイクのみが起きている状態です。デバイスの他のすべてのコンポーネントは低電力スリープモードです。キーフレーズが検出されると、N100はデバイスを目覚めさせ、ユーザーが音声ユーザーインターフェースを通じてデバイスと音声でやり取りしようとしていることを伝えます。N100上のVoiceQは、最大5つのキーワードをサポートするように設計されています。キーワードはユーザーの選択したものと、OEMの選択したものを組み合わせることができます。

N100上のVoiceQ技術では、以前の音声トリガー実装と比較して、誤受入率(FFR)が劇的に減らして、電力を節約するように設計されています。間違ったキーワードを1回受け入れた時の電力は、キーワード聴取状態2時間分、または意図せずに20分間電話を使用し続けた場合に相当します。N100はまた、電力最適化されたGoogleホットワード検知が組み込み実装された設計ですので、N100は17 MIPS未満でVoiceQとGoogleキーワードの両方を同時に検出できます。

Motion Q技術

N100では、MotionQ 1.0ライブラリが初めてハードウェア実装されています。これは、AudienceがSensor Platformsを買収した結果です。NUE MotionQソフトウェア設計には、先進的なアルゴリズムと、電力を考慮したアーキテクチャと、優れたコンテキスト認識が含まれています。常時接続モードでは、N100は接続されたセンサを継続的にモニタし、必要に応じて再測定し、インテリジェントな一連のセンサ入力からコンテキストを推論するように設計されています。N100はさまざまな大手サプライヤ製のセンサとともに作動し、OSP (Open Sensor Platform)をサポートして任意のセンサドライバをサポートします。

N100 MotionQ実装設計は、N100のセンサフュージョンやコンテキスト検知、およびアプリケーションプロセッサ(AP)のメモリインテンシブなコンテキスト分類などの低電力で重要なタスクを実行するために、パーティションに分けられています。N100はOSP Host APIを実装していますので、OSPプロトコルを使用してAPと通信できます。N100 MotionQ実装は、2 MIPS未満でクラス最高のセンサハブ処理、センサフュージョン、自動測定を実行する目的で、N100のAudience命令セット用に最適化されています。

Audience(R)プロセッサとスマートコーデックについて詳しくは、 www.audience.com/nue をご覧ください。

Audienceについて

先進音声処理をリードするAudienceは、マルチセンサ処理と消費者デバイスでの自然なユーザーエクスペリエンスの先駆的企業です。その技術は、聴覚神経科学をベースにして、モバイル音声エクスペリエンスを改善し、会話ベースのサービスやマルチメディアの音質を向上します。2014年前半に同社は、マルチセンサと動作処理への事業拡大を発表しました。先進音声とマルチセンサ処理を組み合わせることで、Audienceは、シームレスで自然なユーザーエクスペリエンスとコンテキスト認識サービスを実現し、消費者のデバイスの関わり方を改革することを目指しています。同社製品は、世界各国の5.00億以上のデバイスに搭載され、出荷されています。詳しい情報は http://www.audience.com をご覧ください。

将来予想に関する記述(Forward-Looking Statements)についての注意書

Audience, Inc.に関するプレスリリースの記述のうち、過去の事実でないものは、1995年の米国私募証券訴訟改革法の意義の範囲内で、「将来予想に関する記述(forward-looking statement)」を構成しています。これらの将来予想に関する記述は、「信念」「予定」「予測」「計画」「場合」「期待」「可能性」などの言葉やその否定形、または同様の意味の表現により、識別されます。これらの記述には、現在および今後の製品の機能、特徴、パフォーマンスなどが含まれますが、それに限定されるものではなく、リスクと不確実性の対象となる現在の予測や仮説に基づいています。実際の結果は、次のような各種ファクタの結果、弊社の予測と著しく異なる場合があります。弊社が新製品を設計し開発できるかどうか。弊社製品に対する市場の需要とアクセプタンス。OEM (Original Equipment manufacturer)の製品設計と統合できるかどうか。およびファブレス半導体事業につきものの他のリスク。これらのリスクや他の関連リスクについての詳細は、SECウェブサイト( www.sec.gov )で閲覧可能な弊社の最新報告書(書式10-Q)の「Risk Factors」をご覧ください。将来予想に関する記述は、文書作成時点の弊社の経営陣の考えや仮説のみに基づいています。弊社には、これらの将来予想に関する記述を更新する義務を負いません。

ADNC-G

詳しい情報は、下記にお問い合わせください。

Diane Vanasse
Audience, Inc.
+1-408-242-0027
dvanasse@audience.com

リリース配信代行:
JCN 株式会社
Tel: 03-5791-1821
Email: info@japancorp.net