顔表情と声から感情をリアルタイム認識 | Hume AI
さまざまな入力データから感情を認識するAIプラットフォーム
米国ニューヨークに拠点を置き、感情認識AIを開発するHume AI
感情科学の専門家であるアラン・コーウェン博士が創設者兼CEOを務めるHume AIは、顔の表情や音声の韻律(音程、リズム、音色など)を含むデータを使って感情を推測する、AI/MLツールを提供しています。
本ページでは、Hume AIが提供する感情認識AIプラットフォームの特徴や機能、さまざまな入力データを活用した感情分析の手法について詳しく解説します。
- 感情認識
- マルチモーダル
- AI/ML
- オートモーティブ
大量のデータをもとに、人間の感情を多面的に認識するAIソフトウェア
-
マルチモーダルデータによる感情認識
Hume AIの感情認識AI/MLツールは、ビデオ、音声、テキストデータなどのマルチモーダルデータを用いて、リアルタイムで感情を認識できるAIモデルとデータセットを提供します。
これにより、15項目以上の感情をリアルタイムで推測し、感情の変化を可視化することが可能です。 -
大量のデータを収集し、属性や装飾にとらわれないさまざまなパターンに対応
Hume AIは、独自のアンケート調査を基に約50万件のデータを収集し、さまざまな地域や人種に関連するデータベースを構築しました。このデータを使って独自のAIモデルを開発しています。
また、人種や文化、年齢、性別、さらにはサングラスなどによる感情表現の違いを捉えるために、実際の人間の生データを収集し、異なる文化圏での表現や目に見えない感情を捉えるモデルを展開しています。
さまざまな入力データを活用
顔の表情、音声表現/韻律、言語などさまざまなデータセットで、感情を認識・分析
データセット例
-
韻律
トーン、リズムなど
-
感嘆音
アー、オーなど
-
音声表現
含まれるニュアンス
-
機敏
言い回しなど
-
顔表情①
眉や口角の動き
-
顔表情②
怒り・興奮など
-
知覚
集中、過敏など
-
リアクション
手や体の動き
開発プラットフォーム

API・SDKと開発プラットフォームを提供
開発プラットフォームの特徴
- 人間の表情を認識し、各感情の比重をパーセンテージで表示可能
- 複数人の感情認識にも対応
- API・SDKも提供しており、PCやスマホの評価環境有り