PR

コールセンターの待ち時間イライラ解消へ 「AI」で顧客の感情も解析 (1/3ページ)

 「ただ今、電話が大変混みあっております」。コールセンターに電話しても自動音声が繰り返し流れるだけで、なかなかオペレーターにつながらない。誰しも一度は経験する“イライラ”だが、近い将来、人工知能(AI)を活用した技術によって、延々とオペレーターの順番待ちをする必要もなくなるかもしれない。電話の音声を自動的に解析し、AIで相手の感情まで読み取る「CSA」と呼ばれる技術が実用化されているためだ。このCSAのプラットフォームを提供している「ユニフォア」が今年、日本市場に参入した。音声を解析し、感情や発言の真意を読み取る。まるでSFの世界のような技術がすでに世界各国で導入されているという。

 周波数を分析して感情を読み取る

 「日本語を含め100言語以上に対応し、CSAの分野ではグローバルリーダーになっています。言語にはさまざまな方言がありますが、こういった方言にも対応しています。日本におけるDX(デジタルトランスフォーメーション)を進めていきたいです」

 インドで創業し、世界13カ国でCSA事業を展開するユニフォアの共同創業者、ラヴィ・サラオギ アジア太平洋 社長は、日本向けのオンライン会見でこう力を込めた。

 CSAはConversational Service Automationの略で、日本語では「会話型サービス自動化」と訳される。ユニフォアは2008年にIT大国のインドで創業。米シスコシステムズやアマゾン・ウェブ・サービスなど「フォーチュン・グローバル 500社」に名を連ねる企業にサービスを提供している。

 世界のコールセンターでは毎日5200万時間を超える通話が録音されているという。だが、このうち音声データとして解析されているのは1%に満たないといい、ラヴィ氏は「電話の意図や話している人の感情をリアルタイムに捕捉することができます。何年もかけて知財として蓄積してきた結果です」と強調する。

 顧客がコールセンターに電話を架けたとする。顧客は音声案内に従い、問い合わせに応じた番号を選択。間もなく応答したオペレーターのディスプレイには顧客情報が表示されるといった仕組みだ。のみならず、顧客の会話をリアルタイムで解析し、感情の様子まで読み取って示すことができるのだという。

 本当にそんなことができるのか。率直な疑問をぶつけると、ラヴィ氏は「言語や音声の周波数をパラメータ(変数値)として分析しています。多言語の環境の中でも、8~9種類の感情を分析できます」と解説した。

Recommend

Ranking

アクセスランキング

Biz Plus