CXone Mpower Autopilot

CXone Mpower Autopilotは、フルサービスのデータ駆動型インテリジェントなバーチャルエージェント閉じた ライブの人間のエージェントの代わりに顧客とのやり取りを処理するソフトウェアアプリケーション。です。 ライブエージェントに代わって音声デジタル閉じた Digital Experienceに関連するあらゆるチャネル、コンタクト、またはスキル。インタラクション閉じた チャネルを介したエージェントとの会話全体。 たとえば、インタラクションには、音声通話、Eメール、チャット、またはソーシャルメディアでの会話があります。を処理します。 Autopilotバーチャルエージェントは人間の言語を理解し、コンタクトに自然に応答します。 彼らは、人間レベルの理解で、話題を切り替え、文脈を理解し、質問に答えることができます。 Autopilotバーチャルエージェントは、ライブエージェントへのエスカレーションを制限しながら、セルフサービスを通じて問題を完全に解決できます。

Autopilot仮想エージェントはCXone Mpower XO人工知能(AI)を使用します。 XOは30年以上のインタラクションデータが搭載されています。 Autopilotはそのデータと組織のインタラクションデータを使用して、会話フローを構築します。 これらのフローには、考えられる発話閉じた コンタクトが発言または入力すること。と適切な応答のリストが含まれています。 AIを使用して、Autopilotバーチャルエージェントはインタラクションから学び続け、これらのフローを改善し、追加します。

Autopilotバーチャルエージェントは以下のこともできます:

  • コンタクトの問題を解決するためにエージェントが実行する必要があるタスクを特定します。

  • コンタクトのデータの取得など、Autopilot自体が実行できるバックエンドタスクを識別すること。

  • 特定されたニーズと興味に基づいて、コンタクトにメッセージを積極的に送信すること。 この機能の例については、このデモビデオをご覧ください。

エドワード・フェラーズは、Classics, Inc.のバーチャルエージェントであるAutopilotと話をしています。 彼は、Autopilotに最近注文した本の残額を支払いたいと言っています。 Autopilotは支払いの会話フローを開始します。 請求情報を取得し、2枚のクレジットカードが見つかりました。 エドワードにどちらを使いたいか尋ねます。 彼は「クレジットカードA」と答えますが、その後考えを変えて「やはりクレジットカードBを使ってください」と言います。 Autopilotはクレジットカードの選択を変更します。

エドワードは次に、パスワードの変更について助けを求めます。 Autopilotはそのインテントの会話フローに切り替わります。

Autopilotは、エドワードの最初のインテント閉じた コンタクトが発言または入力した内容の背後にある意味や目的。コンタクトが伝えたいことや達成したいこと。が支払いであったことを覚えています。 会話フローに戻ります。 エドワードに、請求情報からクレジットカードAを削除するかどうかを尋ねます。 彼は「はい」と答えたので、Autopilotはそれを削除します。

バーチャルエージェントの仕組み

会話の始まりは音声とテキストのバーチャルエージェントでは異なります。

バーチャルエージェントは、コンタクトの発話を分析して、単語の背後にある目的や意味を理解します。 これはコンタクトのインテントとして知られています。 バーチャルエージェントは、適切なレスポンスをテキストとして送信します。 バーチャルエージェントのレスポンスはテキスト読み上げ閉じた ユーザーが録音プロンプトをテキストとして入力し、コンピューターで生成された音声を使用してその内容を読み上げる機能。サービスによって音声に合成されます。 トランスクリプションと音声合成は、CXone Mpowerまたは場合によってはプロバイダーのプラットフォームで発生する可能性があります

レスポンスの送信方法は、それがテキストエージェントか音声バーチャルエージェントかによって異なります。

  • 音声リクエストと応答は、バーチャルエージェントとコンタクトの間で直接送信されます。 CXone Mpowerは、会話中ずっとバーチャルエージェントサービスに接続しているが、会話には参加しません。 CXone Mpowerは、会話が完了するシグナルか、コンタクトがライブエージェントへの転送をリクエストするシグナルを待ちます。これSIP閉じた 音声通話やビデオ通話などのマルチメディア通信セッションのシグナリングと制御に使用されるプロトコル。バックチャネル接続メソッドです。
  • テキストリクエストと応答は、ターンごとにVirtual Agent Hubおよびスクリプト経由で送信されます。 このオプションでは、バーチャルエージェントの動作をターンごとにカスタマイズすることができます。

会話の最後に、バーチャルエージェントがスクリプトにシグナルを送信します。 会話が完了したこと、またはコンタクトがライブエージェントと話す必要があることを信号で知らせることができます。 会話が完了すると、そのインタラクションは終了します。 ライブエージェントが必要な場合は、スクリプトがリクエストを行います。 コンタクト先が利用できるときは、エージェントに転送されます。

会話が完了すると、スクリプトはCRM閉じた コンタクト、販売情報、サポートの詳細、ケース履歴などを管理するサードパーティーシステム。に情報を録音するなど、インタラクション後のタスクを実行できます。

Integrationのコンポーネント

Autopilotバーチャルエージェントを設定するには、以下のコンポーネントが必要です。

音声生体認証

音声生体認証を使用して、コンタクト閉じた コンタクトセンターでエージェント、IVR、またはボットとやり取りする人。を認証できます音声バーチャルエージェント。Autopilot この方法では、声紋を使用して電話でコンタクトを認証します。 人は誰でも、固有の指紋があるように、固有の声紋を持っています。 音声生体認証サービスが発信者が本人であるかどうかを判断するのに、通常の会話の発話で0.5~3秒しかかかりません。

音声生体認証を使用するには、コンタクトを登録する必要があります。 登録プロセスの一環として、音声を録音して認証に使用する権限を組織に与える必要があります。 この方法をバーチャルエージェントで使用する場合、インタラクション中にこのインテント閉じた コンタクトが発言または入力した内容の背後にある意味や目的。コンタクトが伝えたいことや達成したいこと。を処理するようにバーチャルエージェントを構成し、トレーニングする必要があります。

Omilia Omiliaで利用できるプラットフォーム声紋認証ミニアプリを使用できます。 このオプションでは、Omilia不正防止機能をAutopilotバーチャルエージェントで使用できます。 これらの機能には、既知の不正コンタクトのブロックリスト、ANI閉じた 発信者IDとも呼ばれます。 着信音声通話のリストに表示される電話番号です。スプーフィング、録音された音声を使用してシステムを騙そうとする機能が含まれます。

Autopilot 知識ベースとの統合

AutopilotCXone Mpower Expertまたは任意のサードパーティの知識ベース(KB)と統合できます。 その後、Autopilotナレッジベースの記事からの情報を使用して、音声またはdigital channelsでコンタクトの質問に答えることができます。 Autopilotは、知識ベースから以下をコンタクトに提供できます。

  • 1つ以上のKB記事の情報から構成される応答。

  • KB記事内のリンクと画像。

  • 完全なKB記事へのリンク。

バーチャルエージェントがナレッジをどのように使用するか、およびAutopilotのバーチャルエージェントの設定で会話フローをどのように構成するかは、あなた次第です。 コンタクトが情報を役に立たないと判断した場合は、Autopilotはそのインタラクションをライブエージェントに転送します。

ナレッジソースをAutopilotで使用するには、Knowledge Hubが必要です。 詳しくはこの統合の設定についてをご覧ください。

Autopilotに関する重要な事実