CXone Mpower Autopilot Amelia

Autopilot Ameliaは、フルサービスのデータ主導型インテリジェントバーチャルエージェント閉じた ライブの人間のエージェントの代わりに顧客とのやり取りを処理するソフトウェアアプリケーション。です。 ライブエージェントに代わって音声デジタル閉じた Digital Experienceに関連するあらゆるチャネル、コンタクト、またはスキル。インタラクション閉じた チャネルを介したエージェントとの会話全体。 たとえば、インタラクションには、音声通話、Eメール、チャット、またはソーシャルメディアでの会話があります。を処理します。 Autopilot Ameliaバーチャルエージェントは人間の言語を理解し、コンタクトに自然に応答します。 彼らは、人間レベルの理解で、話題を切り替え、文脈を理解し、質問に答えることができます。 Autopilot Ameliaバーチャルエージェントは、ライブエージェントへのエスカレーションを制限しながら、セルフサービスを通じて問題を完全に解決できます。

Autopilot Amelia仮想エージェントを使用すると、次のことができます。

  • コンタクトの問題を解決するためにエージェントが実行する必要があるタスクを特定します。

  • コンタクトのデータの取得など、Autopilot Amelia自体が実行できるバックエンドタスクを識別すること。

  • 特定されたニーズと興味に基づいて、コンタクトにメッセージを積極的に送信すること。

エドワード・フェラーズは、Classics, Inc.のバーチャルエージェントであるAutopilot Ameliaと話をしています。 彼は、Autopilotに最近注文した本の残額を支払いたいと言っています。 Autopilot Ameliaは支払いの会話フローを開始します。 請求情報を取得し、2枚のクレジットカードが見つかりました。 エドワードにどちらを使いたいか尋ねます。 彼は「クレジットカードA」と答えますが、その後考えを変えて「やはりクレジットカードBを使ってください」と言います。 Autopilot Ameliaはクレジットカードの選択を変更します。

エドワードは次に、パスワードの変更について助けを求めます。 Autopilot Ameliaはそのインテントの会話フローに切り替わります。

Autopilot Ameliaは、エドワードの最初のインテント閉じた コンタクトが発言または入力した内容の背後にある意味や目的。コンタクトが伝えたいことや達成したいこと。が支払いであったことを覚えています。 会話フローに戻ります。 エドワードに、請求情報からクレジットカードAを削除するかどうかを尋ねます。 彼は「はい」と答えたので、Autopilot Ameliaはそれを削除します。

バーチャルエージェントの仕組み

会話の始まりは音声とテキストのバーチャルエージェントでは異なります。

バーチャルエージェントは、コンタクトの発話を分析して、単語の背後にある目的や意味を理解します。 これはコンタクトのインテントとして知られています。 バーチャルエージェントは、適切なレスポンスをテキストとして送信します。 バーチャルエージェントのレスポンスはテキスト読み上げ閉じた ユーザーが録音プロンプトをテキストとして入力し、コンピューターで生成された音声を使用してその内容を読み上げる機能。サービスによって音声に合成されます。 トランスクリプションと音声合成は、CXone Mpowerまたは場合によってはプロバイダーのプラットフォームで発生する可能性があります

レスポンスの送信方法は、それがテキストエージェントか音声バーチャルエージェントかによって異なります。

  • 音声リクエストと応答は、バーチャルエージェントとコンタクトの間で直接送信されます。 CXone Mpowerは、会話中ずっとバーチャルエージェントサービスに接続しているが、会話には参加しません。 CXone Mpowerは、会話が完了するシグナルか、コンタクトがライブエージェントへの転送をリクエストするシグナルを待ちます。これSIP閉じた 音声通話やビデオ通話などのマルチメディア通信セッションのシグナリングと制御に使用されるプロトコル。バックチャネル接続メソッドです。
  • テキストリクエストと応答は、ターンごとにVirtual Agent Hubおよびスクリプト経由で送信されます。 このオプションでは、バーチャルエージェントの動作をターンごとにカスタマイズすることができます。

会話の最後に、バーチャルエージェントがスクリプトにシグナルを送信します。 会話が完了したこと、またはコンタクトがライブエージェントと話す必要があることを信号で知らせることができます。 会話が完了すると、そのインタラクションは終了します。 ライブエージェントが必要な場合は、スクリプトがリクエストを行います。 コンタクト先が利用できるときは、エージェントに転送されます。

会話が完了すると、スクリプトはCRM閉じた コンタクト、販売情報、サポートの詳細、ケース履歴などを管理するサードパーティーシステム。に情報を録音するなど、インタラクション後のタスクを実行できます。

統合のコンポーネント

Autopilot Ameliaバーチャルエージェントを設定するには、以下のコンポーネントが必要です。

音声生体認証

音声生体認証を使用して、コンタクト閉じた コンタクトセンターでエージェント、IVR、またはボットとやり取りする人。を認証できます音声バーチャルエージェント。 この方法では、声紋を使用して電話でコンタクトを認証します。 人は誰でも、固有の指紋があるように、固有の声紋を持っています。 音声生体認証サービスが発信者が本人であるかどうかを判断するのに、通常の会話の発話で0.5~3秒しかかかりません。

音声生体認証を使用するには、コンタクトを登録する必要があります。 登録プロセスの一環として、音声を録音して認証に使用する権限を組織に与える必要があります。 この方法をバーチャルエージェントで使用する場合、インタラクション中にこのインテント閉じた コンタクトが発言または入力した内容の背後にある意味や目的。コンタクトが伝えたいことや達成したいこと。を処理するようにバーチャルエージェントを構成し、トレーニングする必要があります。

Autopilot Ameliaについては、声紋認証Voice Biometrics Hubを設定する必要があります。 声紋認証プロバイダーが必要です。 また、音声生体認証フローを処理できるように、Studioスクリプトをカスタマイズする必要があります。

Autopilot Ameliaに関する重要な事実