Microsoft Copilot で Anthropic Cloud AI を使用する方法

人工知能(AI)技術は急速に進化しており、Microsoftは現在、Microsoft 365 CopilotのオプションモジュールとしてAnthropicのクラウドを提供しています。ビジネスユーザーにとってクラウドとは、管理者権限があれば特定のCopilot関連タスクに選択できることを意味します。

Microsoft Copilot で Anthropic Cloud AI を使用する方法

そのため、拡張推論や安全性を重視した応答といったClaudeの強みを活用できます。以下は、Copilot内でClaudeを有効化、管理、使用する方法について説明したガイドです。

概要

Claudeを選択可能な大規模言語モデル(LLM)として使用します Microsoft エージェントおよび研究者のタスク用の 365 Copilot および Copilot Studio。

  • 人間モデルはMicrosoftが管理する環境外でホストされる場合があり、データ処理に関する独自の利用規約が適用されます。そのため、管理者の承認と注意が必要です。

始める前に – 管理者の必須チェックリスト

  1. Microsoft 365 管理者にアクセスします。 組織に対してサードパーティの Large Language Model (LLM) プロバイダーを承認できるのは管理者のみです。
  2. 法的承認とコンプライアンス。 人間モデルは、Microsoft の直接的な管理外でデータを処理する場合があります。また、データの処理、保持、および規制への影響については、セキュリティ チームまたはコンプライアンス チームとご相談ください。
  3. ライセンスとコストの認識。 組織の Copilot/Copilot Studio ライセンスと、Anthropic モデルの使用に関する追加コストや料金を確認してください。

管理者: Microsoft 365 管理センターで Anthropic を有効にする

Microsoft Copilot で Anthropic Claude AI を使用する方法(画像 2)

出典: Claudecom

  1. にサインイン Microsoft365管理センター.
  2. انن<XNUMXxDXNUMX><XNUMXxDXNUMX><XNUMXxDXNUMX><XNUMXxXNUMX>لل<XNUMXxDXNUMX><XNUMXxDXNUMX><XNUMXxDXNUMX><XNUMXxAXNUMX> コパイロット → 設定 → データアクセス (または「AI モデルへの接続」領域)。
  3. 以内に LLMは組織に提供します、検索 人間原理 プロバイダーを許可してください。提示される利用規約に同意する必要があります。接続を保存した後、完了するまでに数時間かかる場合があります。

コンテンツの説明: テナント レベルでの有効化はゲートウェイであり、管理者が許可するまで Claude は表示されません。

ガバナンスとデータ制御の構成

  1. アクセス範囲 組織単位またはセキュリティ グループに応じて次のようになります。 完全配布前に、Anthropic へのアクセスを実験チーム (製品や研究など) に制限します。
  2. データ処理ポリシー: 許可されるデータの種類(明示的に許可されない限り、保護対象の医療情報や機密性の高い決済カードデータは不可)と、文書化されたコンテンツがAnthropic環境に流入可能かどうかを文書化します。この文書では以下の点について説明しています… Microsoft Anthropic モデルは外部でホストされており、監査目的でこれを記録していることは明らかです。
  3. 監視記録とテレメトリ: サードパーティのフォームに送信されたコンテンツを追跡できるように、Copilot 使用ログと DLP (データ損失防止) ルールがアクティブになっていることを確認します。

ビジネス ユーザーは Copilot 内でどのように Claude を選択するのでしょうか?

組織が許可し、Anthropic がそれを有効にすると、次の操作を実行できます。

  1. アプリを検索する Microsoft 365 コパイロット または、Word、Excel、Outlook などのアプリケーション内で Copilot を開いたり、チャットしたりすることもできます。
  2. Copilotで選択 研究者 または選択 副操縦士スタジオ エージェントを作成するときにオプションが表示されます クラウドを試す あるいは、Copilot Studioでモデルオプションを設定する際に、AnthropicのSonnet/Opusモデルを選択することもできます。 クラウドを試す または必要なクラウド モデル。

助言: Researcher では、エージェントのクレームと必要なコンテキストを Anthropic モデルにルーティングして、出力をデフォルトの Microsoft モデルと比較できるようにする Claude を試してください。

最初にテストするための実用的なワークフロー

  • 文書とメディアブリーフィングの要約: 使用する クロード 会議パッケージや長いレポートなどの長いコンテキスト要約用。
  • 研究と供給: 研究者エージェントを介して比較文献レビューを実施したり、注釈付きの研究概要を編集したりします。
  • 顧客の洞察: また、観察、テキスト、電子メールの件名などの大規模なデータセットを分析して傾向を明らかにします。
  • 副操縦士エージェント: Copilot Studioでは、経費精算や設定支援などのタスクに特化したエージェントを作成できます。慎重な検討やセキュリティフィルターが必要なタスクには、Claudeを選択してください。

ビジネスユーザー向けの請求とやり取りに関するヒント

  • コンテキストを明確にします。 さらに、関連文書、期限、希望する出力形式を明記してください。作業項目を3点にまとめたエグゼクティブサマリーも提出してください。
  • リクエスト元: 実際の作業で Researcher を使用する場合は、引用または証拠の痕跡を要求します。
  • 繰り返して記録します: 一部の機密性の高いワークフロー タスクでは、クレームの範囲を狭く保ち、修正されていない個人識別情報 (PII) を貼り付けないようにします。
  • 出力を比較します。 さらに、実験するときは、デフォルトの Microsoft モデルとクラウドに対して同じプロンプトを実行し、どちらがタスクに最適かを確認します。

テスト、測定、拡張

  1. オンにする 小さな実験 (2~4 チーム) に 2 ~ 6 週間にわたって調査を実施し、定性的および定量的な観察結果を収集します。
  2. 精度、幻覚率、節約時間、ユーザー信頼スコア、データ損失防止 (DLP) インシデントの数などの指標を追跡します。
  3. 結果を使用してアクセスを拡張し、テンプレートを作成し、反復的なタスクの内部プロンプトを構築します。

セキュリティとコンプライアンスに関するリマインダー

  • 人類学的モデルは組織のコンテンツを次のように処理します。 人間が宿主となる環境さらに、法務チームとプライバシーチームがこの移転を承認していることを確認します。
  • 必要に応じて、管理者は後でテナント管理センターの同じデータ アクセス設定を使用して Anthropic をブロックできます。

結論: Copilot で Claude を試す理由は何でしょうか?

さらに、Anthropic のクラウドは、Microsoft の Copilot エコシステム内で代替モデル オプションを提供し、企業がモデルの長所をタスクに適合させることを可能にします。

したがって、適切な管理、慎重な経験、明確なユーザー ガイダンスがあれば、Claude は Copilot ツールキットへの強力な追加機能となることができます。

正式な管理者設定と詳細な手順については、Microsoft の Copilot Administrator ドキュメントと Anthropic Ads の出版物を参照してください。

コメントは締め切りました。