今すぐあなたのデータでClaude AIモデルのトレーニングを開始してください。締め切り前にオプトアウトする方法は次のとおりです。

「ノー」と言うために必要なこと

AI 開発会社 Anthropic が実施している... クロード…はユーザーデータの取り扱い方法を根本的に変更します。本日より、Claudeユーザーは、Anthropicが将来のAIモデルの学習に会話データを利用することを許可するか、オプトアウトしてデータを非公開にするかを選択する必要があります。28年2025月XNUMX日までに選択しない場合、Claudeへのアクセスは完全に失われます。

ノートパソコンを使っているクロード

これまでAnthropicはプライバシーを最優先に考えており、法的理由による場合を除き、チャットとトークンは30日後に自動的に削除されていました。しかし、本日より、お客様がオプトアウトしない限り、お客様のデータは最大5年間保存され、Claudeの学習を支援するためのトレーニングセッションに活用されます。

新しいポリシーは、Free、Pro、Maxを含むすべてのプランと、これらの階層内のCloud Codeに適用されます。ビジネス、政府、教育、APIユーザーには影響はありません。

作用機序

新規ユーザーは登録時に、Claude AIモデルのパフォーマンス向上のためにデータを利用することに同意するオプションが表示されます。既存ユーザーには、「消費者向け利用規約とポリシーの更新」というポップアップウィンドウが表示されます。大きな青い「同意する」ボタンをタップすると自動的にオプトインされ、小さなトグルスイッチをタップするとこの機能をオプトアウトできます。

この期間を無視した場合、Claude は 28 月 XNUMX 日以降動作を停止します。この変更は今後の会話とコードにのみ影響する点にご注意ください。過去に書き込んだ内容は、その会話を再開した場合にのみ使用されます。また、会話を削除した場合、その会話はトレーニングには使用されません。

プライバシー設定で後から変更することも可能です。ただし、一度トレーニングに使用されたデータは取得できません。クラウドをご利用の際は、プライバシーとデータを守るために、この仕組みを理解しておくことが重要です。

Anthropic がこのような変更を行うのはなぜですか?

ダリオ・アモデイ、アントロピックCEO

アントロピックは、ユーザーデータは「バイブコーディング」や従来のプログラミングから推論機能、セキュリティ基準の維持に至るまで、複数の領域におけるクロード言語モデルのパフォーマンス向上に不可欠であると主張しています。アントロピックは、このデータを第三者に販売することはなく、モデルの学習に使用する前に自動フィルターを使用して機密情報を削除していることを強調しています。

しかし、この変更はプライバシーのバランスの変化を意味し、ユーザーが明示的に異議を唱えない限り、デフォルトのプライバシーからデフォルトのデータ共有へと移行します。つまり、あなたのデータはClaudeの改善のためにデフォルトで収集・使用されるため、データの共有を希望しない場合は、これを停止するための措置を講じる必要があります。この変更は、ユーザーデータを活用してClaudeのAI機能を強化すると同時に、機密データのフィルタリングメカニズムを通じてユーザーのプライバシーを保護するというAnthropicのコミットメントを強調することを目的としています。

あなたの選択は何ですか?

アンスロピックが、クロードをより速いペースでトレーニングに投入し、現実世界のデータの改善を図るという決定は、モデルが複雑な質問に答え、コードを記述し、エラーを回避する能力が向上するほど、AI がより進歩することを意味している。

しかし、この進歩は、ユーザーがトレーニング セットの一部となり、データが数週間ではなく数年間保存されるようになるという犠牲を伴います。

一般ユーザーにとっては大したことではないように思えるかもしれません。しかし、プライバシーを重視するユーザー、あるいは仕事のプロジェクト、個人的な事柄、あるいは機密情報をクラウドで話し合う人にとっては、このアップデートは警告となる可能性があります。

デフォルト設定が有効になっているため、データを非公開にしたい場合はこのオプションを無効にする必要があります。

コメントは締め切りました。