セラピストとしてChatGPTの使用を避けるべき理由:サム・アルトマンの洞察と警告

ChatGPT に伝える内容には注意してください。

OpenAIのCEOサム・アルトマン氏によると、 感情的なサポートのためのChatGPT これは良いアイデアです。理由は極めて単純です。AI 搭載のチャットボットは、人間の医師やセラピストと同じような職業上の守秘義務法の対象ではないからです。

アルトマン氏は最近のポッドキャスト出演で、「人々、特に若者は彼をセラピストやパーソナルコーチとして頼り、感情的な問題を持ち出して『どうすればいいですか?』と尋ねます」と語った。 先週末のテオ・フォンとの会話.

ChatGPTのロゴと電話で話しているサム・アルトマン

「現在、これらの問題についてセラピスト、弁護士、医師に相談した場合、その会話は法的に特権となります」と彼は付け加えた。

彼は続けて、「医師と患者の守秘義務、法的守秘義務などがあり、ChatGPTとの会話に関するこの問題はまだ解決されていません」と述べた。

アルトマン氏は、訴訟が起これば、OpenAIはChatGPTとの会話記録の提出を法的に義務付けられる可能性があると指摘している。注目すべきは、同社は既に削除された会話の保存をめぐってニューヨーク・タイムズ紙と法廷闘争を繰り広げていることだ。5月、裁判所はOpenAIに対し、ユーザー法やプライバシー法によって削除が求められた場合でも、「削除されるべきだったすべての出力ログデータ」を保存するよう命じた。

アルトマン氏はポッドキャストで、AIは「セラピストや他の人との会話と同じように、AIとの会話にもプライバシーの概念を持つべきだ。これは1年前には誰も考えられなかったことだ」と語りました。これは、メンタルヘルスのようなデリケートな分野におけるAIの利用を規制し、ユーザーのプライバシーとデータを確実に保護するための法律や規制の重要性を浮き彫りにしています。

人々は心理療法に人工知能を利用しているのでしょうか?

肩までの長さの茶色の髪をした若い女性大学生が、寮のベッドに座りながらノートパソコンを見ています。

今年初め、ChatGPTの競合相手であるClaudeの開発元であるAnthropicは、ユーザーがチャットボットに恋愛的な会話を求めているかどうかを調べるため、4.5万件の会話を分析しました。調査によると、ClaudeのAIインタラクションのうち、恋愛的な会話はわずか2.9%で、交際やロールプレイングはわずか0.5%でした。

訴訟の状況では、OpenAI は ChatGPT との会話の記録を引き渡すことが法的に要求される可能性があります。

ChatGPTのユーザーベースはクロードのユーザーベースをはるかに上回っていますが、このチャットボットを感情的なコミュニケーションに利用する人は依然として比較的稀です。上記のアルトマン氏のコメントとは対照的に、OpenAIとMITの共同研究では、「ChatGPTが現実世界で感情的な関わりを持つことは稀である」と述べられています。

概要には次のように付け加えられている。「私たちが評価したプラットフォーム上の会話の大部分には感情的な手がかり(共感、愛情、またはサポートを示すやり取りの側面)は存在しなかった。これは、感情的な関与がChatGPTのまれな使用例であることを示唆している。」

ここまでは順調です。しかし、肝心なのは、会話型AIはインタラクティブ性とニュアンス表現においてますます向上し、個人的な問題解決のためにAIに頼る人が増える可能性が高いということです。

更新 GPT-5 ChatGPTが間もなく登場し、より自然なインタラクションと豊富なコンテキストが提供されます。AIとより詳細な情報を共有しやすくなる一方で、ユーザーは何を言うか慎重に考える必要があるかもしれません。

コメントは締め切りました。