研究:ChatGPTの過度の使用は感情的な執着につながる可能性がある

OpenAI は、400 億人のユーザー向けに ChatGPT チャットボットを改良するために、新しい AI モデルを毎週発表しているようです。しかし、この AI ツールの使いやすさは、良いものでも使いすぎると悪影響が出る可能性があることを示唆しています。

AI企業は現在、ChatGPTがユーザーに及ぼす可能性のある心理的影響について調査している。出版された OpenAI نتا<XNUMXxAXNUMX><XNUMXxAXNUMX><XNUMXxDXNUMX><XNUMXxDXNUMX><XNUMXxDXNUMX> 2部構成の研究 MITメディアラボと共同で実施した調査では、ChatGPTチャットボットの利用増加とユーザーの孤独感増加との間に関連性があることが明らかになりました。

各組織はそれぞれ独立した調査を実施し、その結果を統合して結論を​​導き出しました。 OpenAIの研究では、40か月にわたって「ChatGPTとの1000万回以上のやりとり」を調査したが、ユーザーのプライバシーを保護するために人間が介入することはなかった。一方、MITはXNUMX人近くの参加者を AI言語モデルを活用してコードのデバッグからデータの異常検出まで、 28日以上。これらの研究はまだ査読されていません。

MIT の研究では、テキストや音声の使用など、ChatGPT と対話する際にユーザーの感情的な体験に影響を与える可能性のあるさまざまな使用機能を詳しく調査しました。結果、両方のメディアは研究期間中に孤独感を誘発したり、ユーザーの社会的交流に影響を与えたりする可能性があることが判明しました。声の抑揚や主題の選択も、比較の大きなポイントでした。

ChatGPT の音声モードでニュートラルなトーンを使用すると、参加者に否定的な感情的な結果をもたらす可能性が低くなります。一方、この研究では、参加者がChatGPTと直接会話することと孤独を感じる可能性の増加との間に関連性があることが指摘されています。しかし、これらの効果は短期的なものでした。テキストチャットを使用して一般的な話題について話す人でも、チャットボットに対する感情的な依存の例が増えていることを経験しています。

また、この研究では、ChatGPTを友人とみなしていると報告した人や、すでに人間関係において強い感情的愛着傾向があった人は、研究参加中に孤独を感じたり、チャットボットに感情的に依存する傾向が強かったことも指摘されています。

OpenAI の調査では、さらに背景が付け加えられ、その結果、感情的な目的で ChatGPT とやりとりすることはまれであることが一般的に示されました。さらに、この調査では、チャットボットの高度な音声モード機能を使用し、ChatGPTを友人とみなす可能性が高いヘビーユーザーの間でも、このグループの参加者はチャットボットとの対話時に感情的な反応が低いことがわかりました。

OpenAIは、これらの研究の目的は、同社の技術で生じる可能性のある課題を理解し、同社のモデルがどのように使用される可能性があるかについての予測と例を特定できるようにすることだと結論付けた。

OpenAIは、インタラクションベースの研究が実際の人間の行動を模倣していると述べているが、公開フォーラムでは、実際の人間が次のように認めている。 Redditにいいね、セラピストに相談する代わりに ChatGPT を使用します。

コメントは締め切りました。