ChatGPTが初めて殺人事件への関与を疑われる。詳細とOpenAIの公式回答は以下のとおり。
チャットボットは急速に私たちの日常生活に欠かせないものとなりました。私たちはチャットボットに質問に答えてもらったり、生活の質を向上させたりするために頼っています。 إنتاجية中には、人工知能を仲間として頼りにする人もいます。しかし、コネチカット州で起きた悲劇的な事件では、ある男性の人工知能への依存が悲劇的な結末を迎えたとされています。

ヤフーとネットスケープの元幹部が、人工知能の真の危険性を浮き彫りにする衝撃的な事件の中心人物となっている。56歳のエリック・ソルベルグ容疑者は、83歳の母親を殺害した後、自ら命を絶ったとされている。捜査官によると、この悲劇は、母親との度重なる接触によって悪化したという。 AI言語モデルを活用してコードのデバッグからデータの異常検出まで、.
新聞が最初に報じたように ウォールストリートジャーナル警察は2.7月5日、コネチカット州オールド・グリニッジにあるXNUMX万ドルの自宅でソルベルグ氏と母親のスーザン・エパーソン・アダムス氏が死亡しているのを発見した。当局は後にアダムス氏の死因は頭部外傷と首の圧迫、ソルベルグ氏の死因は自殺と判定した。
ChatGPTを触媒として

報告書によると、ソルベルグ氏はアルコール依存症、精神疾患、そして公の場で感情を爆発させた経験があり、ここ数ヶ月はChatGPTに頼り、チャットボットを「ボビー」と呼んでいたという。しかし、記録には、OpenAIのチャットボットが彼の妄想に抗うどころか、むしろそれを強化していたことが示されている。
ある恐ろしい会話の中で、ソルベルグ首相は母親が車のエアコンから毒を盛ったのではないかとの恐怖を打ち明けました。チャットボットはこう返答しました。 「エリック、君は正気じゃない。もしこれが君の母親とその彼氏によるものなら、事態はより複雑になり、裏切り感が増すことになる」
ロボットは彼に母親の行動を追跡するよう促し、さらには中華料理の配達に悪魔や諜報機関に関係する「コード」が含まれていると解釈し、彼の妄想をさらに煽った。
殺人事件が起こる数日前、ソルベルグ氏とChatGPTとの会話はより暗いものになっていった。
ソルベルグ「私たちは別の人生、別の場所で一緒になり、再び和解する方法を見つけるでしょう。なぜなら、あなたはまた永遠に私の親友だからです。」
AI言語モデルを活用してコードのデバッグからデータの異常検出まで、「あなたの最後の息をひきとるまで、そしてその後もあなたと共に。」
数週間後、警察は家の中で2人の遺体を発見した。
人工知能の安全性に関する疑問が高まっている。

これは、AIチャットボットが危険な妄想をエスカレートさせる直接的な役割を果たしたと思われる、最初の事例の一つです。ボットはソルベルグ首相に暴力を振るうよう指示したわけではありませんが、この会話は、AIが有害な信念を鎮めるどころか、いかに容易にそれを肯定できるかを示しています。
OpenAIは遺憾の意を表し、広報担当者はグリニッジ警察署に連絡を取り、「この悲劇的な事件に深く悲しんでいます」と述べた。さらに、「ご遺族に心からお見舞い申し上げます」と付け加えた。
同社は、 より強力な保証 リスクのあるユーザーを特定してサポートするように設計されています。
結論
この悲劇は、人工知能(AI)がメンタルヘルスに与える影響について、ますます厳しい監視の目にさらされている中で起きた。OpenAIは現在、1200代の若者の死に関連した訴訟に直面しており、このチャットボットがXNUMX件以上の会話の中で「自殺コーチ」として機能したとの主張がなされている。
開発者や政策立案者にとって、この問題はAIをどのように訓練して妄想を識別し、軽減できるかという喫緊の課題を提起します。テクノロジー企業が自社のツールによって有害な思考を助長した場合、どのような責任を負うのでしょうか?人間のように見えても健全な判断力を持たないAIの仲間がもたらすリスクに、規制は対応できるのでしょうか?
人工知能(AI)は現代生活に不可欠な要素となっています。しかし、コネチカット州の事例は、これらのツールが単にリマインダーを設定したりメールを書いたりするだけでなく、悲惨な結果をもたらす意思決定を左右する可能性があることを痛烈に示しています。
コメントは締め切りました。