Googleが武器と監視におけるAIの禁止を解除:先端技術の不穏な未来

グーグルは長年禁止してきた兵器や監視システムへの人工知能の利用を解除した。これは同社のAI開発に対する倫理的姿勢の大きな転換を示しており、元従業員や業界専門家は、シリコンバレーのAI安全性への取り組み方を一変させる可能性があると指摘している。

今週ひっそりと実施されたこの変更により、 GoogleのAI原則 これにより、同社が武器や監視用のAIを開発することは明確に禁止された。これらは原則であり、 2018年に設立されました。責任ある AI 開発の業界ベンチマークとして機能します。

Google Cloudのアウトバウンド製品管理、エンゲージメント、責任あるAI担当シニアディレクターとしてGoogleのネイティブAI原則の実装に5年間携わったトレイシー・ピッツォ・フライは、 ブルースカイ「最後の砦が陥落した。Googleは、今後何を構築するかというコミットメントをこれほど明確に表明してきた唯一の企業だ。」

改訂された原則では、公衆に危害をもたらす可能性のある技術など、4 つの特定の禁止事項が削除されます。および兵器への応用。および監視システム。国際法や人権を侵害する技術。その代わりに彼女は言う。 グーグル 今後は「意図しない、あるいは有害な結果を緩和する」よう努め、「広く受け入れられている国際法と人権の原則」に準拠することになる。

Google の AI 倫理制限緩和:監視技術と軍事アプリケーションにとって何を意味するのか?

AI の能力が急速に進歩し、この技術の適切な制御に関する議論が激化しているため、この変化は非常に敏感な時期に起こっています。 Googleはこれらの変更は長い間開発されてきたと主張しているが、そのタイミングは同社の動機について疑問を投げかけている。

「巨大テック企業への不信感が高まっている状況にあり、統制を緩めようとするあらゆる措置がさらなる不信感を生んでいる」とベゾ=フライ氏はVentureBeatのインタビューで述べた。彼女はGoogle在籍中、信頼できるAIシステムを構築するには明確な倫理的境界線が不可欠であると強調した。

当初の原則は、2018年に従業員の抗議活動の中で策定されました。 プロジェクトMaven国防総省との契約には、ドローン映像を分析するための人工知能の利用も含まれている。グーグルは最終的にこの契約の更新を拒否したが、新たな変更は同様の軍事提携へのオープン性を示すものかもしれない。

この改正では、以前の倫理的枠組みのいくつかの要素が維持されています。 Googleの場合しかし、特定のアプリを禁止することから、リスク管理を重視することに移行しています。このアプローチは、次のような業界標準に沿ったものになります。 NIST AI リスク管理フレームワークただし批評家は、潜在的に有害なアプリに対する制限はそれほど厳しくないと指摘している。

「たとえ精度が同じでなくても、倫理的な配慮は優れたAIを作るのと同じくらい重要です」とベゾ・フライ氏は述べ、倫理的な配慮がAI製品の有効性とアクセシビリティを向上させることを強調した。

プロジェクト・メイヴンから政策転換へ:GoogleのAI倫理改革への道

業界観測筋は、この方針変更が他のテクノロジー企業がAI倫理に取り組む方法に影響を与える可能性があると述べている。 Google の当初の原則は、AI 開発における企業の自主規制の先例となり、多くの企業が責任ある AI 実装のガイダンスを Google に求めています。

この改正は、急速なイノベーションと倫理的制約の間のテクノロジー業界における広範な緊張を反映している。 AI開発における競争が激化するにつれ、企業は責任ある開発と市場の需要のバランスを取るプレッシャーに直面しています。

「物事がどれだけ速く世界に広がるのか、そしてPlusとPlusが制約から外れるのではないかと懸念している」とピツォ・フライ氏は述べ、潜在的な影響を適切に評価せずにAI製品を急速に発売させようとする競争圧力への懸念を表明した。

大手テクノロジー企業の倫理的ジレンマ: Google の AI ポリシーの転換は新たな業界標準を確立するか?

この調査では、Google 社内の意思決定プロセスや、従業員が明示的な禁止事項なしに倫理的な配慮にどのように対処できるかについても疑問が提起されている。 Google 在職中、ベゾフライ氏は AI アプリケーションの潜在的な影響を評価するために多様な視点を結集するレビュー プロセスを作成しました。

Google は責任ある AI 開発への取り組みを維持していますが、特定の禁止事項を削除することは、AI アプリケーションに明確な倫理的境界を設定するというこれまでのリーダーシップの役割からの大きな逸脱を意味します。 AI が進歩し続けるにつれ、この変化が AI の開発と規制のより広範な領域にどのような影響を与えるかをこの分野では監視しています。

コメントは締め切りました。