2人の専門家によると、AIの誇大宣伝を見抜いて「AIのデマ」を避ける方法。
AI 評論家のエミリー・バインダー氏とアレックス・ハンナ氏は、新著『The AI Con』の中で、生成 AI の神秘性を解き明かしています。
「率直に言って、人工知能は詐欺です。誰かの懐を肥やすために売られている商品なのです。」
これが言語学が提示した議論の本質です。 エミリーベンダー 社会学者 アレックス・ハンナ 彼らの新しい本では AI詐欺。これは、AI として販売されているテクノロジーと人生が交差した人や、その本当の有用性に疑問を抱いた人 (ほとんどの人がこれに該当します) にとって役立つガイドです。ベンダー氏はワシントン大学の教授で、タイム誌のAI分野で最も影響力のある人物の一人に選ばれており、ハンナ氏は非営利団体の研究ディレクターである。 分散型AI研究所 Google の倫理 AI チームの元メンバー。

2022 年後半の ChatGPT の爆発的な人気により、人工知能をめぐるメディアの誇大宣伝の新たなサイクルが巻き起こりました。著者らが定義するハイプとは、「楽しみ、現金報酬、投資収益、または市場シェアを逃さないために」購入または投資する必要があると確信しているテクノロジーの「誇大宣伝」です。しかし、科学者、政府指導者、そして一般の人々が機械学習と人工知能というアイデアに惹かれ、懸念を抱くのは今回が初めてではなく、おそらく最後でもないでしょう。
バインダー氏とハンナ氏は、機械学習の起源を、数学者ジョン・マッカーシー氏が「人工知能」という言葉を作り出した1950年代まで遡ると述べています。これは、米国が軍事的、思想的、技術的にソ連に対して何らかの優位性を獲得するのに役立つプロジェクトに資金を提供しようとしていた時代でした。 「ゼウスの頭から突然現れたとか、そういうものではありません。もっと長い歴史があるのです」とハンナ氏はCNETに語った。 「これは、AIに関する最初の誇大宣伝サイクルではないことは確かです。」
今日の誇大宣伝サイクルは、OpenAI などの新興企業への数十億ドルのベンチャーキャピタル投資と、Meta、Google、Microsoft などのテクノロジー大手が AI の研究開発に数十億ドルを注ぎ込むことによって推進されています。結果は明らかで、最新の 電話 ラップトップとソフトウェアのアップデートは AI ウォッシュで飽和状態です。 AI開発で中国を追い抜こうとする動きが強まっているため、AIの研究開発が減速する兆候は見られません。実は、これは初めてのメディア誇大宣伝サイクルではありません。
もちろん、2025 年の生成 AI は、XNUMX 年代に初めて科学者を魅了した心理療法チャットボット Eliza よりもはるかに進歩しています。今日のビジネス リーダーと従業員は、メディアの誇大宣伝に悩まされており、見逃してしまうのではないかという強い不安と、一見複雑だが誤用されることが多い用語に悩まされています。技術リーダーや AI 愛好家の話を聞くと、AI があなたの仕事を奪い、会社のコストを節約してくれるように思えるかもしれません。しかし著者らは、どちらも完全にあり得るわけではないと主張しており、それがメディアの誇大宣伝を認識し、それを打ち破ることが重要である理由の XNUMX つです。
では、AIの誇大宣伝をどう見分ければいいのでしょうか?バインダー氏とハンナ氏によると、AIの誇大宣伝を見分けるための兆候がいくつかあるので、以下にご紹介します。著者は著書の中で、AIの誇大宣伝を見分けるための質問と戦略をいくつか紹介しています。 今すぐ入手可能 米国では。
AIを人間らしく表現する言葉遣いに注意してください。
人間化、つまり無生物に人間のような性質や特徴を与えるプロセスは、AI ブームの大きな部分を占めています。このタイプの言語の一例としては、AI 企業が自社のチャットボットが「見る」ことと「考える」ことができるようになったと言う場合が挙げられます。
これらの比較は、新しい AI プログラムがオブジェクトや AI モデルを深い推論によって識別する能力を説明するときに役立ちますが、誤解を招く可能性もあります。 AI 搭載のチャットボットには心がないので、見ることも考えることもできません。ハンナが私たちのインタビューや本の中で指摘しているように、ニューラル ネットワークのアイデア自体も 1950 年代の人間のニューロンに関する理解に基づいており、ニューロンが実際にどのように機能するかを説明したものではありませんが、機械の背後に心があると私たちを騙して信じ込ませることができます。
この信念は、人間が言語を処理する方法により、私たちが抱く素因です。ベンダー氏は、私たちは、たとえそれが人工知能によって生成されたものだとわかっていても、目にするテキストの背後に心があると想像するように条件付けられている、と述べた。 「私たちは、話者が誰であるかというモデルを心の中に作り上げることで言語を解釈するのです」とバンダール氏は付け加えた。
これらのモデルでは、話している人についての知識を使って、話している言葉の意味だけでなく、意味を作り出します。 「したがって、ChatGPTのようなもので生成された合成テキストに遭遇した場合、私たちは同じことをするでしょう」とバンダール氏は述べた。 「心は存在しないということを、自分自身に思い出させるのは非常に難しい。それは私たちが作り出した概念に過ぎない。」
AI企業が自社の製品が人間のようなものだと私たちに納得させようとする理由の一つは、それが仕事でもクリエイターとしてもAIが人間に取って代わることができると私たちに納得させる土台となるためだと著者らは主張している。 AI が医療や政府サービスなどの重要な業界の複雑な問題に対する魔法の解決策になる可能性があると信じるのは説得力があります。
しかし、ほとんどの場合、AI は何か問題を解決するために使用されない、と著者らは主張している。 AIは効率性を売りにしているが、AIサービスは結局、熟練労働者を、低賃金の契約労働者やフリーランス労働者による多大な注意を必要とするブラックボックスマシンに置き換えることになる。ハンナがインタビューで言ったように、「AIはあなたの仕事を奪うことはありません。しかし、あなたの仕事を悪化させるでしょう。」
「スーパーインテリジェンス」という言葉には注意してください。
人間ができないことを、AI が実行できるという主張には注意する必要があります。 「超知能、あるいは超知能という言葉は、ある技術が人間を不要にするということを示唆する点で、非常に危険な言葉です」とハンナ氏は語った。 「大規模なパターンマッチングのような特定の分野では、コンピューターは非常に優れています。しかし、画期的な詩が生まれるかもしれない、あるいは研究や科学の実践における画期的なアイデアが生まれるかもしれない、というアイデアがあれば、それは明らかに昇進です。」 「我々は、航空機を超大型航空機として、あるいは定規を超大型の測定機器として話しているのではない」とベンダー氏は付け加えた。 「それは人工知能の分野でしか現れないようです。」
人工汎用知能について話すとき、「超知能」AI というアイデアがよく出てきます。多くの経営者にとって、人工汎用知能 (AGI) が正確に何であるかを定義することは難しいですが、本質的には、意思決定や複雑なタスクの処理が可能な最も高度な形態の人工知能です。 AGI によって実現される未来が近いことを示す証拠はまだありませんが、AGI は人気の流行語です。
AIリーダーによるこうした未来志向の発言の多くは、SF小説から比喩を借用している。支持者も悲観論者も(バインダー氏とハンナ氏は、AI の熱狂者と AI による危害の可能性を懸念する人々をこのように表現している)、SF のシナリオに依存している。支持者たちは人工知能によって動かされる未来の社会を思い描いている。悲観論者は、AIロボットが世界を支配し人類を絶滅させる未来を嘆く。
著者らによると、共通点は、AIは人間よりも賢く、避けられないという根深い信念である。 「議論の中でよく見られることの一つは、未来は決まっていて、そこにどれだけ早く到達できるかが問題だという考えだ」とベンダー氏は語った。 「そして、この特定の技術がその方向への一歩であるという主張もありますが、それはすべてマーケティングです。それを超えて見ることができるのは有益です。」
AI がこれほど普及している理由の 1 つは、機能的かつ自律的な AI アシスタントによって、AI 企業が投資家に対して世界を変えるようなイノベーションを実現するという約束を果たすことができるようになるからです。こうした未来(ユートピアであれディストピアであれ)を計画することで、企業が数十億ドルを燃やし、炭素排出目標を達成できないことを認める中、投資家は将来に目を向けることになる。良くも悪くも、人生はSFではありません。 AI 製品が映画からそのまま取られたものだと主張する人を見かけたら、その人に対して疑いの気持ちを持って接するのがよいでしょう。
AI の入力とその出力を評価する方法について問い合わせます。
AI マーケティング詐欺を見抜く最も簡単な方法の 1 つは、企業がその仕組みを公開しているかどうかを確認することです。多くの AI 企業は、モデルのトレーニングに使用したコンテンツを公開していません。しかし、通常、企業はユーザーのデータをどのように利用するかを公開しており、時には自社のモデルが競合他社より優れていることを自慢することもある。通常はプライバシー ポリシーから調査を開始する必要があります。
クリエイターからの最大の不満と懸念の 1 つは、AI モデルのトレーニング方法です。著作権侵害の疑いに関連する訴訟は数多くあり、AI 搭載チャットボットの偏見やそれが危害を及ぼす可能性について多くの懸念があります。 「過去の不正を再現するのではなく、物事を前進させるためのシステムを作りたいのであれば、まずデータを整理することから始めなければなりません」とベンダー氏は言う。むしろ、AI企業は「インターネット上にインストールされていないものすべて」を引き継いでいる、とハンナ氏は言う。
AI 製品について初めて耳にする場合、特に注意すべきことの 1 つは、その有効性を強調するあらゆる種類の統計です。他の多くの研究者と同様に、ベンダー氏とハンナ氏は、引用のない結果は危険信号であると指摘しています。 「誰かが何かを売ったとしても、その価値がいくらなのか教えてくれないと、あなたは危ない立場に立たされることになる」とベンダー氏は言う。
AI企業が自社のAI製品の仕組みや開発方法について具体的な情報を開示していないと、イライラしたりがっかりしたりすることがあります。しかし、こうしたセールストークのギャップを認識することで、たとえ情報提供があったとしても、ノイズを遮断することができます。詳しくはこちらをご覧ください。 ChatGPT用語集 私たちの完全なとそれをオフにする方法 アップルインテリジェンス.
コメントは締め切りました。