子どもにAIについて話す:シンプルで役立つガイド
私は最近、次のようなプログラムに参加する素晴らしい機会に恵まれました。 科学者へのSkypeは、さまざまな分野の科学者(生物学者、植物学者、エンジニア、コンピューター科学者など)と子供たちのクラスを結び付け、私たちの仕事について話し、彼らの質問に答えます。私は大人の聴衆と AI や機械学習について議論することには慣れていますが、このトピックについて子供たちにどのように話すかについてじっくり考えるのは初めてで、興味深い挑戦でした。今日は、このプロセスの一環として私が思いついたいくつかのアイデアを皆さんと共有したいと思います。これは、何らかの形で生活に子供がいる皆さんにとって役立つかもしれません。これらのアイデアは、複雑な AI の概念を子供たちにとって魅力的でわかりやすい方法で簡素化する方法について貴重な洞察を提供します。

概念を説明する準備をする
どのような聴衆の前でも、講演を準備するときは、いくつかの基本的なルールに従います。私がどのような情報を提示するつもりなのか、講演後に聴衆がどのような新しい概念を知る必要があるのかを非常に明確にする必要があります。なぜなら、これが私が共有する情報のすべてを決定するからです。また、私は自分の資料を、聴衆の既存の知識に適したレベルの複雑さで提示したいと思っています。つまり、物事を過度に単純化するのではなく、聴衆の理解レベルを超えるほどに押し付けることもありません。
日常生活では、子供たちが人工知能 (AI) についてすでに何を知っているか (または知っていると思っているか) を私は必ずしも十分に認識しているわけではありません。私は、聴衆のレベルに合わせて説明をしたいと思っていますが、この場合、彼らの背景知識については、ある程度限定的にしか把握していません。企業間や国境を越えたAI競争などについて、子どもたちがかなり意識していることに驚きました。コンテンツの構成方法を決めるときに役立つ練習は、視聴者がすでによく知っている概念やテクニックを使用した比喩を考え出すことです。これについて考えると、視聴者の背景を知る手がかりも得られます。さらに、自分のプレゼンテーションが満足のいくものではないと判断した場合は、プレゼンテーションのスタイルを変更して調整する準備をしておいてください。私は、子供たちに AI についてどう思うか、最初に何を知っているかを少し尋ねて、先走りすぎないように明確にし始めるようにしています。
テクノロジーを理解する:AIモデルの基礎
特に子どもに対しては、いくつかの主要なポイントに焦点を当ててプレゼンテーションを行います。読者は、私が大規模言語モデル (LLM) やその他の AI モデルのトレーニング方法や、それらのトレーニングに使用するデータについて、専門家以外の人に教えることを強く支持していることをご存知でしょう。これは、これらのモデルの結果について現実的な期待を形成するために不可欠です。子供も含め、誰でも LLM モデルの口調、声、さらには「性格」の具体性に引き込まれ、これらのツールの現実的な限界を見失いやすいと思います。
難しいのは、年齢にふさわしい内容を維持することですが、トレーニングの仕組み、LLM モデルが文書資料の例から学習する方法、拡散モデルがテキストと画像のペアから学習する方法などを説明すれば、考えられる結果について自分で結論を導き出すことができます。 AI エージェントが複雑になり、基礎となるメカニズムを分離することが困難になるにつれて、ユーザーがこの機能につながる構成要素を理解することが重要になります。
私の場合は、できるだけ専門用語を避け、トレーニングを一般的な概念として説明することから始めます。子どもと話すとき、具体的な言葉を使うと、物事の曖昧さを軽減するのに役立ちます。たとえば、「私たちはコンピューターに大量の情報を与え、その中のパターンを学習するように求めます。」次に、「パターン」という言葉だけでは一般的で範囲が広すぎるため、言語や画像のピクセルなどに見られるパターンの例を説明します。そして、「あなたが学ぶこれらのパターンは数学を使って書かれており、この数学が『モデル』の中に入っているのです。」今では、モデルに新しい情報を与えると、学習したパターンに基づいて応答が返されます。」そこから、別の包括的な例を示し、簡略化されたトレーニング プロセス (視覚化が非常に簡単なため、通常は時系列モデル) について説明します。次に、さまざまな種類のモデルについてさらに詳しく説明し、ニューラル ネットワークと言語モデルの違いを、対象者に適した範囲で説明します。
AI倫理と外部の影響
また、人工知能に関連する倫理的問題についても取り上げたいと思います。私は小学生、中学生、そしてそれ以上の年齢の子どもたちは、 翻訳する 大規模言語モデル (LLM) を含む AI テクノロジーがもたらす社会的影響について説明します。今日の子どもたちの多くは、地球規模の気候変動や環境危機についての理解が非常に進んでいるように思われます。ですから、LLM を運営するために必要なエネルギー、水、希少鉱物の量について話すことは不合理ではありません。説明が分かりやすく、年齢に適したものであることが重要です。先ほど述べたように、関連性があり、聴衆の実際の経験に関係する例を使用してください。私たちは焦点を当てなければならない 人工知能の倫理 و 人工知能の影響 社会と環境について。
これは、子供の経験から AI の環境への影響への移行の例です。
皆さんは学校の勉強でChromebookを使っていませんか?ノートパソコンを膝の上に置いて長時間作業していると、背面が熱くなることに気づいたことはありませんか?たくさんのファイルを一度に開いたり、たくさんの動画を見たりしているのかもしれません。この熱は、chatGPTのウェブサイトにアクセスするときのように、大規模言語モデル(LLM)を学習したり使用したりするときに稼働するサーバーと呼ばれる大型コンピューターでも起こる現象です。
ChatGPTを稼働させているデータセンターには、同時に稼働するサーバーが多数設置されており、非常に高温になります。これはハードウェアにとって良くありません。そのため、これらのデータセンターでは、冷水と薬品を混ぜて、すべてのサーバー上を走るパイプを通して送り込むことがあります。これはマシンを冷却し、稼働を維持するのに役立ちます。しかし、これは大量の水が使用され、薬品と混合され、システムを通過する際に加熱されることを意味します。そのため、この水を農業や飲料水など、他の用途に使用できない可能性があります。
「また、これらのデータセンターでは大型のエアコンが稼働しており、その稼働には大量の電力を消費するため、家庭や事業所に十分な電力が供給されない可能性があります。さらに、発電所では石炭を燃焼させて電力を生産する場合もありますが、その際に排気ガスが大気中に放出され、大気汚染が悪化する原因にもなります。」
これにより、子どもの経験が会話に取り入れられ、概念に関連付ける具体的な方法が子どもに与えられます。知的財産法の詳細に立ち入ることなく、子供たちに馴染みのあるアーティストやクリエイターを使って、著作権倫理やコンテンツの盗難について同様の議論をすることができます。ディープフェイクは、性的なものもそうでないものも、多くの子供たちがよく知っている話題であり、子供たちが AI を使用する際に個人や社会に及ぼすリスクを認識することが重要です。
特に幼い子どもたちにとって、AI の非倫理的な応用やそれがもたらす世界的な課題を理解し始め、それらのいくつかがいかに強力になり得るかに気付くのは恐ろしいことかもしれません。子どもたちから「誰かが AI に悪いことを教えてしまったら、どうすれば直せるの?」と聞かれることがあります。例えば。もっと良い答えがあればよかったのですが、基本的にこう言わざるを得なかったのです。「AI は悪いことをするための情報を持っていることもありますが、AI をより安全にし、AI が悪い情報や悪いことをする方法の指示を共有するのを防ぐために懸命に働いている人もたくさんいます。」
「真実」という概念を解体する
AI を人間化することは、大人にとっても子供にとっても現実的な問題です。AI が何かを伝えるとき、私たちは親しみやすく自信に満ちた声を信頼する傾向があります。問題の大きな部分は、物事を伝える大規模言語モデル (LLM) の声が、親しみやすく、自信に満ち、間違っていることが多いことです。メディアリテラシーの概念は長年にわたり教育の重要なテーマであり、これを大規模言語モデル (LLM) に拡張することは自然な進化です。。学生(および大人)が他の人や企業によって作成された情報の批判的な消費者になることを学ぶ必要があるのと同様に、私たちはコンピューターによって生成されたコンテンツの批判的かつ思慮深い消費者になる必要があります。これには、これらのテクノロジーの限界を理解することも含まれます。
これはテクノロジーを理解することにもつながると思います。大規模言語モデル(LLM)のタスクは、最も単純なレベルでは、文字列内の次の単語をその前にあった単語に基づいて決定することで人間の言語を学習してコピーすることであると説明すると、LLM は「真実」という概念を理解できないと言うのは理にかなっています。真実は訓練の過程の一部ではありません。同時に、真実は人間にとっても理解するのが本当に難しい概念です。大規模言語モデル (LLM) は、ほとんどの場合、事実を正しく把握しますが、確率により、盲点や潜在的なエラーが時々発生します。そのため、それを使用する子どもたちは、そのツールの誤りを十分に認識していなければなりません。
しかし、このレッスンは AI を使用するだけにとどまらない価値があります。なぜなら、私たちが教えているのは不確実性、曖昧さ、エラーに対処することだからです。彼が指摘したように バーマンとアジャウィ(2023)「AIが介在する世界における教育には、人間とテクノロジーの絡み合った関係を反映した、曖昧で不完全で漠然とした状況に対処することを学ぶことが含まれます。」私はこの枠組みがとても気に入っています。なぜなら、これは私がよく考えていること、つまり大規模言語モデル (LLM) は人間によって作成され、人間が生成したコンテンツの解釈を反映しているということに立ち返るからです。子どもたちが、モデルがどのように形成されるか、モデルには誤りがあること、そしてその出力は人間が生成した入力から生じることを学ぶと、今日の社会全体でテクノロジーがどのように機能するかという漠然とした性質を認識するようになります。 (実際、子供たちに AI について教える方法を考えている方には、この記事全体を強くお勧めします。)
写真とビデオに関する補足
先ほども述べたように、「AI 雑多」なビデオや画像コンテンツの急増は、多くの難しい問題を提起しています。説得力のある視覚コンテンツを通じて誤った情報や完全な嘘を吸収することは容易であるため、この分野で子供たちに情報を提供することは重要であると私は信じています。また、このコンテンツの多くはソーシャル メディアで広く共有されており、適切に分類される可能性が低いため、ほとんどの子どもにとって、実際の創作プロセスからは程遠いものとなっています。 AI が生成したコンテンツを見分けるのに役立つ兆候について子供たちに話すことや、「話がうますぎる場合は、おそらく偽物です」や「この種の出版物で聞いたことは二重チェックしてください」などの一般的な批判的メディア リテラシー スキルについて話すことも役立ちます。子どもたちに、真実と偽りのコンテンツを区別する能力を高めるために、事実と情報源を確認する方法を教えることが不可欠です。
人工知能を使った不正行為
LLM エラーの倫理的問題やリスクはたくさんあるにもかかわらず、これらの AI ツールは非常に便利で魅力的なので、宿題や学校でカンニングをするために AI ツールを使う学生がいるのも理解できます。子どもたちに話しかけて、課題を完了するために必要なスキルを習得することが目標であり、それを習得しなければ、後の学年や人生で必要なスキルを失ってしまうと説明する必要があると思います...しかし、子どもたちがそれほど論理的であることはめったにないことは私たち全員が知っています。彼らの脳はまだ発達途上であり、このようなことは大人にとっても時々考えるのが難しいことがあります。 AI が教育に与える影響を理解するには、これらのツールの機能と、必須スキルの開発に対する潜在的な影響を深く理解する必要があります。
基本的に、取ることができるアプローチは 2 つあります。学校の課題でカンニングをしにくくしたり不可能にしたりする方法を見つけるか、将来生徒が AI を利用できるようになることを前提に AI を教室に統合することです。現在では、教室内での監督下での学習により、生徒はデジタルの介入なしに、必要なスキルの一部を習得する機会を得ることができます。しかし、先ほど述べたように、メディア使用に関する知識には大規模言語モデルが真に含まれる必要があり、知識豊富な教師による大規模言語モデルの監督下での使用は大きな教育的価値を持つと考えています。また、教師の直接の監督外で行われる「宿題をAI耐性化する」ことは到底不可能であり、そのことを認識する必要がある。しかし、簡単に聞こえるようにしたくはありません。以下のセクションを参照してください。 追加の参考文献 教室で AI リテラシーを教える際の幅広い課題に関する多数の学術論文。教師は、自らがテクノロジーの進歩に遅れずについていき、時代に合わせて指導法を適応させるだけでなく、生徒たちに責任を持って AI を使用するために必要な情報を提供するという、非常に困難な課題に直面しています。教育者は、AI によって生成された情報を批判的に評価し、批判的思考力を養う方法を生徒に教えることにも重点を置く必要があります。
性教育の例から学ぶ:人工知能の教訓
結局のところ、問題は、教室の内外を問わず AI が存在する世界において、私たちは子供たちに具体的に何を勧めるべきか、また何を避けるべきかということです。私は、ある考えを禁止したり禁じたりすることに賛成することはめったにありませんが、包括的で科学に基づいた、年齢に応じた性教育の例は、良い教訓を与えてくれると思います。子どもたちが自分の体や性について正確な情報を提供されなければ、この分野で情報に基づいた責任ある決定を下すための知識が得られません。子どもたちが困難な状況でどうするかという難しい決断を下すとき、大人は命令を強制することはできないので、子どもたちが責任を持って自分で決断するために必要な情報を備えていることを確認する必要があります。これには道徳的な指導だけでなく、事実の情報も含まれます。同様に、学生が AI の可能性とリスクを包括的に理解し、デジタル時代に AI を効果的かつ責任を持って使用できるようにする必要があります。
人工知能の利用における責任のモデル化
もう一つ言及しておくべき重要な点は、大人も AI を扱う際に責任ある行動を示すべきだということです。教師、親、そして子どもたちに関わる他の大人たちが AI について批判的に認識していなければ、子どもたちにこの技術を批判的に、思慮深く利用することを教えることはできないでしょう。
この記事は ニューヨーク・タイムズ 教師のAI活用方法に、私は少々不満を感じています。この記事はAIへの深い理解を反映しておらず、AIを基本的な統計学と混同しています(教師が生徒のデータを分析して、生徒のレベルに合わせた指導を行うという行為は、AIでもなければ目新しいことでもなく、問題視されることもありません)。しかし、この記事は、子どもたちを取り巻く大人たちがAIツールをどのように活用しているかについて議論の糸口となるものであり、そうした大人たちが透明性と批判性をもってAIを活用する模範を示す必要性を指摘しています。(また、営利企業がAIを教育現場に押し込んでいるという問題についても簡単に触れていますが、これはもっと時間をかけて検討する価値のある問題だと思います。これについては、後ほど詳しく書くかもしれません。)
この記事の主張の一つに反論すると、私は教師が大規模言語モデルを使用することに文句を言うつもりはない(LLM) は、出力を監視し検証する限り、書面による資料を評価するための初期レビューを実施できます。評価基準が文法、スペル、文章構造に関係する場合、トレーニング方法に基づいて大規模な言語モデルが適切である可能性が高くなります。人間が少なくともざっと見ることもせずに、この点に関して大規模な言語モデルを盲目的に信頼したくはありませんが、実際には、このモデルは人間の言語を理解するように設計されています。 「生徒が書かなければならなかったのだから、教師はそれを採点しなければならない」という考えはばかげている。なぜなら、この演習の目的は生徒が学ぶことだからです。教師はすでに文章作成の仕組みを知っており、これは手作業による評価を通じてのみ達成できる何かを教師に強制的に学ばせることを目的としたプロジェクトではありません。ニューヨークタイムズはこれを知っていて、このフレーミングは主にクリックベイトの目的だったと思うが、それをはっきりと言う価値はある。
この点は、テクノロジーの理解に関する前のセクションに戻ります。トレーニング プロセスがどのようなものかを確実に理解していれば、そのプロセスによってタスクを処理できるツールが生成されるかどうかを判断できます。しかし、評価の自動化は少なくとも数十年前から教育の一部となってきました。成績表を記入したことがある人なら誰でもそのことを知っています。
この技術の発展により、私たちの教育システムはある程度の適応を迫られていますが、今となってはこの技術の魔神を瓶に戻すことはできません。 AI が教育にプラスの影響を与える方法は確かにいくつかあります (よく挙げられる例としては、パーソナライゼーションや、教師の時間を解放して直接的な生徒サービスに割り当てることなど)。しかし、ほとんどのことと同様に、私は現実的な見方を主張しています。ほとんどの教師がご存知のとおり、教育は大規模言語モデルの導入以前と同じようには続けられない(LLM私たちの人生。
結論
子どもたちは私たちが思っている以上に賢く、私たちの世界で AI が何を意味するのかを多く理解できると思います。私のアドバイスは、このテクノロジーが個人として、そして社会全体にとってもたらすメリットとデメリットを含め、このテクノロジーの現実について透明性と誠実さを保つことです。 AI の使い方は、良いか悪いかを問わず、子どもたちの選択に影響を与え、子どもたちはそれに注目します。そのため、私たちが言うことだけでなく、行動についても慎重になることが重要です。私たちは、この技術の倫理的かつ責任ある使用を重視しながら、AI の可能性と課題を彼らに説明しなければなりません。
コメントは締め切りました。