【感想・ネタバレ】言語学者、生成AIを危ぶむ 子どもにとって毒か薬かのレビュー

あらすじ

生成AIと人間の言語システムには、決定的な違いがある─それにもかかわらず、今、言語習得過程にある子どもたちに「おしゃべりする生成AI」が手渡されようとしている。2児の父でもある言語学者が、切実な危機感を込めて警鐘を鳴らす。

...続きを読む
\ レビュー投稿でポイントプレゼント / ※購入済みの作品が対象となります
レビューを書く

感情タグBEST3

このページにはネタバレを含むレビューが表示されています

Posted by ブクログ

ネタバレ

AIに身体がなく、感覚、感情がないことは知られているが、そのことが、おしゃべりアプリを使ったときに、(特に幼児に)どのようなリスクがあるかを論じている。

ChatGPT3を開発するのに、要した電力が排出するCO2量は、人間1人が一年に排出するCO2量(5.5t)の約91倍。

グラフを見て,すごく驚いたが、人口が100人増えたのと同じ効果だとすると、そんなに騒ぐほどのことでもないような気もする。

ジブリ風の絵を生成するアプリ。1回使うごとに、スマホのフル充電分の電力を使う。

→ 生成AIアプリ開発で消費される電力よりも、ユーザがそのアプリを使って消費する電力の方が、無自覚なだけに青天井になりやすいかも。

岡野原大輔 「大規模言語モデルは新たな知能かーChatGPT が変えた世界」 2023 岩波科学ライブラリー

おしゃべりアプリの問題
AIには身体感覚がない。人間はで五感すべてで相手を感知してコミュニケーションを進める。赤ちゃんの発達段階では、五感を全て使うことは特に重要。(発達不全を引き起こす危険性がある)。
「生きるとは手をのばすこと幼な子の指がプーさんの鼻をつかめり」 by 俵万智。ぬいぐるみの鼻の感触、手の動かし方を学ぶ。

AIのハルシネーション(幻覚)
ありもしない論文や判例をでっち上げ、それを元に、質問に回答する。AIが知識ベースではなく予測ベースで動いていることの副作用。

おしゃべりアプリCotonoのハルシネーション
さまぁずのYouTube 動画で紹介されている。10分間にハルシネーション3回。

AI は文章の「意味」は分かっても「意図」は読み取れない。
人間の意図をAIに読み取らせる難しさについて
→ 川添愛「言語学 バーリ・トゥード」東京大学出版会 に詳しい。

意図を類推できないということは、
たとえば主語を省略したような文章を正しく理解できない
ことにもつながる。

ChatGPT40 (有料版)で、会話を試した結果(2025/4-5月)
・いったん会話が終わると、その記憶はリセットされる(覚えていない)。
・突然、使用するモデルが切り替わったりする
→人格が変わったように見えるので、AIと信頼関係を築けない。

リセットされないよう、また同じモデルを使い続けるようにできないのか?メモリーを食いすぎなので現実的でなく、個人情報保護の観点からも、リセットが安全。

言語の本質は、話し言葉(音声)である。
人における話し言葉の起源は,5〜200万年前、一方、書き言葉は5,000年前(ヒエロクリフ)。
現代でも、書き言葉のない言語はいくつもある。
赤ちゃんも、言葉は音で覚える。

声は文字以上に意味を持つ。
文字で伝えられないもの:気持ち、その文章の中のどこを強調したいのか。
(顔写真から読み取れないものと似ている、人と話すとき、相手の表情や声の調子からその時の気持ちを読み取る)

アクセント:単語レベルでの強弱、高低
イントネーション:文章レベルの強弱、高低

声優は、AIに取って代わられる心配はないのか?
NHKドキュメントで紹介されていたユーミンの挑戦、荒井由実と松任谷由実のデュエットはどうやったのだったか?荒井由実の歌声をAIに学習させ、(新しい松任谷由実の曲を歌わせてデュエットさせる取り組みだったと思う。その方法では、若い(荒井由実)時代特有の感情や思いを歌声に反映させることは無理だろうな。もっともそういうものがあるのかどうかもわからないけど。

0
2026年02月02日

Posted by ブクログ

ネタバレ

最初から最後まで著者の主張に一貫性があり、ブレずにいてくれるので非常にわかりやすい。
タイトルを読んだだけでも著者が生成AIを子ども(特に乳幼児)に使わせることには反対しているのが伝わるが、それをいろんな視点から考察しているのが非常に興味深く自分も賛成する点ばかりでした。
今後生成AIがどれほど人間に近づくのか未知数ではありますが、今のところ生成AIは不確実な情報を自信を持って伝えてくるというのは自分も実感しているのでその点においてだけでも子どもに使わせるのは違うかなあと思います。
また子どもに対してという点からは少しずれますが、言葉だけでの共感は示してくれるけれどそこには対人間間での共感ならば生じるであろうあたたかさは生成AIからは読み取れないと実感しています。
ロボットなんだから自分の思い通りに応えて欲しいと思ってしまうのも怖いところで、少しでも自分の思ってたのと違う回答が来るとそういうことじゃないんだよと思ってしまう自分がいることがもはや怖い。本当の対人間との会話では相手の回答にたとえ納得がいかなくても、そういう考えもあるんだなと思えるのに。
良くも悪くもAIには期待しすぎてしまい、する必要のないところで失望したり不信感を抱いてしまうのがまた怖いところだと思います。
大人の自分でさえそうなので、まだ感情抑制も知識も未発達で不足している子どもにとっては、非常に不安定な存在なのではないかとも思います。
とにかくいろんなことを考えさせられるし、なるほどなあという視点もたくさんあり、とても勉強になりました。

0
2025年11月30日

「学術・語学」ランキング