【感想・ネタバレ】知能とはなにか ヒトとAIのあいだのレビュー

あらすじ

チャットGPTに代表される生成AIは、機能を限定されることなく、幅広い学習ができる汎用性を持っている、そのため、将来、AIが何を学ぶかを人間が制御できなくなってしまう危険は否定できない。しかし、だからといって、AIが自我や意識を獲得し、自発的に行動して、人類を排除したり、抹殺したりするようになるだろうか。この命題については、著者はそのような恐れはないと主張する。少なくとも、現在の生成AIの延長線上には、人類に匹敵する知能と自我を持つ人工知能が誕生することはない、というのだ。

その理由は、知能という言葉で一括りされているが、人工知能と私たち人類の持つ知能とは似て非なるものであるからだ。

実は、私たちは「そもそも知能とはなにか」ということですら満足に答えることができずにいる。そこで、本書では、曖昧模糊とした「知能」を再定義し、人工知能と私たち人類が持つ「脳」という臓器が生み出す「ヒトの知能」との共通点と相違点を整理したうえで、自律的なAIが自己フィードバックによる改良を繰り返すことによって、人間を上回る知能が誕生するという「シンギュラリティ」(技術的特異点)に達するという仮説の妥当性を論じていく。

生成AIをめぐる混沌とした状況を物理学者が鮮やかに読み解く

本書の内容
はじめに
第0章 生成AI狂騒曲
第1章 過去の知能研究
第2章 深層学習から生成AIへ
第3章 脳の機能としての「知能」
第4章 ニューロンの集合体としての脳
第5章 世界のシミュレーターとしての生成A
第6章 なぜ人間の脳は少ないサンプルで学習できるのか?
第7章 古典力学はまがい物?
第8章 知能研究の今後

...続きを読む
\ レビュー投稿でポイントプレゼント / ※購入済みの作品が対象となります
レビューを書く

感情タグBEST3

このページにはネタバレを含むレビューが表示されています

Posted by ブクログ

ネタバレ

田口善弘先生の「知性とはなにか」を読みました。まずこの本の第一の主張は、「大規模言語モデルLLMの構造は非線形非平衡多自由度系と何も変わらない」ということ。結構人工知能の歴史について触れている。中でなるほどと思ったのは人工知能に常識を持たせることの難しさ。専門的なロジカルなものは教えやすいのかも知れないけど、常識は確かに定義するのが難しい。第三次のAI革命はディープラーニングから始まったと思うけど、ニューラルネットワークはそれまで局所解に落ち込んでしまう、汎化性能も低いモデルという評価だったが、①既存の文章を隠して当てさせる穴埋め問題と②二つの文章が続いているかを判定する問題を学習することで、ChatGPTに代表される大規模言語モデルが生まれた。これは漠然とした学習を大量にやらせた基盤モデルと追加の個別学習である転移モデルの組み合わせで、文脈依存の単語の類似度を測れる高精度の単語の地図の作成に成功したことが要因。これは論理演算ではなく、単語の並びを予測させるモデル。現在人工知能と呼ばれるものは、現実の情報そのものを論理的に学ばせたのではなく、人間の脳というフィルタを通して、言語化された情報を言語の並びとして理解しているということ。さて、最初に戻る。つまり非線形非平衡多自由度系は現実を表現するシミュレータモデル。脳も現実を表現するシミュレータモデルで、シミュレーションした結果は同じような結論を導くけどモデルとしてまったく違うもの。LLMは現実を論理的に理解しているのではなく、現実を表現する言葉を予測するもの。だから、人間の脳と現在のAIの代表であるLLMは違うもの。もちろん、LLMの発展形には知性も感情もないというのが結論なのかな。とりあえず、自分はそういう風に理解した。

0
2026年03月30日

Posted by ブクログ

ネタバレ

生成AIに知能はあるのか、そもそも知能って何?について科学的に解説した本。

自由意志に興味があって、それの理解の一助になればいいなと思って読んだけど、専門家じゃない人にも優しく説明しているんだろうが、いかんせんこちらが理科オンチすぎて何が何だかわからなかった…ところどころ出てくる専門用語でお手上げでした…
でもシンギュラリティはない(あっても人類をどうにかするようなことはない)と書いてあった気がして、得るものはありました。

0
2026年03月13日

「学術・語学」ランキング