スティーヴンウルフラムのレビュー一覧
-
-
Posted by ブクログ
ネタバレブックカタリスト倉下さんお勧めとの話をPodcastで入手し、それではと軽い気持ちで読み始める。
あれ、これは初心者向けではなくある程度の前提知識のある中級者向けだなと勘づくが、本の薄さに励まされ読み進めてみる。
私なりに理解して点としては、
・ChatGPTがなぜそのような回答に行き着くかは、本書刊行時点ではブラックボックス(現在はどうなのだ?)
・論理的な計算処理で導ける質問に対しては苦手、ハレーション。そこに、著者開発のWoifram/Alphaとの協働で、ブースト可能だよという売り文句。(実際にコラボしてるのかな?)
・構造論(シンタックス)と意味論(セマンティック)の観点から -
-
-
-
-
-
Posted by ブクログ
原文ブログを読んで、理解及ばなかったと思って、そのまとめの日本語訳を手にした訳だけど、大体、読んだ通りだった。Wolfram氏の哲学(ChatGPTの「自然言語」とMathematica・Wolfram言語の「計算言語」の融合で、相補的な進展の先に進む)がよく分かる。計算言語の創始者とも言える氏が、自然言語を高く評価しているのは予想外だった。
NNの説明までは良い。ニューロンの中間層で絞られる事自体に意味があると。
人間の脳との働きが似ているという説には肯定的。だからこそ、説明不能というのも理解できる。
シナプスに当たる計算ユニットにメモリを持たせて独立で演算、というアイデア自体は、既に市場 -
-
-
Posted by ブクログ
NNのはなしから始まって、DL、Transformerのアテンション機構まで解説しながら、普段私たちの脳内で行われる「言語構築」との対応について考察されている。抽象的な表現・図が多くて辛い部分もあるので「最高の解説書」かはわからないが、正しくない軽視や過信は修正できそう。
あと、「正解を導くようなもの(たとえば計算問題)は苦手なので、俺の作ったWolfram|alphaを使え!いつかChatGPTと融合して最強になるぞ!」という宣伝があるので、「この書籍にはプロモーションを含みます」という感じだった。
そして、計算言語、という概念は非常に興味深い。言語を数学・物理的に捉えられる可能性が出て -
-
Posted by ブクログ
ChatGPTのストラクチャーと作用機構は何となく理解できたが、細かい所になると何が何だか全くわからない。難しいと言うより説明が全く足りてない。
曰く、生成AIとはニューラルネットがヒトの脳細胞と同じように、過去に蓄積した膨大な記憶(LLM)に基づいてニューロンからニューロンへ逐次的に重み付けした情報を渡していき、『次の1語』を順次付け加えているだけ。基本的に『次の1語』は『距離の近さ(=ベクトルの短さ)』で選ばれ、自ら生成した文章が世の中の膨大な文章群に最も近くなるようにしているが、なぜAIがそれを選ぶのかを人間が明示的に理解することはできない。ごく簡単に言ってしまえばこんなところか。
でも -
-
Posted by ブクログ
内容が難解であまり理解できなかったけど、面白かった。
・chatGPTはディープラーニング(人間の脳細胞を参考にしたニューラルネットによる学習方法)でネット上の膨大な情報を学習し作られた生成AI。
・生成されるテキスト文は、シンプルに、インプット(プロンプト)テキストの次に来る確率が最上位のテキストを段階的に割り出して、それを次々と並べているだけ。
・ただし、常に確率が最上位のテキストを並べるのではなく、時折確率が やや高め に留まるテキストを織り交ぜることにより、全体的に単調ではなく創造的なアウトプットになる。(これについては、なぜそうなるのかは解明されておらず、経験的にそうなることがわか -
Posted by ブクログ
正直、言っていることを正確に理解できているのかが、そもそも分からなかった。
もともと馴染みのないフィールドなので、名称や説明内容を、頭の中でイメージ出来ないのが問題だ。
ただこのようなことだろう。
・ChatGPTの思考システムは、人の頭の中のニューロンのようなもの。
・基本的な概念は、ウェブや書籍などから、人が作った文章の膨大なサンプルを集めるところから始まる。次に、「それと似た」文章を生成するようにニューラルネットを訓練する。具体的には、「プロンプト(指令・命令)」から始めて、「訓練に使われたのと同じような」文章を続けられるようにする。
・ChatGPTの内部にはウェブページや書籍など