作品一覧

  • 大規模言語モデル入門Ⅱ~生成型LLMの実装と評価
    4.0
    1巻3,300円 (税込)
    ※この商品はタブレットなど大きいディスプレイを備えた端末で読むことに適しています。また、文字だけを拡大することや、文字列のハイライト、検索、辞書の参照、引用などの機能が使用できません。 ◆コンピュータが言語を理解するしくみ◆ 「大規模言語モデル入門」の続編です。「大規模言語モデル入門」は理論と実装のバランスをとって構成しましたが、本書では実装部分で扱い切れなかった話題を取り上げ、特に大規模言語モデルの評価と生成LLMに関連する解説を充実させます。「大規模言語モデル入門」の9章に続き、10章から始まります。 10章では、後続する章で行う言語モデルの評価方法について解説します。自動評価と人手評価の2つの側面から、ベンチマーク、評価指標、具体的な評価ツールやデータセットなどを取り上げます。11~13章では、主に大規模言語モデルの性能を上げるためのトピックとして、指示チューニング、人間のフィードバックからの学習、RAGに焦点を当て、それぞれの実装方法、利用するデータセット、評価の方法について解説します。14章では大規模言語モデルの学習における並列・分散処理について詳しく解説します。大規模なデータを限られた計算資源で学習させるノウハウは多くのエンジニアにとって有益な情報となるでしょう。 大規模言語モデルの性能を高めるための各トピックの実装とともに、それぞれの評価について理解できる一冊です。 ■目次 ※第1章~第9章は前巻「大規模言語モデル入門」掲載。 ●第10章 性能評価 ・10.1 モデルの性能評価とは ・10.2 評価指標を用いた自動評価 ・10.3 LLM を用いた自動評価 ●第11章 指示チューニング ・11.1 指示チューニングとは ・11.2 指示チューニングの実装 ・11.3 指示チューニングしたモデルの評価 ●第12章 選好チューニング ・12.1 選好チューニングとは ・12.2 選好チューニングの実装 ・12.3 選好チューニングの評価 ●第13章 RAG ・13.1 RAGとは ・13.2 基本的なRAGのシステムの実装 ・13.3 RAG向けにLLMを指示チューニングする ・13.4 RAGの性能評価 ●第14章 分散並列学習 ・14.1 分散並列学習とは ・14.2 さまざまな分散並列学習手法 ・14.3 LLMの分散並列学習 ■著者プロフィール 山田 育矢(やまだ いくや):株式会社Studio Ousia チーフサイエンティスト・名古屋大学 客員教授・理化学研究所革新知能統合研究センター客員研究員。2007年にStudio Ousiaを創業し、自然言語処理の技術開発に従事。2016年3月に慶應義塾大学大学院政策・メディア研究科博士後期課程を修了し、博士(学術)を取得。大規模言語モデルLUKEの開発者。全体の監修と12章の一部の執筆を担当。 鈴木 正敏(すずき まさとし):株式会社Studio Ousia ソフトウェアエンジニア・東北大学データ駆動科学・AI教育研究センター学術研究員。2021年3月に東北大学大学院情報科学研究科博士後期課程を修了し、博士(情報科学)を取得。博士課程では質問応答の研究に従事。日本語質問応答のコンペティション「AI王」の実行委員。東北大学が公開している日本語BERTの開発者。第13章の執筆を担当。 西川 荘介(にしかわ そうすけ):LINEヤフー株式会社 自然言語処理エンジニア。2022年3月に東京大学大学院情報理工学研究科修士課程を修了。現在は情報検索分野での言語処理に取り組む。第12章の執筆を担当。 藤井 一喜(ふじい かずき):東京工業大学 情報工学系 修士1年・Turing株式会社嘱託研究員。学士、修士課程では大規模モデルの分散並列学習に従事。llm-jp、Swallow Projectにて日本語大規模言語モデルの事前学習を担当。第14章の執筆を担当。 山田 康輔(やまだ こうすけ):株式会社サイバーエージェント AI Lab リサーチサイエンティスト・名古屋大学大学院情報学研究科協力研究員。2024年3月名古屋大学情報学研究科博士後期課程を修了し、博士(情報学)を取得。2024年4月より現職。博士後期課程では自然言語処理、特にフレーム意味論に関する研究に従事。第10章の執筆を担当。 李 凌寒(り りょうかん):SB Intuitions株式会社 リサーチエンジニア。2023年3月に東京大学大学院情報理工学系研究科博士後期課程を修了し、博士(情報理工学)を取得。博士課程では言語モデルの解析や多言語応用の研究に従事。現在は日本語大規模言語モデルの開発に取り組む。第11章の執筆を担当。
  • 時系列解析 自己回帰型モデル・状態空間モデル・異常検知 Advanced Python 1
    4.5
    1~2巻3,630~3,850円 (税込)
    ※この電子書籍は固定レイアウト型で配信されております。固定レイアウト型は文字だけを拡大することや、文字列のハイライト、検索、辞書の参照、引用などの機能が使用できません。 本書では、応用範囲の広い「時系列解析」について、マーケティングやIoTなどの現場における実解析で応用ができるように解説の内容を選定し、手法の基礎的な理論をPythonのサンプルコードとともに解説した。簡単なデータを用いた簡単な課題を例にとり、基礎的なモデル構築の過程を段階的に体験できるように、また、自学により応用範囲を広げてもらえるように、どの場面で、なぜその手法を使うのかを考えられるように説明している。 本書では、経済・マーケティングの分野で多く用いられるARモデルに代表される自己回帰型の古典的なデータ解析手法、工学分野の信号処理でも活躍の場面が多いカルマンフィルタに代表される状態空間モデル、IoT分野で活躍の場面が多い異常検知について説明している。 解説では、各手法について、より簡単な手法から説明し、各データに対してモデリングがうまくいかない理由とその克服方法を合わせて提示することで、段階的に各手法の必要性を理解できるように心がけている。
  • 大規模言語モデル入門
    5.0
    【コンピュータが言語を理解するしくみ】 ChatGPTに代表される大規模言語モデルの解説書が発売!! ChatGPTに代表される大規模言語モデルが自然言語処理の幅広いタスクで高い性能を獲得し、大きな話題となっています。大規模言語モデルは、大規模なテキストデータで訓練された大規模なパラメータで構成されるニューラルネットワークです。 Hugging Face社の"transformers"というPythonライブラリを利用することで、プログラミングの経験があれば、モデルの操作やデータからの学習がかんたんにできます。モデルを訓練するための日本語もしくは日本語を含む多言語のデータセットも充実してきており、すぐに業務に使える実用的なモデルを作ることが可能な時代がやってきました。 本書は、大規模言語モデルの理論と実装の両方を解説した入門書です。大規模言語モデルの技術や自然言語処理の課題について理解し、実際の問題に対処できるようになることを目指しています。以下のような構成によって、理論とプログラミングの双方の側面から、大規模言語モデルに関する情報を提供します。 ■目次 第1章 はじめに   1.1 transformersを使って自然言語処理を解いてみよう   1.2 transformersの基本的な使い方   1.3 単語埋め込みとニューラルネットワークの基礎   1.4 大規模言語モデルとは 第2章 Transformer   2.1 概要   2.2 エンコーダ   2.3 エンコーダ・デコーダ   2.4 デコーダ 第3章 大規模言語モデルの基礎   3.1 単語の予測から学習できること   3.2 GPT(デコーダ)   3.3 BERT・RoBERTa(エンコーダ)   3.4 T5(エンコーダ・デコーダ)   3.5 多言語モデル   3.6 トークナイゼーション 第4章 大規模言語モデルの進展   4.1 モデルの大規模化とその効果   4.2 プロンプトによる言語モデルの制御   4.3 アライメントの必要性   4.4 指示チューニング   4.5 人間のフィードバックからの強化学習   4.6 ChatGPT 第5章 大規模言語モデルのファインチューニング   5.1 日本語ベンチマーク:JGLUE   5.2 感情分析モデルの実装   5.3 感情分析モデルのエラー分析   5.4 自然言語推論・意味的類似度計算・多肢選択式質問応答モデルの実装   5.5 メモリ効率の良いファインチューニング   5.6 日本語大規模言語モデルの比較 第6章 固有表現認識   6.1 固有表現認識とは   6.2 データセット・前処理・評価指標   6.3 固有表現認識モデルの実装   6.4 アノテーションツールを用いたデータセット構築 第7章 要約生成   7.1 要約生成とは   7.2 データセット   7.3 評価指標   7.4 見出し生成モデルの実装 第8章 文埋め込み   8.1 文埋め込みとは.   8.2 文埋め込みモデルSimCSE   8.3 文埋め込みモデルの実装   8.4 最近傍探索ライブラリFaissを使った検索 第9章 質問応答   9.1 質問応答システムのしくみ   9.2 データセットと評価指標   9.3 ChatGPTにクイズを答えさせる   9.4 文書検索モデルの実装   9.5 文書検索モデルとChatGPTを組み合わせる 参考文献 ■著者プロフィール 山田 育矢(やまだ いくや):株式会社Studio Ousia代表取締役チーフサイエンティスト・理化学研究所革新知能統合研究センター客員研究員。2007年にStudio Ousiaを創業し、自然言語処理の技術開発に従事。大規模言語モデルLUKEの開発者。 鈴木 正敏(すずき まさとし):株式会社Studio Ousiaソフトウェアエンジニア・東北大学データ駆動科学・AI教育研究センター学術研究員。日本語質問応答のコンペティション「AI王」の実行委員。東北大学が公開している日本語BERTの開発者。 山田 康輔(やまだ こうすけ):株式会社Studio Ousiaリサーチエンジニア・名古屋大学大学院情報学研究科博士後期課程3年。2022年4月より日本学術振興会特別研究員 (DC2)。自然言語処理、特にフレーム意味論に関する研究に従事。 李 凌寒(り りょうかん):LINE株式会社自然言語処理エンジニア。大規模言語モデルmLUKEの開発者。
  • Pythonによるはじめての機械学習プログラミング [現場で必要な基礎知識がわかる]
    -
    人工知能(AI)・機械学習と言ったバズワードを見ることは多くなりましたが、まだまだデータ解析のハードルは高いと考えられています。特に機械学習の入門書には高度な理論や前提知識を必要とされることも多く、学習する過程で挫折しまうことが多いようです。 エンジニアのみなさんにとっては、Pythonの便利なツールを用いてデータに実際にふれて、機械学習の面白さや便利さを体験することも良い学習方法の1つです。誤解をおそれずに言えば、目の前のデータをどう扱えば役に立つのか?を理解してからでも理論を学ぶのは遅くはありません。本書では「勉強になった」で終わることなく現場のアプリーケーションを使うための機械学習の基礎を解説します。

ユーザーレビュー

新規会員限定 70%OFFクーポンプレゼント!