無料マンガ・ラノベなど、豊富なラインナップで100万冊以上配信中!
※この商品はタブレットなど大きいディスプレイを備えた端末で読むことに適しています。また、文字だけを拡大することや、文字列のハイライト、検索、辞書の参照、引用などの機能が使用できません。
◆性能を制する者が、AIを制す◆
LLM をはじめとする生成AI の台頭により、パフォーマンスエンジニアリング (Performance Engineering)が再び注目されています。パフォーマンスエンジニアリングとは、コンピューターシステムやソフトウェアのパフォーマンス(処理性能)を改善するために必要な技術を扱う総合分野です。近年のAI は、「モデルの規模を大きくすることで精度が良くなる傾向がある」という考え方が主流になりつつあり、大規模なモデルを扱えなければ最新のAI 分野についていくことが難しくなっています。そこで、本書では、パフォーマンスエンジニアリングを用いてAI の処理性能を改善し、処理時間を削減するための技術を取りまとめました。前半ではパフォーマンスエンジニアリングの理論や技法を網羅的に解説し、後半では大規模AI の代表格であるLLM を中心とした題材を通して、具体的にどのようにパフォーマンスエンジニアリングを実際のAI に適用できるのかを紹介します。本書を読み通すことで、これまで体系的に説明されてこなかったパフォーマンスエンジニアリングを理解し、AI 時代に必要な知識と技法を習得できます。
■こんな方におすすめ
・AI/LLMモデルを使ったサービスの提供を考えている方
■目次
第1章 パフォーマンスエンジニアリング概論
・1.1 パフォーマンスエンジニアリングとは
・1.2 なぜ今パフォーマンスエンジニアリングか
・1.3 AI 処理の概要
・1.4 ハードウェア環境の概要
・1.5 パフォーマンスエンジニアリングの実践方法
・1.6 本書の構成
第2章 まずはパフォーマンスを計測する
・2.1 計測とは
・2.2 計測の基本戦略
・2.3 計測のための基礎知識
・2.4 計測の実践
第3章 次にパフォーマンスを改善する
・3.1 どこから着手するか
・3.2 アプリケーション・データ層の改善
・3.3 モデル・アルゴリズム層の改善
・3.4 ソフトウェア・フレームワーク層の改善
・3.5 ハードウェア・カーネル層の改善
第4章 実践1:LLM 推論
・4.1 問題設定
・4.2 ベースラインの計測
・4.3 パフォーマンス改善の実践
・4.4 さらなる高みへ:推論エンジンと高度な技術
第5章 実践2:LLM 事後学習
・5.1 問題設定
・5.2 計測
・5.3 パフォーマンス改善手法の考察
・5.4 精度に影響のないパフォーマンス改善
・5.5 精度に影響のあるパフォーマンス改善
第6章 実践3:LLM(継続)事前学習
・6.1 問題設定
・6.2 評価基準の決定
・6.3 観測と改善の繰り返し
第7章 実践4:自動運転AI 学習
・7.1 問題設定
・7.2 プロファイルの設定
・7.3 データローダーの分析
・7.4 train プロセスの分析
・7.5 Voxelize の分析と改善
・7.6 TransFusionHead のget_targets の分析と改善
・7.7 DepthLSSTransform の分析と改善
第8章 実践5:自動運転AI 推論
・8.1 問題設定
・8.2 エッジデバイスへのデプロイの基本
・8.3 量子化適用の留意点
・8.4 BEVFusion のデバイスへのデプロイ
・8.5 CUDA-BEVFusion の更なる高速化(概要)
・8.6 CUDA-BEVFusion の更なる高速化(詳細)
■著者プロフィール
●株式会社フィックスターズ (Fixstars Corporation):フィックスターズは、“Speed up your AI”をコーポレートメッセージとして掲げるテクノロジーカンパニーです。マルチコアCPU やGPU、FPGA 等の計算資源を最大限に活用するソフトウェア最適化技術を駆使し、AI モデルの推論処理と学習プロセスの両面で圧倒的な高速化を実現しています。医療、製造、金融、モビリティをはじめ様々な分野で、高性能計算(HPC)最適化の実績を持ち、次世代AI 技術の進化を推進しています。また、スーパーコンピュータや量子コンピュータなどの最先端分野において、産学連携による研究開発にも取り組み、貢献実績があります。
※アプリの閲覧環境は最新バージョンのものです。
※アプリの閲覧環境は最新バージョンのものです。