猟姦!作品一覧

非表示の作品があります

  • 中国の科学思想(中国学芸叢書) 両漢天学考
    値引きあり
    -
    ※この商品はタブレットなど大きいディスプレイを備えた端末で読むことに適しています。また、文字だけを拡大することや、文字列のハイライト、検索、辞書の参照、引用などの機能が使用できません。 【内容紹介・目次・著者略歴】 中国の科学は西欧の近代科学と違い、神秘のベールに包まれてきたが、歴史上の三大発明や紙の発明、さらに中国の三大科学(天文暦数学・医学・農学)と三大技術(紡織・陶磁器・建築)など巨大な結果を生みだしてきた。中国の科学思想は漢代を中心に基本の枠組が形成され、以後二千年にわたり影響を与え続けた。本書はその中で中核的な役割を果たしてきた天文暦学の思想的分析により、中国人の科学的思惟の原型である、自然現象と社会現象を統一的に捉えようとする思考構造を明らかにする。 【目次より】 プロローグ 序章 中国の自然科学 一 中国科学と天文暦数学 二 漢代の科学 I 術数学 一 ビクゴラスと「数」の論理 二 術数学と数の二義性 三 経学と術数学 四 術数学とビタゴラスの数論 II 受命改正制 一 受命改制と顕頭暦 二 経今文学と三正説 III 太初改暦と司馬遷 一 太初改暦 二 司馬遷と史官の伝統 IV 劉畝の三統哲学 一 劉敵とその学術 二 三統暦の数理構造 三 劉畝の三統説と五行説 四 三統暦と経学 五 王葬革命と三統説 V 揚雄と『太玄』 一 揚雄と擬経 二 太玄暦の構造 三 八十一首の陰陽消息説 四 七百二十九賛の太玄占 五 『太玄』の構造 VI 後漢の四分暦と察蘊の律暦思想 一 後漢の四分暦と察蘊の律暦意 二 六十律 三 四分暦 四 律暦意の構造 終章 天学 エピローグ 注 ※この商品は紙の書籍のページを画像にした電子書籍です。文字だけを拡大することはできませんので、タブレットサイズの端末での閲読を推奨します。また、文字列のハイライトや検索、辞書の参照、引用などの機能も使用できません。 川原 秀城 1950年生まれ。中国思想研究者。東京大学人文社会系研究科名誉教授。 京都大学理学部数学科卒業、同文学部哲学科(中国哲学史専攻)卒業、同大学院文学研究科博士課程単位取得退学。専門は東アジアの儒学。 著書に、『中国の科学思想 両漢天学考』『毒薬は口に苦し』『朝鮮数学史』『数と易の中国思想史』など、 訳書に、杜石然『中国科学技術史 上・下』(共訳)銭宝そう『中国数学史』 高橋亨『朝鮮儒学論集』(共編訳)などがある。
  • 愛と復讐の挽歌【極!単行本シリーズ】1巻
    完結
    -
    大学ラグビー界を代表する村田恭平と仲尾達哉。何者かにより両親と妹を殺された恭平は、総理を狙う達哉の父・仲尾達弘の手の者の仕業と知り、真実を暴こうとするも半殺しの目に遭う。恋人の香織も達哉に奪われ、失意のどん底に叩き落とされた恭平は外国へ逃げる。人生を諦めフィリピンで売春婦に養われていた恭平だったが、ヤクザの滝沢との出会いから立ち上がると、共に仲尾への復習を誓う。
  • すみれの花咲くガールズ 1
    完結
    3.0
    女子高生MEETSタカラヅカ!! 主人公・宇佐美真由は、ただの遊び場と化していた演劇部で 自由気ままな放課後を過ごしていた・・・・・ タカラヅカを「超」溺愛する、あの「男」が現れるまでは―― 東京・下町の女子高校生が、タカラジェンヌを目指し仲間達と駆け抜ける! 宝塚100周年を勝手に(?)祝う、ロード・トゥ・タカラジェンヌ物語!!
  • 大規模言語モデル入門
    5.0
    【コンピュータが言語を理解するしくみ】 ChatGPTに代表される大規模言語モデルの解説書が発売!! ChatGPTに代表される大規模言語モデルが自然言語処理の幅広いタスクで高い性能を獲得し、大きな話題となっています。大規模言語モデルは、大規模なテキストデータで訓練された大規模なパラメータで構成されるニューラルネットワークです。 Hugging Face社の"transformers"というPythonライブラリを利用することで、プログラミングの経験があれば、モデルの操作やデータからの学習がかんたんにできます。モデルを訓練するための日本語もしくは日本語を含む多言語のデータセットも充実してきており、すぐに業務に使える実用的なモデルを作ることが可能な時代がやってきました。 本書は、大規模言語モデルの理論と実装の両方を解説した入門書です。大規模言語モデルの技術や自然言語処理の課題について理解し、実際の問題に対処できるようになることを目指しています。以下のような構成によって、理論とプログラミングの双方の側面から、大規模言語モデルに関する情報を提供します。 ■目次 第1章 はじめに   1.1 transformersを使って自然言語処理を解いてみよう   1.2 transformersの基本的な使い方   1.3 単語埋め込みとニューラルネットワークの基礎   1.4 大規模言語モデルとは 第2章 Transformer   2.1 概要   2.2 エンコーダ   2.3 エンコーダ・デコーダ   2.4 デコーダ 第3章 大規模言語モデルの基礎   3.1 単語の予測から学習できること   3.2 GPT(デコーダ)   3.3 BERT・RoBERTa(エンコーダ)   3.4 T5(エンコーダ・デコーダ)   3.5 多言語モデル   3.6 トークナイゼーション 第4章 大規模言語モデルの進展   4.1 モデルの大規模化とその効果   4.2 プロンプトによる言語モデルの制御   4.3 アライメントの必要性   4.4 指示チューニング   4.5 人間のフィードバックからの強化学習   4.6 ChatGPT 第5章 大規模言語モデルのファインチューニング   5.1 日本語ベンチマーク:JGLUE   5.2 感情分析モデルの実装   5.3 感情分析モデルのエラー分析   5.4 自然言語推論・意味的類似度計算・多肢選択式質問応答モデルの実装   5.5 メモリ効率の良いファインチューニング   5.6 日本語大規模言語モデルの比較 第6章 固有表現認識   6.1 固有表現認識とは   6.2 データセット・前処理・評価指標   6.3 固有表現認識モデルの実装   6.4 アノテーションツールを用いたデータセット構築 第7章 要約生成   7.1 要約生成とは   7.2 データセット   7.3 評価指標   7.4 見出し生成モデルの実装 第8章 文埋め込み   8.1 文埋め込みとは.   8.2 文埋め込みモデルSimCSE   8.3 文埋め込みモデルの実装   8.4 最近傍探索ライブラリFaissを使った検索 第9章 質問応答   9.1 質問応答システムのしくみ   9.2 データセットと評価指標   9.3 ChatGPTにクイズを答えさせる   9.4 文書検索モデルの実装   9.5 文書検索モデルとChatGPTを組み合わせる 参考文献 ■著者プロフィール 山田 育矢(やまだ いくや):株式会社Studio Ousia代表取締役チーフサイエンティスト・理化学研究所革新知能統合研究センター客員研究員。2007年にStudio Ousiaを創業し、自然言語処理の技術開発に従事。大規模言語モデルLUKEの開発者。 鈴木 正敏(すずき まさとし):株式会社Studio Ousiaソフトウェアエンジニア・東北大学データ駆動科学・AI教育研究センター学術研究員。日本語質問応答のコンペティション「AI王」の実行委員。東北大学が公開している日本語BERTの開発者。 山田 康輔(やまだ こうすけ):株式会社Studio Ousiaリサーチエンジニア・名古屋大学大学院情報学研究科博士後期課程3年。2022年4月より日本学術振興会特別研究員 (DC2)。自然言語処理、特にフレーム意味論に関する研究に従事。 李 凌寒(り りょうかん):LINE株式会社自然言語処理エンジニア。大規模言語モデルmLUKEの開発者。
  • 大規模言語モデル入門Ⅱ~生成型LLMの実装と評価
    4.0
    ※この商品はタブレットなど大きいディスプレイを備えた端末で読むことに適しています。また、文字だけを拡大することや、文字列のハイライト、検索、辞書の参照、引用などの機能が使用できません。 ◆コンピュータが言語を理解するしくみ◆ 「大規模言語モデル入門」の続編です。「大規模言語モデル入門」は理論と実装のバランスをとって構成しましたが、本書では実装部分で扱い切れなかった話題を取り上げ、特に大規模言語モデルの評価と生成LLMに関連する解説を充実させます。「大規模言語モデル入門」の9章に続き、10章から始まります。 10章では、後続する章で行う言語モデルの評価方法について解説します。自動評価と人手評価の2つの側面から、ベンチマーク、評価指標、具体的な評価ツールやデータセットなどを取り上げます。11~13章では、主に大規模言語モデルの性能を上げるためのトピックとして、指示チューニング、人間のフィードバックからの学習、RAGに焦点を当て、それぞれの実装方法、利用するデータセット、評価の方法について解説します。14章では大規模言語モデルの学習における並列・分散処理について詳しく解説します。大規模なデータを限られた計算資源で学習させるノウハウは多くのエンジニアにとって有益な情報となるでしょう。 大規模言語モデルの性能を高めるための各トピックの実装とともに、それぞれの評価について理解できる一冊です。 ■目次 ※第1章~第9章は前巻「大規模言語モデル入門」掲載。 ●第10章 性能評価 ・10.1 モデルの性能評価とは ・10.2 評価指標を用いた自動評価 ・10.3 LLM を用いた自動評価 ●第11章 指示チューニング ・11.1 指示チューニングとは ・11.2 指示チューニングの実装 ・11.3 指示チューニングしたモデルの評価 ●第12章 選好チューニング ・12.1 選好チューニングとは ・12.2 選好チューニングの実装 ・12.3 選好チューニングの評価 ●第13章 RAG ・13.1 RAGとは ・13.2 基本的なRAGのシステムの実装 ・13.3 RAG向けにLLMを指示チューニングする ・13.4 RAGの性能評価 ●第14章 分散並列学習 ・14.1 分散並列学習とは ・14.2 さまざまな分散並列学習手法 ・14.3 LLMの分散並列学習 ■著者プロフィール 山田 育矢(やまだ いくや):株式会社Studio Ousia チーフサイエンティスト・名古屋大学 客員教授・理化学研究所革新知能統合研究センター客員研究員。2007年にStudio Ousiaを創業し、自然言語処理の技術開発に従事。2016年3月に慶應義塾大学大学院政策・メディア研究科博士後期課程を修了し、博士(学術)を取得。大規模言語モデルLUKEの開発者。全体の監修と12章の一部の執筆を担当。 鈴木 正敏(すずき まさとし):株式会社Studio Ousia ソフトウェアエンジニア・東北大学データ駆動科学・AI教育研究センター学術研究員。2021年3月に東北大学大学院情報科学研究科博士後期課程を修了し、博士(情報科学)を取得。博士課程では質問応答の研究に従事。日本語質問応答のコンペティション「AI王」の実行委員。東北大学が公開している日本語BERTの開発者。第13章の執筆を担当。 西川 荘介(にしかわ そうすけ):LINEヤフー株式会社 自然言語処理エンジニア。2022年3月に東京大学大学院情報理工学研究科修士課程を修了。現在は情報検索分野での言語処理に取り組む。第12章の執筆を担当。 藤井 一喜(ふじい かずき):東京工業大学 情報工学系 修士1年・Turing株式会社嘱託研究員。学士、修士課程では大規模モデルの分散並列学習に従事。llm-jp、Swallow Projectにて日本語大規模言語モデルの事前学習を担当。第14章の執筆を担当。 山田 康輔(やまだ こうすけ):株式会社サイバーエージェント AI Lab リサーチサイエンティスト・名古屋大学大学院情報学研究科協力研究員。2024年3月名古屋大学情報学研究科博士後期課程を修了し、博士(情報学)を取得。2024年4月より現職。博士後期課程では自然言語処理、特にフレーム意味論に関する研究に従事。第10章の執筆を担当。 李 凌寒(り りょうかん):SB Intuitions株式会社 リサーチエンジニア。2023年3月に東京大学大学院情報理工学系研究科博士後期課程を修了し、博士(情報理工学)を取得。博士課程では言語モデルの解析や多言語応用の研究に従事。現在は日本語大規模言語モデルの開発に取り組む。第11章の執筆を担当。
  • Daria Precious Book-ダリアプレシャスブック-
    完結
    3.0
    アニメイトガールズフェスティバル2011で先行販売した、豪華作家陣によるオール描き下ろし小冊子を電子書籍化!! 電子書籍で大ヒットした、七海「ポルノスーパースター」富士山ひょうた「不測ノ恋情」他、大人気作品の番外編に加え、小椋ムク・小鳩めばるの合作イラストを収録!! 漫画・小説・イラスト全て楽しめる豪華な1冊です!!(表紙:タカツキノボル)

最近チェックした作品からのおすすめ