検索結果
-
3.0※この商品はタブレットなど大きいディスプレイを備えた端末で読むことに適しています。また、文字だけを拡大することや、文字列のハイライト、検索、辞書の参照、引用などの機能が使用できません。 従来の保育実践にICTを取り入れ、より豊かな保育を実現した28の事例をまとめた一冊。表現、探究、対話など様々な活動の事例から、昨今注目されるICTを活用した保育の可能性を示す。自園で活かせる身近な方法ばかりで、ICT活用の第一歩が踏み出せる。 ※本電子書籍は固定レイアウト型の電子書籍です。 ※本電子書籍は同名出版物(紙版)を底本として作成しました。記載内容は、印刷出版当時のものです。 ※印刷出版再現のため、電子書籍としては不要な情報を含んでいる場合があります。
-
-園内研修を360度学び尽くす! 本書は研修プロセスを分解し、保育者の学びの過程を可視化。組織としての研修の進め方、面白くするための工夫、園を超えたネットワークづくりなど、事例も多数収載し解説した。園長から新人まで、園内研修に携わるすべての職員の参考になる。 ※本電子書籍は同名出版物(紙版)を底本として作成しました。記載内容は、印刷出版当時のものです。 ※紙版とは異なる表記・表現の場合があります。また、電子書籍としては不要な情報を含んでいる場合があります。
-
-※この商品はタブレットなど大きいディスプレイを備えた端末で読むことに適しています。また、文字だけを拡大することや、文字列のハイライト、検索、辞書の参照、引用などの機能が使用できません。 実績豊富な研修アドバイザー12名へのインタビューや、研修方法の事例紹介などから、園の内と外をつないで園全体の保育の質をアップさせるための「園内研修」の秘訣を紹介。 はじめに 第1章 園内研修とは何か? 第2章 研修アドバイザーが語る園内研修の秘訣 ~12名へのインタビューから~ 第3章 園内研修からの広がり~他園から互恵的に学び合うコミュニティの形成~ ① 保育参観を通して園同士が研修でつながる「連鎖型研修」(静岡市の事例から) ② 園と園の園内研修をつなげる「ネットワーク型研修」(ソニー教育財団の事例から) 第4章 学び上手になるための園長の知恵 ~紹介事例を俯瞰しながら~ 大竹節子先生の視点/大豆生田啓友先生の視点 第5章 新しい園内研修のかたちとは おわりに
-
-
-
-※この商品はタブレットなど大きいディスプレイを備えた端末で読むことに適しています。また、文字だけを拡大することや、文字列のハイライト、検索、辞書の参照、引用などの機能が使用できません。 子どもたちは、なぜ幼稚園・保育所に行くのか/子どもが育つとは/幼児期にふさわしい生活/生きる力を育てる-子どもの日常的な現象世界からの検討/「思いやりの心」を育てる/子どもが創り出す遊び-遊びの楽しさの背景を考える/幼児教育と小学校教育の連続性-古くて新しい課題としての再考/幼稚園・保育所と小学校との段差と連携/今、求められる保育者の役割-幼児の主体性と保育者の意図性との狭間から/幼児が育ち合う場の工夫としてのティーム保育/「指導すること」と「援助すること」との狭間/幼児教育の中の人間関係-開かれた集団、保育室をめざして/保育におけるパラダイムの転換/保育の楽しさと難しさ/教育課程の基準の改善-新しい幼稚園教育要領をどう読むか
-
-【コンピュータが言語を理解するしくみ】 ChatGPTに代表される大規模言語モデルの解説書が発売!! ChatGPTに代表される大規模言語モデルが自然言語処理の幅広いタスクで高い性能を獲得し、大きな話題となっています。大規模言語モデルは、大規模なテキストデータで訓練された大規模なパラメータで構成されるニューラルネットワークです。 Hugging Face社の"transformers"というPythonライブラリを利用することで、プログラミングの経験があれば、モデルの操作やデータからの学習がかんたんにできます。モデルを訓練するための日本語もしくは日本語を含む多言語のデータセットも充実してきており、すぐに業務に使える実用的なモデルを作ることが可能な時代がやってきました。 本書は、大規模言語モデルの理論と実装の両方を解説した入門書です。大規模言語モデルの技術や自然言語処理の課題について理解し、実際の問題に対処できるようになることを目指しています。以下のような構成によって、理論とプログラミングの双方の側面から、大規模言語モデルに関する情報を提供します。 ■目次 第1章 はじめに 1.1 transformersを使って自然言語処理を解いてみよう 1.2 transformersの基本的な使い方 1.3 単語埋め込みとニューラルネットワークの基礎 1.4 大規模言語モデルとは 第2章 Transformer 2.1 概要 2.2 エンコーダ 2.3 エンコーダ・デコーダ 2.4 デコーダ 第3章 大規模言語モデルの基礎 3.1 単語の予測から学習できること 3.2 GPT(デコーダ) 3.3 BERT・RoBERTa(エンコーダ) 3.4 T5(エンコーダ・デコーダ) 3.5 多言語モデル 3.6 トークナイゼーション 第4章 大規模言語モデルの進展 4.1 モデルの大規模化とその効果 4.2 プロンプトによる言語モデルの制御 4.3 アライメントの必要性 4.4 指示チューニング 4.5 人間のフィードバックからの強化学習 4.6 ChatGPT 第5章 大規模言語モデルのファインチューニング 5.1 日本語ベンチマーク:JGLUE 5.2 感情分析モデルの実装 5.3 感情分析モデルのエラー分析 5.4 自然言語推論・意味的類似度計算・多肢選択式質問応答モデルの実装 5.5 メモリ効率の良いファインチューニング 5.6 日本語大規模言語モデルの比較 第6章 固有表現認識 6.1 固有表現認識とは 6.2 データセット・前処理・評価指標 6.3 固有表現認識モデルの実装 6.4 アノテーションツールを用いたデータセット構築 第7章 要約生成 7.1 要約生成とは 7.2 データセット 7.3 評価指標 7.4 見出し生成モデルの実装 第8章 文埋め込み 8.1 文埋め込みとは. 8.2 文埋め込みモデルSimCSE 8.3 文埋め込みモデルの実装 8.4 最近傍探索ライブラリFaissを使った検索 第9章 質問応答 9.1 質問応答システムのしくみ 9.2 データセットと評価指標 9.3 ChatGPTにクイズを答えさせる 9.4 文書検索モデルの実装 9.5 文書検索モデルとChatGPTを組み合わせる 参考文献 ■著者プロフィール 山田 育矢(やまだ いくや):株式会社Studio Ousia代表取締役チーフサイエンティスト・理化学研究所革新知能統合研究センター客員研究員。2007年にStudio Ousiaを創業し、自然言語処理の技術開発に従事。大規模言語モデルLUKEの開発者。 鈴木 正敏(すずき まさとし):株式会社Studio Ousiaソフトウェアエンジニア・東北大学データ駆動科学・AI教育研究センター学術研究員。日本語質問応答のコンペティション「AI王」の実行委員。東北大学が公開している日本語BERTの開発者。 山田 康輔(やまだ こうすけ):株式会社Studio Ousiaリサーチエンジニア・名古屋大学大学院情報学研究科博士後期課程3年。2022年4月より日本学術振興会特別研究員 (DC2)。自然言語処理、特にフレーム意味論に関する研究に従事。 李 凌寒(り りょうかん):LINE株式会社自然言語処理エンジニア。大規模言語モデルmLUKEの開発者。
-
-
-
-※この商品はタブレットなど大きいディスプレイを備えた端末で読むことに適しています。また、文字だけを拡大することや、文字列のハイライト、検索、辞書の参照、引用などの機能が使用できません。 写真や動画を使った保育の記録手法であるドキュメンテーション。本書では、ドキュメンテーション作成のコツと作成時間削減のポイント、活用のコツを紹介する。ドキュメンテーションを媒介として、保育者、子ども、保護者、地域が織りなす園の物語りを探求する。 ※本電子書籍は固定レイアウト型の電子書籍です。 ※本電子書籍は同名出版物(紙版)を底本として作成しました。記載内容は、印刷出版当時のものです。 ※印刷出版再現のため、電子書籍としては不要な情報を含んでいる場合があります。
-
4.0