本ページはプロモーション(PR)が含まれています
更新日: 2024/12/09
【入門・実践】Hugging Face、Transformersライブラリの使い方について
目次
概要・インストール
基本的な使い方
- パイプラインの活用
- モデルの読み込み
- トークナイザの概要
デコード手法
- generate
テキスト分類
名前付きエンティティ認識 (NER)
文章生成
- GPT (Generative Pre-trained Transformer)
文章要約
- BART
- T5
質問応答(QA)
マスク化言語モデル (MLM)
- BERT (Bidirectional Encoder Representations from Transformers)
- bert-base-japanese-v2について
- bert-large-uncasedについて
- bert-base-casedについて
- bert-base-uncasedについて
テキスト生成の言語モデル
datasets
Transformersの高速化・軽量化手法
- 軽量化手法
- 知識蒸留について
- 量子化について