事前学習言語モデル
BERT・ELECTRA・DeBERTaV2の金融ドメイン・汎用ドメインの事前学習モデルがHugging FaceのTransformersライブラリにて利用可能です。
https://huggingface.co/izumi-lab
現在以下のモデルが利用可能です。
事前学習プログラムは github.com/retarfi/language-pretraining より利用可能です。
本事前学習モデルを利用して論文を執筆する場合は、以下の論文を引用してください。
Masahiro Suzuki, Hiroki Sakaji, Masanori Hirano, Kiyoshi Izumi. "Constructing and analyzing domain-specific language model for financial text mining, " Information Processing & Management, Volume 60, Issue 2, 2023.