LLM は 大量のデータを使って学習した大規模な自然言語処理モデル で、多くが Transformer ベース 。

自己回帰的なモデルゆえに、一度間違えると、そのコンテキストを引きずる性質がある。

LLM は特に以下の特徴を持ちます:

代表的な LLM


[LangChain]

LangChainは「ChatGPTの単純なラッパーではなく、AIをより実用的にするための開発フレームワーク」である。

もし 「単純な会話」だけならChatGPTで十分 であるが、

社内データを活用したQAシステム

自動タスク処理(エージェント機能)

外部APIとの統合

などを考えるなら、LangChainを活用する意味がある。


[RAG]

RAG(Retrieval-Augmented Generation:検索拡張生成)とは、ChatGPTやGeminiに代表されるチャットAIに独自の情報源を付与する仕組みのことで、具体的には言語モデルによるテキスト生成に特定の知識や情報源(例えばナレッジベースなど)への検索を組み合わせることである。


[Transformer] 

Transformer は 2017 年に Google の論文 "Attention Is All You Need" で発表されたニューラルネットワークのアーキテクチャで、主に自然言語処理(NLP)に使われている。


特徴


代表的な Transformer モデル


BERTはTransformer アーキテクチャのエンコーダ部分のみを使用した双方向モデルで、生成モデルではなく識別モデルである。