大規模言語モデルと生成系AI
エンコーダとデコーダからなるニューラル翻訳への注意機構の追加は、自然言語処理(NLP)の深層学習に大きな進化をもたらした。この注意機構をエンコーダ、デコーダに組み込んだトランンスフォーマーは大規模言語モデル(LLM)の基盤となり、ChatGPTに代表される最新の生成系AIの基盤となり、対話を通して統計的に回答を作成する機能を軸に、翻訳に限らず、マニュアルや提案書の素案作成など、ビジネスの世界における多くの大きな可能性を示して社会にインパクトを与えている。
しかし、論理を確認することなく統計的に回答を作成することから誤りを含み、回答は指示文に依存する。人の使用する言葉が生きる中で身に着いたものであるのに対して、生成される内容は身体を伴った特定の人の思考活動と一線を画す。即ち身体性のないとの記号接地問題を含んでいる。