2025年後半に発表された論文『The New Quant: A Survey of Large Language Models in Financial Prediction and Trading』は、定量投資(クオンツ運用)の世界が、従来の特徴量エンジニアリングを中心としたテキストマイニングから、LLMを中心とした「エンドツーエンドの意思決定システム」へとパラダイムシフトしていることを明確に宣言しています。   

このサーベイが示すタスク中心の分類によれば、LLMはもはや単なるセンチメントアナライザーではありません。   

  • 情報抽出と知識グラフ: 非構造化ドキュメントをエンティティやイベントに変換し、ナレッジグラフのコントローラーとしてデータを自動で構築・クエリします。   
  • 数値的なQAと推論: 財務諸表の表や数式に対する複数ステップの推論を実行し、RAGとツール呼び出しを連携させてKPIを正確に計算します。   
  • 自律的エージェントシステム: リサーチ、評価、注文の実行といった役割を分担する複数のAIエージェントが協調し、投資の信念を機械可読な制約に変換してポートフォリオを構築します。さらには、限界オーダーブックのメッセージフローを生成し、取引シミュレーションまで行います。   

しかし、同研究は、こうしたLLMベースの高度なシステムを本番環境にデプロイする上での重大な課題も詳細に分析しています。   

テンポラルリーケージ(未来情報の漏洩)と評価の現実性

最も深刻な問題の一つがTemporal Leakage或いはLook-ahead biasと呼ばれるものです。LLMは、インターネット上の膨大な過去データを用いて事前学習されています。そのため、例えば2020年のニュース情報だけを与えて「翌週の株価を予測せよ」というタスクを実行させた場合、モデルはその後の実際の株価の動きを事前知識(つまりトレーニングデータの一部)として既に知っている可能性があります。
このバイアスを排除し、経済的に意味のある評価を行うためには、厳格にタイムスタンプが管理されたポイントインタイムのドキュメントを使用し、学習データと評価データを時間軸で完全に分離するローリング評価が不可欠であると指摘されています。   

ハルシネーションと数値的な堅牢性の確保

LLMは流暢な文章を生成する一方で、存在しない事実や誤った数値を捏造するハルシネーションのリスクを抱えています。投資判断においてこれは致命的です。

この問題に対処するための設計パターンとして、予測をタイムスタンプ付きの証拠に結びつけるRetrieval first prompting(検索を優先するプロンプト)や、LLMに直接計算させるのではなく、外部のPython環境や電卓ツールを呼び出して数値を検証させるTool-verified numericsの導入が推奨されています。   

解釈性、ガバナンス、そして監査可能なパイプライン

OECDや欧州証券市場庁(ESMA)などの規制当局は、金融セクターにおけるAIの利用について、透明性、公平性、そして説明責任を強く求めています。
この課題に対する実践的なアプローチとして、Amazon Scienceが2025年に発表したLLM-STARS(LLM-Enhanced Standardization of Time-series Analysis and Relationships in Subledgers)フレームワークが挙げられます。

この研究は、企業の複雑な補助元帳データにおける時系列の異常検知において、LLMを活用して金融イベントの標準的な解釈を生成し、多変量関係をグラフ化するものです。
これにより、異常検知のF1スコアが20.3%向上しただけでなく、金融アプリケーションに求められる厳密な技術水準を維持しながら、自然言語による解釈可能な結果を提供することに成功しています。

このような取り組みは、予測のブラックボックス化を防ぎ、内部監査や規制当局のレビューに耐えうる監査可能なパイプラインを構築するための極めて重要なステップです。   

まとめ

Amazonの研究チームによる『Temporal Data Meets LLM』(2023年)は、「数値の時系列データ」と「テキストのコンテキスト」をLLMのプロンプト内で融合させ、説明可能な金融予測の可能性を示すという、革新的な第一歩でした。Chain-of-Thoughtsによる推論過程の可視化は、金融AIにおけるブラックボックス問題に対する強力なアンチテーゼとなりました。

それからわずか数年の間に、研究は飛躍的な進化を遂げています。

  • Time-LLMやChronosは、時系列データのパッチ分割やビンレベルのトークン化、合成データによる訓練を通じて、モデルアーキテクチャの再プログラミングとゼロショット予測という革新をもたらしました。
  • LLM4FTSは、DTWとウェーブレット変換を用いて、市場のスケール不変パターンや周波数変化といった金融データ特有の動的な性質にモデルを適応させました。
  • VTAは、強化学習を用いて、単なる説明テキストの生成から「予測精度に直接結びつく論理的推論の最適化」へと踏み込みました。
  • FinGPTやAlphaFinは、オープンソース、LoRA、RLHF、RAG技術を駆使して、実用的なロボアドバイザーやハルシネーションを抑えた分析エージェントの開発を加速させています。

「The New Quant」と呼ばれるこの新時代において、金融機関や投資家にとっての競争優位性は、単一の予測モデルの精度を追求することだけでは得られません。多様なデータソースの統合能力、リスクを制御しツールを使いこなすエージェントフレームワークの構築、そして何より、意思決定の根拠をステークホルダーや規制当局に明確に提示できる説明可能性をシステム全体に組み込むことが求められています。

弊社では、こうした最新の大規模言語モデルおよび機械学習のトレンドを継続的に分析し、実際のビジネス要件やコンプライアンス基準に適合した実用的なAIソリューションの探求を進めてまいります。今後の技術の社会実装と、その先にある新たな金融エコシステムの形成に引き続きご注目ください。