学術研究
解釈可能なグラフ知識追跡を用いたLLMベースの英語学習支援フレームワーク
グラフアテンションネットワーク(GAT)による知識状態の高精度な診断と、大規模言語モデル(LLM)の推論を融合。「なぜ間違えたのか」を可視化する、説明可能(Explainable)なパーソナライズ教育AIアーキテクチャの研究開発。
LLMGKT (Graph Knowledge Tracing)GATEdTechPythonPyTorch
*Status: 現在研究中(Work in Progress)
📌 研究概要
従来の教育AIが抱える「なぜその問題を間違えたのか(根拠)」がブラックボックス化してしまう課題に対し、説明可能(Explainable)なAI学習アーキテクチャの研究・開発を行っています。
グラフアテンションネットワーク(GAT)と大規模言語モデル(LLM)を組み合わせることで、単なる正答率の予測ではなく、学習者の知識状態(Knowledge State)を高解像度で可視化・診断します。
🛠 技術的なハイライト
- グラフ型知識追跡(GKT)の応用: 英語の文法や語彙などの知識要素間の依存関係をグラフ構造でモデル化。GATとLSTMを用いて、表層的な間違いの裏に潜む「真の弱点(ボトルネック)」を特定します。
- LLMによる動的推論とフィードバック: GKTによる診断結果をLLMと連携。推論フェーズにおいて「ユーザーのリアルタイムな学習状態」に応じた動的なアテンション(重み付け)を行い、個々に最適化された学習アドバイスと次の学習経路を自動生成します。
- 「ホワイトボックス化」の実現: AIの判断根拠を可視化し、説明可能な学習プロファイルとして構築。これにより、学習者本人だけでなく、教育現場の教師がフィードバックを改善するための戦略検証ツールとしても機能します。
💡 社会実装におけるコアバリュー(Explainabilityの重要性)
本研究の最大の価値は、精度の追求だけでなく「実業務で使える可説明性(Explainability)」を担保している点にあります。いかに高度なAIでも、判断根拠がブラックボックスのままでは実際の現場(教育現場やビジネスの意思決定)には組み込めません。
「なぜその診断に至ったのか」というプロセスを可視化する本アーキテクチャは、人間の専門家(教師やオペレーター)がAIの出力を信頼し、納得感をもって的確なアクションを起こすための重要な架け橋となります。新しいテキストをここに入力します。
新しいテキストをここに入力します。
展示ブロック
診断から生成への統合アプローチ