Patchscopes for LLM Interpretability
日本語で要約してちょ
Inspecting the information encoded in hidden representations of large language models (LLMs) can explain models' behavior and verify their alignment with human values. Given the capabilities of LLMs in generating human-understandable text, we propose leveraging the model itself to explain its internal representations in natural language. We introduce a framework called Patchscopes and show how it can be used to answer a wide range of research questions about an LLM's computation. We show that prior interpretability methods based on projecting representations into the vocabulary space and intervening on the LLM computation, can be viewed as special instances of this framework. Moreover, several of their shortcomings such as failure in inspecting early layers or lack of expressivity can be mitigated by a Patchscope. Beyond unifying prior inspection techniques, Patchscopes also opens up new possibilities such as using a more capable model to explain the representations of a smaller model, and unlocks new applications such as self-correction in multi-hop reasoning.
大規模言語モデル(LLM)の隠れた表現にエンコードされた情報を調査することは、モデルの行動を説明し、人間の価値観との整合性を検証することができます。LLMが人間が理解できるテキストを生成する能力を考慮すると、モデル自体を使ってその内部表現を自然言語で説明することを提案します。私たちはPatchscopesというフレームワークを紹介し、LLMの計算に関する幅広い研究質問に答える方法を示します。表現を語彙空間に投影し、LLMの計算に介入するという以前の解釈方法は、このフレームワークの特別な例と見なすことができることを示します。さらに、初期層の検査に失敗したり、表現力が不足していたりするなど、これらの短所はPatchscopeによって軽減されます。既存の検査技術を統一するだけでなく、Patchscopesはより能力の高いモデルを使用して小さなモデルの表現を説明するなど、新しい可能性を開き、マルチホップ推論における自己修正などの新しいアプリケーションを実現します。