此次开源的工具为Transformer Debugger ,一个用于分析Transformer内部结构的工具。研究人员不用写代码,就能快速探索LLM的内部构造,从而对小模型的特定行为进行调查。
Transformer Debugger (TDB) 是 OpenAI 对齐团队(Superalignment)开发的一种工具,旨在支持对小体量语言模型的特定行为进行检查。据介绍,该工具把自动可解释性技术与稀疏自动编码器进行了结合。
具体来说,TDB 能够在写代码之前进行快速探索,并能够干预前向传递,帮助人们查看它是如何影响模型特定行为的。TDB 可用于回答诸如“为什么模型在此提示(prompt)中输出 token A 而不是 token B?”之类的问题或“为什么模型的关注点从token H 转向 token T?”
它通过识别对行为有贡献的特定组件(神经元、关注点、自动编码器 latents),显示自动生成的解释来分析导致这些组件最强烈激活的原因,并跟踪组件之间的连接来帮助人们发现关联性,以此来帮助人们进行 Transformer 的 debug 工作。
OpenAI 放出了几段视频概述了 TDB 的能力,并展示了如何使用它来进行论文《Interpretability in the Wild: a Circuit for Indirect Object Identification in GPT-2 small》中的工作:
本次,OpenAI 的开源内容包括: