用Bertviz可视化Attention Weight、Position Embedding
可视化 position ATTENTION embedding weight
2023-09-27 14:20:38 时间
去年Google的BERT在NLP界可谓是掀起了一阵飓风,后续跟进的工作很多,实际中也确实是好用得很。其中github上一个叫Bertviz的项目还挺有意思的,这个项目可以把BERT模型里的self-attention等信息可视化出来,由此窥到一些模型的内在性质。之前看到介绍后简单试过,最近又稍微认真玩了玩。
作者的原文介绍里提到BERT模型里部分attention head的确存在明显的位置或语义特征。本来我想分析下BERT在实际句子里是怎么encode位置信息的,不过搞了一会也没看出个究竟来,毕竟神经网络的可解释性还是难啊……
然后我干脆把输入的3个embedding只留position embedding传进encoder层里,也就是无视了实际句子的具体token只看位置。Bertviz生成的Attention Map结果如下图所示,某种意义上还挺有意思的。
相关文章
- Echarts 可视化之漏斗图、仪表盘
- 【可视化】Vue基础
- 《数据科学与大数据分析——数据的发现 分析 可视化与表示》一2.2 第1阶段:发现
- 《R数据可视化手册》——1.3 加载分隔符式的文本文件
- 《R数据可视化手册》——3.9 添加数据标签
- Python数据可视化 Pyecharts 制作 WordCloud 词云图
- 使用spring boot加bootstrap实现一个可视化的数据库编辑的后台管理系统
- 数据可视化的开源方案: Superset vs Redash vs Metabase (二)
- Vega数据可视化工具——教你轻松玩转大数据可视化 | 附代码
- Vue 之 echarts 图表数据可视化的基础使用(简单绘制各种图表、地图)