Skip to content

fix: Remove redundant transpose around PositionalEncoding in Encoder/…#1

Open
MoyoungY wants to merge 1 commit intozxuu:mainfrom
MoyoungY:fix/fix-encoder-ipynb
Open

fix: Remove redundant transpose around PositionalEncoding in Encoder/…#1
MoyoungY wants to merge 1 commit intozxuu:mainfrom
MoyoungY:fix/fix-encoder-ipynb

Conversation

@MoyoungY
Copy link
Copy Markdown

非常感谢项目所提供的代码,对我理解 Transformer 编码器结构有极大帮助。此次修改是在学习过程中发现的一个小问题,也可能是我对模型结构理解不够深入,如果此处的双重转置有其特定意图,欢迎指正!

问题

在原始实现中,Encoder 中对 PositionalEncoding 的调用如下所示:

enc_outputs = self.pos_emb(enc_outputs.transpose(0, 1)).transpose(0, 1)

该写法默认 PositionalEncoding 接收的是 [seq_len, batch_size, d_model] 格式的数据,因此进行了两次 transpose。但实际代码中实现的 PositionalEncoding 是面向 [batch_size, seq_len, d_model](内部使用了 [seq_len, d_model] 的位置表通过广播机制进行加权。

因此,这两次 transpose 似乎是多余的。


解决方案

将上述代码简化为:

enc_outputs = self.pos_emb(enc_outputs)

移除不必要的转置操作,保持数据结构统一。

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment

Labels

None yet

Projects

None yet

Development

Successfully merging this pull request may close these issues.

1 participant