Conversation
jindrahelcl
left a comment
There was a problem hiding this comment.
Jak se k tomu má encoders/attentive.py ? Jedno z toho bych přejmenoval (spíš ten enkodér) a taky bych tomu enkodéru oddědil věci, který jsou tady vyčleněný, pokud to dává smysl.
|
A rekuretní dekodér není attentive? |
|
Rekurentni je attentive, ale ten tedka predelavam v dalsim PR, tak aby pouzival stejnou implementaci enkoder attentionu jako transformer. |
Vubec nesouvisi. Ono je to tezky: Ondrovo Tezky je na tom to, ze bychom museli zmenit jeho terminy, aby to nevnaselo zmatek, ale pak by to tolik nesedelo na terminy v tom jeho clanku. Nechal bych to jako TODO pro refactor attentionu / attention objektu. |
|
IMHO stačí přejmenovat ten Ondrovo soubor nebo třídu. Něco jako self-attentive temporal encoder nebo tak něco. |
|
Jo, neco vymyslim. Edit: Prejmenovano na Structured |
806f6a2 to
d67d5c1
Compare
dee6855 to
60164f9
Compare
jindrahelcl
left a comment
There was a problem hiding this comment.
Napřed prosim vyřešit vztah k #786 plus poznámky, který jsem dal k tomu, rebasnout a pak na to mrknu ještě jednou
|
Nejvdřív je potřeba pořešit #796, na kterým je tohleto naroubovaný. |
3495b1d to
cd1e15a
Compare
3e5ab5a to
89eb9c2
Compare
6ed29a5 to
c446c9c
Compare
Autoregressive decoders refactor
Unify RNN encoders
|
ping |
8c1c458 to
3fbbcf7
Compare
neuralmonkey/dataset.py
Outdated
| # pylint: enable=too-few-public-methods | ||
|
|
||
|
|
||
| def _bucket_boundaries(max_length, min_length=8, length_bucket_step=1.1): |
| @@ -0,0 +1,167 @@ | |||
| """TODO.""" | |||
| the attention. | ||
|
|
||
| TODO: | ||
| Generalize the attention. |
| queries, enc_states, enc_masks, self.n_heads_enc, | ||
| self.n_heads_hier, attn_dropout_cbs, dropout_cb) | ||
|
|
||
| # TODO: remove this - this is already checked in the constructor |
There was a problem hiding this comment.
odstranit? nebo smazat todo?
| """ | ||
| check_argument_types() | ||
| BaseRunner[BeamSearchDecoder].__init__(self, output_series, decoder) | ||
| super().__init__(output_series, decoder) |
There was a problem hiding this comment.
tyhle změny už jsem dělal a jsou zamergovaný, proč to tu je? je to narebasovaný správně?
| rouge==0.2.1 | ||
| typeguard | ||
| sacrebleu | ||
| sacrebleu==1.3.1 |
There was a problem hiding this comment.
to tu nemá bejt. nová verze sacrebleu už je kompatibilní - byl to jejich bug
| rouge==0.2.1 | ||
| typeguard | ||
| sacrebleu | ||
| sacrebleu==1.3.1 |
| @@ -1 +1 @@ | |||
| mypy | |||
| mypy==0.660 | |||
3fbbcf7 to
209b68b
Compare
Fixed Dataset.subset when buffer_size is None
…encoder attention
209b68b to
38c0bf8
Compare
|
Rebase opraven. |
|
ten pull request je nastavenej na mergování do branche |
Moved attention-related attributes/methods to a separate class Attentive. Every decoder that requires computing attention against the encoders should inherit this class.