李宏毅2020机器学习深度学习(完整版)国语课程PPT
正在李宏毅的2020呆板进修笔记中,有一个对于留心力机制(Attention)的局部。那局部内容次要引见了生成模型(Generation)、留心力(Attention)、生成的能力(Tips for Generation)以及指针网络(Pointer Network)。正在生成模型中,次要讲演了如何生成一个有构造的对象。接下来引见了留心力机制,蕴含一些风趣的技术,比如图片生成句子等。正在生成的能力局部,提到了一些新的技术以及可能逢到的问题和偏向,并给出了相应的处置惩罚惩罚方案。最后,略微提到了强化进修。此中还提到了正在输出"machine"那个单词时,只须要关注"呆板"那个局部,而没必要思考输入中的"进修"那个局部。那样可以获得更好的结果。此外,还提到了对于孕育发作"ei"的办法,此中有钻研使用了间断动态模型自留心力(Self-attention)来进修位置编码的办法。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* [2020李宏毅呆板进修笔记-Condition Generation by RNN&Attention](hts://blog.csdn.net/zn961018/article/details/117593813)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","eVtra":{"utm_source":"ZZZip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^ZZZ92^chatsearchT3_1"}}] [.reference_item style="maV-width: 50%"] - *3* [李宏毅呆板进修进修笔记:Self-attention](hts://blog.csdn.net/weiVin_44455827/article/details/128094176)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","eVtra":{"utm_source":"ZZZip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^ZZZ92^chatsearchT3_1"}}] [.reference_item style="maV-width: 50%"] [ .reference_list ]