您当前的位置: 首页 >  段智华 架构

Transformer课程 第39章Transformer模型RAG的架构

段智华 发布时间:2021-11-27 09:55:07 ,浏览量:2

第39章:面向Knowledge-intensive任务的Transformer模型RAG的架构内幕及完整源码实现
1,为何Transformer网络能够存储factual knowledge信息?
2,pretrained dense retrieval数学原理分析
3,sequence-to-sequence model数学原理分析
4,jointly fine-tuning数学原理分析
5,parametric memory原理分析
6,non-parametric memory原理分析
7,non-parametric memory on dense vector原理分析
8,使用pre-trained neural retriever背后的贝叶斯数学原理剖析
9,prepare_seq2seq_batch源码完整实现分析
10,RagTokenizer源码完整实现分析
11,RetrievAugLMMarginOutput源码完整实现分析
12,RetrievAugLMOutput源码完整实现分析
13,from_pretrained_question_encoder_generator源码完整实现分析
14,RagPreTrainedModel源码完整实现分析
15,RagModel源码完整实现分析
16,generate源码完整实现分析
17,get_nll源码完整实现分析
18,cat_and_pad源码完整实现分析
19,RagSequenceForGeneration源码完整实现分析
20,prepare_inputs_for_generation源码完整实现分析
21,reo

关注
打赏
查看更多评论

段智华

暂无认证

  • 2浏览

    0关注

    1232博文

    0收益

  • 0浏览

    0点赞

    0打赏

    0留言

私信
关注
热门博文
立即登录/注册

微信扫码登录