Weekly AI 2024-12-17 Transformer
Transformer 基础架构
Inputs 部分详解
Inputs Embedding
Position Embedding
PE(pos,2i) = sin(pos/10000^(2i/d_model)) PE(pos,2i+1) = cos(pos/10000^(2i/d_model))

RNN (循环神经网络, Recurrent Neural Network) 是什么?
RNN 的基本原理
RNN 的工作举例
RNN 的主要问题
生活中的比喻
注意力机制和 RNN 的本质区别
多头注意力机制 (Multi-head Attention)
自注意力 (Self-Attention)
BERT (Bidirectional Encoder Representations from Transformers)
GPT (Generative Pre-trained Transformer)
BERT vs GPT: Transformer的两个分支
BERT 基础回顾
BERT 和 GPT 的关系与区别
BERT 独特优势及与 GPT 的比较
BERT 在代码语义分析场景的优势
ChatGPT vs BERT 的处理流程对比
More About BERT
BERT 在轻量级代码生成中的应用
BERT 在 FIM (Fill In the Middle) 场景的优势
市场现状与解决方案对比
What is input/output embedding
Last updated