AI专家精选论文推荐
Attention Is All You Need
会议:NeurIPS 2017
推荐专家:李飞飞(斯坦福大学AI实验室主任)
该论文提出了Transformer模型架构,完全基于注意力机制,摒弃了传统的循环和卷积结构,在机器翻译任务上取得了显著效果,为后续BERT、GPT等预训练模型奠定了基础。
BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
会议:NAACL-HLT 2019
推荐专家:吴恩达(Landing AI创始人,前百度首席科学家)
BERT通过双向Transformer编码器和掩码语言建模任务进行预训练,在11项自然语言理解任务上取得了最先进的结果,极大地推动了NLP领域的发展。
Deep Residual Learning for Image Recognition
会议:CVPR 2016
推荐专家:Yann LeCun(图灵奖得主,Facebook首席AI科学家)
该论文提出了残差网络(ResNet),通过跳跃连接解决了深度神经网络中的梯度消失和退化问题,使得训练成百上千层的深度神经网络成为可能,在ImageNet图像识别比赛中获得冠军。
Generative Adversarial Nets
会议:NeurIPS 2014
推荐专家:Andrew Ng(Coursera联合创始人,斯坦福教授)
该论文提出了生成对抗网络(GAN),通过生成器和判别器的对抗训练,能够生成高质量的数据样本,开创了生成模型的新方向,在图像生成、数据增强等领域有广泛应用。