2010年至今的机器学习发展历史
Transformer架构和预训练模型在NLP领域继续占据主导地位。不断有新的模型和方法被提出,关注点包括模型的可解释性、效率、多模态学习等方面。
OpenAI发布了GPT-3,这是一个巨大的预训练模型,拥有1750亿个参数,表现出惊人的语言理解和生成能力。
Google提出了Text-to-Text Transfer Transformer(T5)模型,该模型通过将所有NLP任务形式化为文本到文本的问题来实现多任务学习。
OpenAI发布了GPT-2,这是一个基于Transformer的预训练生成模型,展示了在大规模语言模型中生成文本的潜力。
Google发布了Bidirectional Encoder Representations from Transformers(BERT)模型,通过预训练模型在多个NLP任务上取得了卓越的性能。
Vaswani等人在论文《Attention is All You Need》中首次提出了Transformer模型,引入了自注意力机制。这个模型极大地改变了NLP领域的格局。
Facebook发布了PyTorch,这是一个基于Python的深度学习框架。与TensorFlow等框架相比,PyTorch采用动态计算图的方式,使得模型的定义和调试更加直观。
长短时记忆网络(LSTM)等递归神经网络(RNN)变体在NLP任务中取得成功,改善了序列数据的建模能力。
Google的研究人员引入了序列到序列(Seq2Seq)模型,该模型使用编码器和解码器架构进行机器翻译等任务。
Google Brain团队发布了Word2Vec,这是一种用于将词汇嵌入到向量空间中的技术。这对NLP任务的表现产生了重大影响。
AlexNet在ImageNet图像分类比赛中取得胜利,标志着深度学习在计算机视觉中的崛起。
IBM的Watson在Jeopardy!游戏中战胜人类选手,展示了自然语言处理和知识推理的能力。
深度学习引起关注,Hinton等人提出使用深度神经网络进行图像分类的方法。