Skip to content

2010年至今的机器学习发展历史

ai

2022: Transformer架构和预训练模型的持续发展

Transformer架构和预训练模型在NLP领域继续占据主导地位。不断有新的模型和方法被提出,关注点包括模型的可解释性、效率、多模态学习等方面。

2021: GPT-3的发布

OpenAI发布了GPT-3,这是一个巨大的预训练模型,拥有1750亿个参数,表现出惊人的语言理解和生成能力。

2020: T5模型的提出

Google提出了Text-to-Text Transfer Transformer(T5)模型,该模型通过将所有NLP任务形式化为文本到文本的问题来实现多任务学习。

2019: GPT-2的亮相

OpenAI发布了GPT-2,这是一个基于Transformer的预训练生成模型,展示了在大规模语言模型中生成文本的潜力。

2018: BERT的发布

Google发布了Bidirectional Encoder Representations from Transformers(BERT)模型,通过预训练模型在多个NLP任务上取得了卓越的性能。

2017: Transformer模型

Vaswani等人在论文《Attention is All You Need》中首次提出了Transformer模型,引入了自注意力机制。这个模型极大地改变了NLP领域的格局。

2016: PyTorch发布

Facebook发布了PyTorch,这是一个基于Python的深度学习框架。与TensorFlow等框架相比,PyTorch采用动态计算图的方式,使得模型的定义和调试更加直观。

2015: LSTM在NLP中的成功

长短时记忆网络(LSTM)等递归神经网络(RNN)变体在NLP任务中取得成功,改善了序列数据的建模能力。

2014: Seq2Seq模型的提出

Google的研究人员引入了序列到序列(Seq2Seq)模型,该模型使用编码器和解码器架构进行机器翻译等任务。

2013: Word2Vec的引入

Google Brain团队发布了Word2Vec,这是一种用于将词汇嵌入到向量空间中的技术。这对NLP任务的表现产生了重大影响。

2012: 图像视觉的发展

AlexNet在ImageNet图像分类比赛中取得胜利,标志着深度学习在计算机视觉中的崛起。

2011: NLP自然语言发展

IBM的Watson在Jeopardy!游戏中战胜人类选手,展示了自然语言处理和知识推理的能力。

2010: 深度学习和神经网络的发展

深度学习引起关注,Hinton等人提出使用深度神经网络进行图像分类的方法。

上次更新于: