- Transformer架构自2017年提出以来,通过注意力机制显著提升了信息处理效率,成为AI大模型的主流架构。
- 尽管具有诸多优势,Transformer仍面临计算复杂度和成本高的局限性,未来可能被新架构替代或通过优化升级。
- 短期内建议关注基础设施领域的相关公司,同时注意技术迭代和商业化落地的风险。
核心要点2报告主要围绕Transformer架构的过去、现在和未来进行分析。
Transformer架构基于注意力机制,由Google Brain团队在2017年提出,显著提升了训练速度和长距离依赖建模能力,成为众多领域的基础框架。
当前,人工智能大模型的进化依赖于人工更新,研究者正探索自我进化的模型,以提高学习效率和智能水平。
尽管Transformer架构在AI领域占据主导,但仍面临计算复杂度和成本高等局限性。
未来的发展路径包括被更优秀的新架构替代或在现有基础上优化。
研究者正在积极探索潜在的替代架构,如RetNet、Mamba、RWKV等,以实现更高性能和更低资源消耗。
投资建议方面,短期内建议关注基础设施领域的公司,如英伟达、海光信息等,同时关注全球模型厂商和学术界的创新进展。
风险提示包括技术迭代、商业化落地、政策支持和宏观经济等方面的不确定性。
投资标的及推荐理由投资标的包括:英伟达、海光信息、寒武纪、协创数据、英维克、中科曙光、浪潮信息、润泽科技、欧陆通、曙光数创等。
推荐理由为:短期来看,Transformer架构仍然是大模型的主流,这些公司在基础设施领域具有重要地位,能够受益于Transformer及其相关技术的持续发展。
同时,建议持续关注全球各大模型厂商和学术界的创新进展,以把握行业动态和投资机会。