YY(易游体育)中国-官方网站

高文院士:前沿人工智能技术与中国算力网计划-YY易游体育
关闭
高文院士:前沿人工智能技术与中国算力网计划
作者:小编 日期:2025-04-21 点击数: 

  

高文院士:前沿人工智能技术与中国算力网计划

  4月10日,国民财富发展研究合作平台(“国研平台”)2025春季峰会在京举办。

  高文回顾了人工智能的发展历史,强调抓住人工智能机遇的重要性不容忽视,人工智能技术的前沿发展和中国算力网计划是当前核心议题。当前,人工智能进入大数据驱动的深度神经网络阶段,生成式人工智能快速迭代,

  与技术界加强合作,共同推动人工智能发展。中国实施“东数西算”战略,推进中国算力网建设,目标是优化算力资源配置,实现高效利用,面临核心算力供给、低延迟超宽带连接、算力调度及零碳排放算力四大技术挑战,已全面布局技术应对。高文强调,人工智能开启新时代,金融支持将助力创业者突破创新瓶颈,增强中国在全球竞争中的实力。

  如今,人工智能领域几乎每天都有新进展。通常,我们将1956年视为人工智能的元年。那么,如何判断一个系统是否具备智能?这一问题需追溯至1950年,由杰出的数学家艾伦·图灵提出。他提出了图灵机模型——现代计算机的基础,因而被誉为“电子计算机之父”——其理论至今仍是所有底层应用的核心。

  计算机的核心部件包括中央处理器(CPU)、存储单元及其他设备。这些计算与存储部件构成的体系,正是图灵机模型的核心。该模型表明,由0和1构成的机器能够执行计算并达到可控状态,清晰描述了现代计算机的理论基础。

  图灵的另一项同等重要的贡献是“图灵测试”。在确立计算机设计原理后,他思考计算机应具备何种功能,最终提出智能化的目标。1950年,他设想了一个测试场景:一位人类考官面对两个房间,一间内是人,另一间内是计算机。考官可提出任何问题,涵盖天文、地理、生活、数学或科学等多个领域。若考官在穷尽所有问题后,仍无法分辨哪个房间内是人,哪个房间内是机器,则该机器通过测试,证明其具备与人类相当的智能。这一测试被命名为“图灵测试”。然而,至今尚无机器能通过原版的图灵测试。虽有人声称某些系统通过了测试,但均是在特定限制条件下实现的,而非图灵设想的全面评估。

  第一阶段历经20年(1956—1976年),基于符号逻辑的推理证明阶段,对数学领域影响尤深。这一时期,人工智能聚焦于数学定理的机器证明,并基本解决了该问题。当时,研究者怀揣宏大目标,希望人工智能能取代人类,承担所有不愿或无法胜任的工作。然而,20年后,除数学定理的证明外,其他领域鲜有突破,初始的热情逐渐消退。

  第二阶段跨越30年(1976—2006年),以人工规则为基础的专家系统为主导。这一阶段,学者们吸取了第一阶段的教训,认识到若仅追求理论研究,资源难以为继,因此转而探索实用性技术。他们提出,若能将人类专家的知识通过计算机重现,便可打造“专家系统”。在1976至2006年间,周围不乏从事专家系统研究的学者。我在哈尔滨工业大学攻读计算机专业时,不仅计算机领域,连无线电、电气工程,甚至铸造、焊接等学科的研究生都在研究专家系统。这一时期,专家系统盛行,旨在将专业知识转化为程序,使计算机能力接近人类水平。最终,这些系统在农业领域应用较多,如指导播种与施肥。然而,至2006年,专家系统的影响逐渐式微。虽仍有部分应用,但其不再是研究热点,因其依赖人工逐条设计的规则。

  自2006年起,我们进入第三阶段,即大数据驱动的深度神经网络阶段。与基于符号逻辑的第一阶段和人工规则的第二阶段不同,这一阶段以数据为核心。数据、算法与算力三者结合,奠定了当今深度神经网络的基础。

  这一阶段的智能有别于前两者。前两阶段的智能由人工编程或规则设计而成,而第三阶段的智能通过数据训练生成,是一种“习得智能”。所有规律蕴含于数据之中,通过训练提炼出这些规律,便形成了深度神经网络。

  2006年被视为本轮人工智能的起点,这是有据可依的。当年,四篇关键论文的发表奠定了深度神经网络的基础。神经网络并非新概念,其历史早于图灵测试,但此前被认为仅适用于小规模任务,因训练深层网络耗时过长。然而,2006年的论文证明,通过算法优化可实现深层网络,并借助卷积网络等技术提升计算效率与速度。这些论文成为深度神经网络的奠基之作。

  这三位核心人物被誉为“深度神经网络三剑客”。首先是杰弗里·辛顿(Geoffrey Hinton),他年资最深,去年荣获诺贝尔物理学奖。他毕生致力于探索大脑工作机制,从电子学角度研究神经如何思考与记忆。其次是杨立昆(Yann LeCun),法国人,现任职于纽约大学,以卷积神经网络闻名。最后是约书亚·本吉奥(Yoshua Bengio),加拿大学者,与辛顿合作颇多。这三人中,两人在加拿大,一人在美国,2018年共同获得图灵奖——计算机领域的最高荣誉。辛顿于2024年再获诺贝尔奖,因此有人称2024年为“人工智能的诺贝尔年”。

  深度神经网络的基础模型可以比作章YY易游体育官方网站鱼神经元,通过数学化与数字化实现计算化。章鱼神经系统与人类有诸多相似之处,故以此为模型颇具合理性。早在1940年,研究者便着手解析其电子与数学特性。一个神经元包含树突(输入)、细胞核(处理)和轴突(输出),通过电化学作用将输入信号转化为输出。其数学模型为:多个输入乘以权重后求和,经激活函数输出。这一模型简单却奠定了基础。

  神经系统需多层神经元协同工作。以人类视觉为例,光信号经7至8层处理逐步抽象,最终传递至大脑的仅为高度压缩的信息。深度神经网络正是模拟这一过程,通过多层拟合实现数据抽象。

  深度神经网络的发展有三个里程碑。第一,1956年,MIT教授提出感知器模型。第二,1986年,辛顿及其学生发明误差逆传播算法(BP算法),证明深层网络可通过参数调整实现收敛。第三,2006年,深层网络得以实现。这三个里程碑推动了技术进步。

  自2006年至今近20年,人工智能经历了两次浪潮,或正迈向第三次。通常一个阶段持续20至30年,当前阶段是否接近尾声,以及未来趋势如何,备受关注。

  第一次浪潮为判别式人工智能。2006年,辛顿等人验证了其在语音识别中的潜力,但图像领域的突破迟至2010年ImageNet比赛。该比赛由斯坦福大学李飞飞教授发起,收集千万张标注图像,推动算法竞赛。2012年,辛顿学生Alex以8层神经网络夺冠,被称为计算机视觉的“第一滴血”。此后,深度神经网络成为主流。2015年,微软亚洲研究院的ResNet(152层)大幅提升性能,其残差结构现已成为标配,是中国团队的杰出贡献。

  判别式人工智能的核心是分类器设计,应用于语音、图像、视频和文字识别等领域,其成功依赖优质训练数据与高效训练。

  我们正处于人工智能发展的第二次浪潮,即生成式人工智能的兴起。生成式人工智能与判别式人工智能在基本原理上存在显著差异。判别式人工智能本质上是一个分类器,其主要功能是识别和区分数据的类别;而生成式人工智能则是一个预测器,致力于预测后续的事件或数据点。其工作原理是通过对历史数据的训练,生成高精度的预测结果。这一过程依赖于数据的积累与分析,而非主观臆断,从而实现了较高的预测准确性。这正是生成式人工智能的核心特征。

  生成式人工智能的起源可以追溯至2014年,当时其研究重点集中在图像生成领域。图像生成对抗网络(GAN)的出现标志着这一阶段的开端,因其创新性而迅速受到关注,并在随后的几年中持续发展,至今仍被广泛应用。到了2017年,生成式人工智能的研究方向转向自然语言处理领域。谷歌发布的BERT模型奠定了这一领域的基础,尽管其推出初期并未引发广泛反响。随后,OpenAI开发的GPT模型基于Transformer架构逐步崭露头角。然而,GPT系列直到2022年ChatGPT的发布才真正引发全球关注。在此之前,其影响力相对有限。值得注意的是,生成式人工智能的底层技术——Transformer架构——多年来保持稳定,未发生显著变化。

  当前,大模型的讨论聚焦于顶层架构的设计,而Transformer作为核心技术基础,类似于构建房屋的“砖块”。如何利用这一基础构建具体应用,则因研究者与开发者的目标不同而呈现多样化的技术路线。生成式人工智能的技术路径并非单一,而是形成了多个分支。其中,GPT所采用的路线因其广泛应用而成为目前的主流方向。

  生成式人工智能正处于快速迭代阶段,特别是在顶层架构的组织方式上,创新层出不穷。自今年春节以来,该领域的进展几乎每日可见。例如,DeepSeek率先推出了一项重要成果,随后特斯拉、OpenAI和谷歌等公司相继发布更新版本的模型,并声称在某些方面超越了DeepSeek。这一竞争仍在持续,反映出生成式人工智能领域的活跃与激烈。

  近期,Meta发布了LLaMA模型的最新版本LLaMA 4.0。尽管该模型发布仅一两天,便有传言称其数据存在造假嫌疑。此外,特斯拉也推出了其人工智能产品。这些项目均依赖大规模计算资源,例如数十万张显卡进行后台训练,凸显了该领域对算力的极高需求以及技术发展的活跃态势。

  DeepSeek的迅速崛起出乎许多人意料,成为近期讨论的焦点。我认为,技术领域的突破往往难以准确预测,但持续的投入与尝试至关重要。只有播下创新的种子,才能在机遇来临时有所收获。DeepSeek的成功不仅验证了这一策略的有效性,更深刻改变了生成式人工智能的生态格局,影响了从算力供应到算法设计再到应用开发的各个环节。

  DeepSeek的成功源于两个关键决策。首先,它选择了开源模式。此前,许多大型企业认为闭源是确保投资回报的正途,开源被视为难以直接获利的路径,其收益模式较为间接。然而,DeepSeek通过开源打破了这一传统观念,吸引了广泛的关注与参与,迫使其他闭源厂商转向开源。如今,大多数行业头部企业已采纳开源技术路线。DeepSeek的这一举措不仅颠覆了既有规则,也为行业发展注入了新的活力。

  其次,DeepSeek采用了混合专家系统(MoE)的技术路线。尽管其底层仍基于Transformer架构,但MoE的引入带来了显著变革。MoE并非全新概念,国内早期团队也曾尝试,但因性能表现平平而未获重视。MoE的优势在于能够在资源有限的情况下实现大规模模型的训练。例如,当其他团队开发百亿参数模型时,DeepSeek已构建出千亿甚至万亿参数的模型。然而,早期MoE模型性能有限,难以与完整大模型抗衡。DeepSeek的突破在于通过创新的多头注意力机制,将MoE性能提升至极致。这一提升并非单纯依赖算力或人力,而是通过技术创新实现的,体现了团队的智慧与创造力。

  DeepSeek的成功还引发了一个问题:为何由一位量化交易背景的人士领导的团队能够取得突破,而纯技术领域的团队却未能做到?我认为,金融支持是其成功的重要保障,DeepSeek背后强大的资金后盾为其研发提供了坚实基础。我希望借此机会呼吁金融界与技术界加强合作,共同推动人工智能的发展。

  尽管DeepSeek成立仅不到两年,其快速发展得益于多次技术迭代和坚实的金融支持。更为重要的是,其核心团队展现了高度的稳定性。与许多公司因高薪或其他机会导致人才流失不同,DeepSeek的核心成员始终专注于公司目标。这种稳定性源于强大的资金保障,使团队成员能够安心投入研发,最终促成了项目的成功。

  MoE结构是DeepSeek技术的核心。其设计将单一的大模型分解为多个领域子模型,最多可达256个,每个子模型针对特定领域数据进行训练。早期MoE模型虽能在特定领域表现优异,但整体性能提升有限,尤其在面对跨领域综合测试(如图灵测试)时表现不佳。DeepSeek通过多头注意力机制整合多个子模型,形成协调统一的系统。这一设计实现了细粒度专门分割、共享专门隔离及均衡策略,确保了模型在多样化任务中的出色表现。MoE结构中的核心算法是多头潜在注意力机制。

  DeepSeek的训练与推理算法同样值得关注。尤其是在推理阶段,其采用了高效的后训练算法。相比传统预训练模型需投入大量资金和人力,DeepSeek的后训练算法显著降低了人工反馈成本。其巧妙之处在于利用已有系统的输出数据进行训练,通过数据蒸馏优化模型性能。尽管这一做法曾引发争议,但其技术创新性不容忽视。

  生成式人工智能领域的发展显示,中国研究者在这一轮竞争中再次展现了实力。DeepSeek是否会成为主导者尚无定论,但MoE技术路线已获得广泛认可。类似微软ResNet的公开成果推动了技术进步,DeepSeek也将MoE推向新高度。我认为,MoE已基本主导了生成式人工智能的技术方向。尽管仍有团队探索其他路径,但多数创新最终回归MoE框架。这一趋势表明,MoE技术路线在生成式人工智能领域已占据主流地位,展现出强大的适应性与影响力。

  近期,李飞飞团队发布的《2025人工智能指数报告》指出,中国与美国在模型开发上的差距正逐步缩小。过去,中国在应用、数据和人才方面占优,而模型创新较弱。如今,得益于DeepSeek等项目的贡献,中国模型实力显著增强。DeepSeek采用MoE技术路线,使训练和推理成本降低了十分之一至百分之一。这一突破大幅降低了初创企业的算力投入门槛,推动了人工智能应用的普及。当前竞争仍在继续,最终赢家尚未明朗,但底层技术核心——预测机制——将保持稳定。大语言模型、图像及视频生成均基于这一本质。

  业界普遍认为,代理式人工智能(或助理式人工智能)将是下一波浪潮。今天早晨,谷歌推出A2A协议,联合50余家企业布局这一领域。同时,武汉的Manus团队也在AgentAI方面取得进展。此外,物理AI的研究将使生成内容更具真实感,成为未来重点。

  中国正在实施“东数西算”国家战略,旨在通过优化算力节点和数据枢纽的配置,实现资源的合理分配与高效利用。中国算力网的目标是将西部地区的算力资源通过网络高效输送至东部地区,使其使用如同电力一般便捷。这一项目计划周期为五年,总投资达50亿元,已于2023年正式启动。我们与国家数据局和国家发改委密切合作,目前已将50至60亿的算力整合至集中系统,并实现了实时监控与可视化管理。

  在推进中国算力网建设的过程中,我们面临以下四大技术挑战:核心算力供给、低延迟超宽带连接、算力调度以及零碳排放算力。

  为应对这些挑战,我们进行了全面的技术布局与深入研究。针对核心算力供给的挑战,我们正在建设一个算力达到16000 PFLOPS的自主芯片算力系统。该系统完全采用华为最新款芯片,计划于今年年底上线使用。在此之前,我们曾于2020年利用华为第一代芯片910A,成功研发出一台配备4000块卡的智能计算机。这台设备在当时是全球规模最大的智能计算机,其存储访问性能指标连续9次在全球排名第一,体现了显著的技术优势。

  云脑III是云脑II的延续,采用了最新的芯片、系统结构和存储架构,能够支持大模型训练等多种应用。目前,云脑III的原型机已研制完成,我们拥有配备300多块卡的3台机器。每个机柜的算力约为100 PFLOPS,10个机柜即可达到1000 PFLOPS。因此,16000 PFLOPS的算力大约需要150多个机柜,集成度极高。该系统基于华为生态构建,已生成多项应用成果。

  针对低延迟超宽带连接的挑战,我们正在研发超宽带直连技术。目前,大部分网络带宽为400Gbps,且数据传输需经过多重路由。我们通过多芯光纤技术,将带宽提升至100Tbps,相当于原有带宽的250倍。同时,因采用光直连方式,数据传输过程中几乎无光电转换延迟,传输速度接近光在光纤中的传播速度。基于此技术,我们计划逐步建立三个国家级数据大通道:南部、中部和北部,每个通道均通过100Tbps的直连光网络实现互联。目前,相关技术储备和实验已全部完成,今年将从深圳至贵州建设第一条直连光网络。

  针对算力调度的挑战,我们致力于实现对异构算力的优化调度。这包括英伟达、昇腾以及其他国内芯片厂商的算力资源,旨在使这些算力能够跨地域协同工作,共同完成单一或多个计算任务。目前,相关工作正在有序推进,涉及封装技术、调度系统等具体内容。

  在项目实施中,我们始终坚持从逻辑设计向实际应用的转变,确保每一项技术都能落地并发挥作用。以云脑II为例,其运行效率极高,资源分配率约为97%,实际使用率超过90%,使用效果显著。许多国内早期的大模型技术均在云脑II上完成训练。目前,云脑II已适配DeepSeek的部分模型,并能够实现协同训练,展现了其强大的技术支持能力。

  最后,我想强调,我们正处于人工智能发展的关键时期。人工智能不仅是一项技术,更是一个新时代的开端。我们必须积极拥抱这一时代,调整自身的认知高度,以适应未来的发展需求。特别是在金融领域,我呼吁各位同仁为人工智能创业者提供更多支持与资源。正如没有金融支持便不会有DeepSeek等企业的成功一样,宽松的金融扶持将为中国人工智能产业注入更多活力,增强我们在与美国竞争中的底气。

顶部