英特尔:为什么开放、开源是解锁AI新机遇的关键?

硬件是与非 2024-09-04 21:16:36

从机器学习到深度学习再到生成式AI,人工智能技术在飞速进化,并且向“AI无处不在”的目标继续进发。 日前,英特尔中国软件技术合作事业部总经理唐炯在一场企业AI开放软件生态媒体会上表示:“企业在部署AI解决方案时面临技术堆栈复杂性和跨硬件平台效率差异的挑战,没有单一厂商能提供全面的AI解决方案,而是需要多方合作。英特尔作为行业先行者,希望推动解决方案的解构,以便实现灵活部署并减少手动编码,同时保护数据。这种解构策略旨在使生态合作伙伴专注于自身优势,通过合作提供定制化、高效的AI解决方案,从而促进AI在企业中的实际应用。”

三大关键,推动AI无处不在如何实现AI的广泛应用?唐炯认为当前需要关注三个核心方面: 首先是加速创新。尽管生成式AI等技术取得了显著进展,但这些创新尚未普及到每个用户或企业。为了开发出真正不可或缺的“AI杀手级应用”,必须加快创新步伐,激励开发者投身于AI领域的开发和创新活动。 其次要使AI价值最大化。AI的互动不仅限于手机和PC等设备,更重要的是要为个人和企业带来实际价值。这意味着需要探索如何最大化AI的价值,包括在云、边缘和端侧的部署,以及如何将最合适的工作负载匹配到最合适的平台上,从而优化成本结构。 第三要实现灵活部署。AI技术覆盖了从算力基础到操作系统、数据库、大数据,再到应用的整个技术堆栈。为了实现不同软件模块在不同设备和不同硬件架构(xPU)上的灵活部署,需要对AI解决方案进行解构,以便减少手动编码需求,并确保数据保护。 为了推动上述层面的发展,英特尔强调一个关键词“开放“,给围绕软件、围绕应用、面向个人和企业的开发者提供一个更加开放的资源平台,如PyTorch、TensorFlow和Python等,以支持开发者进行应用创新。 由于这些AI基础架构变得越来越多样化,也意味着在算力层面需要进行很多兼容性优化。英特尔提供了oneAPI、OpenVINO等开源工具,以提高在异构底层平台上的兼容性和一次性编程的便利性。 面对AI推理当前还存在的一些“幻觉“问题,唐炯认为提高可靠性非常关键,一方面要确保数据的可靠性和隐私性;另一方面要提升推理的准确度。当前,英特尔正在与合作伙伴共同为客户提供更多的POC机会,帮助他们降低成本,并且能够让更多开发者的创新能够在集群化、可靠的测试平台上得到验证和优化。AI开源生态为什么势在必行?唐炯在采访中多次强调,对开放AI生态系统的长期投入、以及对合作伙伴的支持至关重要,只有这样才能为用户提供更好的、更适合的AI解决方案。 为此,英特尔在全球范围内打造AI开源社区 “Open Platform for Enterprise AI”(OPEA),旨在促进更多的厂商共同开发企业级AI应用,共享各方的代码和模块,最终形成开放、透明的平台,让完整的企业级AI落地应用。

回顾IT产业多年的发展,开源开放确实已经被证明是加速技术创新和生态发展的有效手段,那么,英特尔当前高度重视AI开源社区的根本原因是什么? 唐炯认为主要是因为AI时代与云计算时代有着本质的区别:在云计算时代,通过任务调度和资源的多用户共享,实现了规模经济和成本效益,使得服务商能够通过细分CPU使用时间来降低成本并提高利润。然而,AI时代的计算需求改变了这一模式,因为AI算力通常是持续运行的,没有空闲时间,这导致AI的成本结构与传统云计算截然不同。 为了在AI时代实现价值最大化,就需要将基础架构与AI应用紧密结合,并考虑在云、边缘和端侧的部署策略。此外,AI时代对硬件环境和算力利用的新要求,必须要考虑到异构计算环境中的负载协调、底层与应用层之间的高效接口匹配,以及数据安全和可靠性的重要性。同时,考虑到应用的灵活性,还需要能够轻松地“热插拔”不同的大模型以适应不同的需求,减少因模型或数据库变更而需要修改整个应用或代码的情况。 也正是在这些因素的推动下,需要打造覆盖算力、基础设施、软件和应用等多个层面解决方案提供商的AI生态系统。这些提供商在专业领域各有优势,英特尔希望通过AI开源生态的不断完善,推动各个合作伙伴可以专注于自己的强项,实现优势互补,从而有效落地AI应用。

生态伙伴热议AI规模化落地前景在当天的媒体会上,东方国信副总裁兼CTO查礼、海鑫智圣总经理孟凡军、星环科技生态合作部总经理张雷,分别介绍了与英特尔的合作,以及如何持续释放各自领域的价值,最终加速AI在更多领域的落地。 查礼着重强调了生态的重要性,他表示,从云计算时期所注重的软硬件协同,发展到如今的生态协同,要考虑的问题越来越复杂,比如模型的适配,或是在不调整硬件的情况下,通过软件提升模型微调和推理的能力等等。 他认为应用构建的变革也是一个重要的推动因素。从传统的LAMP技术体系,转向需要行业模型、知识库和工具链(如RAG和Agent)的现代构建方式,OPEA恰好涵盖了这些变革。查礼补充,这些变革为企业IT系统带来了由AI驱动和赋能的新机遇,他们希望能够贡献一份力量,共同推进国内企业级AI系统的发展。 孟凡军强调了与英特尔在云端AI处理和边缘端部署方面的合作,特别是面临云、边、端精度统一的挑战时,他认为可以通过与底层芯片在云、边、端的紧密合作和底层拟合,实现数据集和精度的统一。 “大模型作为智能时代的先驱,其主要作用是提升人类处理非标准化数据的能力”,孟凡军谈到。由于企业决策者对AI的理解程度有所不同,因此更需要像OPEA这样的框架,帮助企业理解AI价值、并推动AI的规模化应用。 张雷则从近期《黑神话:悟空》带来的设备升级潮谈起,指出硬件销售和应用普及的每个阶段都有其特定的“抓手”。 他认为,对于AI应用厂商来说,开发用户易于使用的AI产品是实现规模化的关键。 他强调,AI发展与数据密不可分,虽然许多大模型依赖公共知识和数据,但要在企业端实现大数据的真正落地,必须结合企业的私有化数据。星环科技与英特尔一直在企业端合作处理大模型和私有化数据,未来还将继续深化这一合作。
0 阅读:1

硬件是与非

简介:感谢大家的关注