专访RealAI田天:国内率先布局AI安全领域,目标第三代AI

问芯科技吗 2024-09-05 02:06:21

如今 AI 已经渗透到我们生活的方方面面,从语音助手,到自动驾驶汽车,再到医疗健康智能诊断系统,正以前所未有的速度改变着世界。随着 AI 应用范围的不断扩大,其安全性已经成为当前亟待解决的重要挑战。

近年来,国内 AI 诈骗案件数量及涉案金额均呈指数级增长,AI 造谣事件更是屡见不鲜。据不完全统计,2023 年国内公开报道的 AI 诈骗案涉案金额已达数千万人民币。AI“内生”和“衍生”的各种安全风险,不仅关系到个人隐私保护和数据安全,更涉及到公共安全乃至社会稳定。

围绕 AI 安全相关领域,近日「问芯」采访了北京瑞莱智慧科技有限公司(简称瑞莱智慧,RealAI)创始人、首席执行官田天博士,访谈中他围绕 AI 安全产品研发、安全治理,以及公司业务布局、研发进展和发展规划等多个方面的问题进行了解读与分享。

图|瑞莱智慧创始人田天博士(来源:受访者)

田天博士毕业于清华大学计算机系人工智能专业。“大约在 2011 年我开始接触 AI 方向的一些研究,当时 AI 并不像现在这样热门,它在很多人认知中还是一个比较科幻的概念。当时我毅然选择这个方向,认为 AI 是面向未来的一个领域,具有广阔前景。”他介绍道。

2012 年,深度学习爆发,深度神经网络在众多领域的应用让业界看到了 AI 的巨大潜力,自此便开启了 AI 高速发展的新阶段。“我们很幸运恰好赶在 AI 高速发展时期进入到这个领域,同期,AI 在各个方向,包括计算机视觉、自然语言处理等很多领域的进展都非常快。”他表示。

“一个领域进展快,从事该领域的人也会多起来,导致领域下任何一个细分方向都有很多同行做同样的事情,而这也就意味着想要做出差异化变得困难。”他说道,“我们不想从众,而是希望能够去做一些 AI 方向上最前沿的、真正解决业界难以攻克的难题。”

当时,业界很多人认为深度学习是“无所不能”的,只要模型足够大,给到的数据样本等足够多,它就可以解决几乎所有的问题。“但是在我们看来,如果不结合专业知识,不对的整个模型底层能力进行提升,那么 AI 的可控性、安全性很难彻底满足行业的要求。”田天指出。

“基于这些观察和分析,我们预判 AI 安全很快就会成为商业落地过程中至关重要的因素,也是必须要攻克的难题。最终,我们选择了安全可控 AI 这个方向,专注于第三代人工智能的开发,即实现第三代更加安全、可靠、可信、可拓展的人工智能。”他表示。

(来源:受访者)

2018 年,瑞莱智慧依托清华大学人工智能研究院发起设立,由中国科学院院士、清华大学人工智能研究院名誉院长张钹和清华大学计算机系教授朱军共同担任首席科学家。“我们创立瑞莱智慧,一方面是把团队多年的研究成果进行转化落地,另一方面也是为了填补了国内产业上安全 AI 方面的空白。”他说道。

据了解,瑞莱智慧自成立以来已经完成 5 轮融资。今年 4 月,该公司完成了由北京市人工智能产业投资基金等参投的新一轮融资。

围绕 AI 安全已布局两条产品线

据介绍,公司组织架构方面,创始团队多为技术出身,其中不乏 AI 领域的知名专家。“瑞莱智慧拥有清华基因,团队成员很多都是实验室的师兄弟、导师。基于对于 AI 核心技术的理解和对于行业趋势的判断,我们走到一起来共同推进 AI 安全这个项目。如今,越来越多的人看到了这一领域的重要性,来自各行各业的资深专家陆续加入到公司团队中。”田天说道。

早在 2015 年,当时业内很多人对 AI 做出预测,包括人脸识别领域的刷脸支付、自动驾驶,以及 AI 医疗诊断等应用很快就会落地。“但在我们看来,这些场景都是属于严肃、高价值场景,其对于 AI 系统的鲁棒性、可控性、安全性要求非常高,如若这些问题得不到解决,那 AI 就很难在这些场景中顺利落地。”他表示。

“现实也基本符合我们当初的预判,一些应用场景时至今日仍然面临障碍,难以完全落地。这些都是从不同方向反映出 AI 安全是 AI 应用落地的一个必备条件。AI 的创新发展和安全治理缺一不可,需要同步进行。”他指出。

“我们的目标是安全可控 AI ,而这也是随着整个行业发展在不断迭代的。”他表示,“成立之初,我们聚焦的是当时落地较为广泛的 AI 系统,比如人脸识别安全、图像识别安全,以及自动驾驶安全等方面。”以人脸识别为例,此前专门研究如何提升人脸识别安全性问题的团队并不多,导致应用人脸识别的一些严肃场景(比如金融机构等)容易受到攻击,造成经济损失。

“2022 年,随着大模型的快速落地,我们看到了大模型的安全可控存在较大市场需求,于是我们紧跟市场推出了大模型安全可控相关的一系列产品(比如大模型的安全测评、安全增强以及安全平台等),为整个行业赋能。”田天介绍说,“除此之外,我们目前也在开发和提供更加安全的大模型。除了关注 AI 安全,我们同时也会针对一些严肃场景直接提供更加安全的 AI,帮助解决其业务问题。”

“伴随行业发展,我们又看到出现很多新的隐患,即 AI 治理层面的一些需求。比如,现在 AI 合成的各种以假乱真内容,人已经很难分辨,若把这些内容用于诈骗、造谣,其危害不言而喻。”他指出,“对深度伪造内容进行检测,帮助大家分辨真实信息和虚假信息,这也是我们现在专注的领域之一。”

“通过围绕这些方面的持续推进,我们的愿景是推动第三代更加安全、可靠、可信人工智能的落地。一方面,让 AI 越来越强大,真正服务于人类去解决各种各样的问题;另一方面,防范 AI 的滥用,防范 AI 引起的一系列安全问题、隐患等。”田天说道。

图|第三代人工智能(来源:公司官网)

据介绍,针对 AI “内生”和“衍生”的一系列安全风险,瑞莱智慧目前已经布局了“大模型安全基座”与“AIGC 检测基座”两条产品线。

一、 大模型安全基座。通常大家对于算法是非常理解的,比如进行语言应用需要有一个大语言模型的算法。“但我们认为只有算法是不够的。要做一个更加安全可控的大模型应用,基础预训练模型类似于 CPU,虽是核心,但它还需要有主板等一系列元器件协同工作才能发挥作用,而我们开发的这种安全基座就类似于承载 CPU 的主板。”田天表示。

具体而言,“通过大模型安全基座系统配合其他大模型一起使用,能够发现大模型中存在的不可信、不可靠等安全问题,提升大模型安全性。”他解释道。

应用场景方面,包括人脸识别、自动驾驶、大语言模型、多模态模型等目前都已覆盖,并且大部分也已实现商业落地,比如政府部门、金融机构、大型企业等不同领域。

二、AIGC 检测基座。“这个基座主要用于检测 AI 生成的各种内容。基于我们拥有的大量数据、检测模型、溯源模型等,能够帮助分辨内容,并让大家能够信赖对应的结果。”他介绍说。

应用场景方面,比如对人脸识别进行加固和防御,使其不容易被欺骗;再比如防 AI 诈骗,在电话、视频中识别骗子的伪装,以及防 AI 造谣,判断互联网上一些新闻的图片、视频、音频是真是假。“AIGC 检测基座的落地应用,除了刚刚提到的政府部门、金融机构和大型企业之外,广大消费者其实也都有这个需求,即检测伪造内容,帮助提高判别能力。”他表示。

图|AIGC 检测一体机 DeepReal(来源:公司官网)

例如,前不久有一个“TED 演讲者视频”非常热门,然而其中的演讲者竟没有一个真人,全都是由 AI 生成的,人脸表情、肢体动作与真人别无二致。“在这种‘后真相时代’,如何才能看到真实的内容,对于我们每个人而言都有切实影响。”田天指出。

“一方面,现在 AI 生成能力越来越强。”他表示,比如,早期的 Deepfake 主要是换脸或者表情驱动,如今,Diffusion Model 可以实现从无到有,基于文本生成图像、视频等,并且现在的生成质量越来越高,肉眼难以分辨。

“另一方面,AI 技术门槛越来越低。”他说道。就现阶段而言,越来越多的 AI 工具可以被普通公众所获取,大家都可以用来制作 AI 合成的虚假内容。“我们对此有一个预判,明年每天互联网上产生的内容可能会有一半以上都是 AI 合成的。这意味着,不久的将来我们每天在互联网上接触到的信息或许只有一小部分是真实的。”他补充道。

“在这种趋势下,我们迫切需要同步建立 AI 治理体系和防范机制,通过技术手段来帮助大家分辨真伪。”他指出,“显然,目前依靠人自身的能力已经难以分辨真伪,这时我们就要用 AI 去对抗 AI,来帮助大家提升分辨真伪的能力。我相信,这是未来大家都必备的一种功能,或是一款产品。”

AI 的创新发展和安全治理需要同步进行

纵观全球,对比国际同行企业,在田天看来,核心技术是公司竞争力之一。“我们实验室团队早在 2014 年就开始专注于 AI 安全领域,是国际上(包括斯坦福大学团队、谷歌团队等)最早入行的团队之一,处于国际第一梯队。”他说道。

“另外,我们在应用落地,或者说是市场产业化的布局也是比较早的。”他表示。比如,AI 安全的一系列平台,增强 AI 安全能力的防火墙的产品,以及大模型安全方面的一系列产品的理念。

“很多产品最初是由我们发明创造出来的,在市场上率先提出产品形态,并且也较早地形成了非常完整的产品体系。”他说道,“其实,我们在很大程度上扮演一个‘行业标准制定者’的角色,不单是技术,还要真正落到产品层面,可以去应用、去售卖的产品。”

“由于较早进入 AI 安全领域,目前我们已经形成了比较完整的技术和产品体系。在 AI 安全大领域中所涉及到的方方面面基本都有所布局,都有对应产品,且大部分产品已经实现商业落地,覆盖到大部分头部客户。”他表示,“由于已经在市场上形成了先发优势,同时基于产品也已经形成一定的规模优势,我们通过自身技术的快速迭代,应该能够持续保持业内领先。”田天总结道。

图|瑞莱智慧公司一角(来源:受访者)

国际层面,以 OpenAI 联合创始人 Ilya Sutskever 创立的 Safe SuperIntelligence(SSI)公司为例,其步伐较为超前,能撬动的资源更大,能将更多资源能够投入到需要长期转化的方向上,并且其目标直接定位到了安全超级智能。“我们的目标也是类似的,沿着更加安全的超级智能这个方向去发展,围绕 AI‘能力增强’和‘安全规范’两方面的持续升级,打造更加安全的 AGI。但对于我们自身而言,前期并不会直接瞄准终极目标,而是一步一个脚印地去实践,不断进行拓展和完善。”他表示。

谈及公司发展,田天认为,企业发展或者一个技术的转化落地都有不同阶段,在不同的阶段,其发展、速度以及引导因素都会有所转变。“我们开发的这些新技术去落地推向市场是跟着市场需求走的,洞察到现在市场上究竟有什么样的需求没有得到满足,哪些痛点是现有的产品或服务解决不了的,而我们又恰好有相关的优势、有相关的技术/产业基础能够去做这件事。只有找到这种相契合的匹配点才能形成比较好的转化落地。”他指出。

“一方面,并不是说什么东西热门就去做什么,这很容易陷入到红海竞争中。”他表示,比如很多企业一拥而上扎堆做基础模型,然而最终能生存下来的公司是非常少的。“另一方面,只是根据自身技术强项去开发也行不通,如果不是在合适的时间点上,很有可能做出来的产品即使再强也不满足当下的市场需求,或是需求太小难以支撑企业持续经营,这也是非常危险的状态。”

访谈接近尾声,田天分享了自己对市场的一些解读。在他看来,对于 AI 安全的市场规模,可以进行类比,其应该占到整个 AI 市场规模的一定比例。“AI 作为新质生产力能够颠覆各行各业,是一个非常大且持续快速增长的市场空间,而 AI 安全渗透到 AI 的方方面面,只要从事 AI 领域就避不开 AI 安全,要么是 AI 自身安全,要么是 AI 引起的治理安全等,跟着整个 AI 行业的发展而发展。”他说道。

当前,业内一些学者、专家、企业家呼吁在 AI 领域的投资中需要有 30% 投入到 AI 安全领域。“按照这一说法, AI 安全的市场规模或许能占到整个 AI 市场规模的 30% 左右。这是比较接近理想的比例,但在我自己看来,即使达不到这一数字,5% - 10% 的比例肯定是有的,这应该是一个底线。”田天指出,“想要确保 AI 的顺利落地,其安全性其实是一个门槛性质的东西。如果在安全方面的投入都到不了 10% 的话,那么后期是很难去落地发展的。”

参考资料:

1.https://real-ai.cn/about?scrollId=t19

2.https://real-ai.cn/core-technology?scrollId=t27

3.https://real-ai.cn/products/57.html

4.https://real-ai.cn/news/company-news/556.html

0 阅读:2

问芯科技吗

简介:感谢大家的关注