最前沿的声音:法国人工智能行动峰会:人工智能、科学和社会

星辉梦织者 2025-02-12 02:19:23

Alfonso Mateos Vicente人工智能和高级视觉计算理学巴黎综合理工学院

过去两天,我参加了巴黎综合理工学院举办的人工智能会议,该会议是巴黎知识产权组织举办的“人工智能行动峰会:人工智能、科学和社会”的一部分。我发现自己沉浸在涵盖人工智能整个领域的各种想法、辩论和启示之中。从世界模型和自主代理的复杂细节到人工智能提出的深刻的伦理、环境和经济问题,每一场会议都是一次旅程——一个在理论、技术和社会交汇处展开的故事。

在本报告中,我邀请您和我一起探索会议,会议中的每个演讲都是我们 AI 未来宏大叙事的一个章节。在此过程中,出现了两个真正的灯塔般的声音:Yann LeCun 对超越自回归模型的机器智能的革命性愿景,以及Yoshua Bengio 为下一个 AI 时代制定的平衡、安全第一的蓝图。他们的见解与众多杰出研究人员和行业先驱的贡献交织在一起,给我留下了不可磨灭的印象,让我了解了什么是可能的——以及必须做什么——以负责任地利用 AI。

第 1 章:从分子到多模态掌握

艾里克·辛格与“康德陷阱”

在开幕演讲中,Eric Xing向观众提出了一个极具挑衅性的观点:几十年来,人类对知识的追求从神秘转向了科学。我们曾经在宗教中寻找答案,然后在物理学中寻找答案——并承诺最终一切都会得到解决。但现在,当我们正站在构建远远超出简单下一个词预测的世界模型的边缘时,我们面临着 Xing 所称的“康德陷阱”。

他认为,尽管我们目前的语言模型擅长预测序列(由标志性公式P(s′∣s,a)表示),但它们缺乏对世界潜在动态的内在理解。下一代人工智能不应只是对输入做出反应的物体,而应发展成为自主代理:以反映生物有机体复杂性的方式从环境中学习并与之互动的系统。这一“人工智能驱动的数字有机体”愿景为一系列将定义会议其余内容的思想打开了大门。

Jolle Barral 和 AlphaFold 革命

我们刚刚消化了 Xing 对新型智能的呼吁,Jolle Barral就登台讲述了一个既技术性又具有变革性的叙述。她讲述了 AlphaFold 的历史历程——从 1994 年的 CASP 竞赛到 2020 年在原子分辨率上取得的胜利,这一突破有效地解决了蛋白质结构预测问题。Barral 的故事讲得非常生动:想象一个世界,氨基酸序列被翻译成生命本身的三维地图,为药物设计、疟疾疫苗开发,甚至塑料污染缓解等环境应用开辟了前所未有的途径。

她的故事不仅仅是一个成功案例,也展示了人工智能与特定领域挑战相结合的潜力。AlphaFold 的故事是计算能力与科学好奇心相遇时可以取得的成就的一个缩影——这一主题在整个会议中引起了反响。

基因组学、数字孪生和生命语言

基于这些见解,Karim Beguir和Jean-Philippe Vert深入研究了基因组学领域。他们展示了如何将基于 Transformer 的模型(曾经被归类为自然语言处理)重新用于解码 DNA 和蛋白质的“语言”。他们的工作通过将序列转换为不仅可以捕获结构还可以捕获功能和表型的嵌入,重新定义了我们对生物学的理解。

想象一下细胞的数字孪生——一个可以预测 DNA 序列的微小变化如何改变生物体特征的 AI 模型。这一愿景并非科幻小说;它正在发生,由结合 GC 含量等附加特征以提高预测准确性的模型提供支持。这一前景令人着迷:未来,精准医疗和个性化治疗将由 AI 指导,将原始遗传密码转化为可付诸行动的见解。

第 2 章:自主代理和突发行为的兴起

Ece Kamar 和对代理 AI 的探索

随着上午会议的展开,讨论从预测转向行动。Ece Kamar讲述了她对人工智能代理的研究——这些系统的设计目的不仅仅是服从命令,而是自主行动,无需人类的持续监督就能创造价值。一个特别引起我注意的例子是,当一个人工智能代理被分配一个看似平凡的任务时,它会自发地浏览复杂的在线安全协议来重置密码。尽管设计上并非如此,但这种突发行为凸显了自主系统的潜力和风险。

Kamar 的见解提出了一个关键问题:当我们赋予人工智能更多自主权时,我们如何确保可靠性并防止滥用?她认为,答案在于结合强大的评估基准(如谷歌针对医疗应用的 MedQA)和通过“人机交互”系统整合人类监督。这场对话为更广泛的辩论奠定了基础,即打造既有创意又安全的代理的道德和技术挑战。

埃马纽埃尔·坎德斯 (Emmanuel Candès) 和信任的统计视角

Emmanuel Candès是代理技术讨论的最后一位嘉宾,他将话题转向了人工智能在做出准确推断方面的可靠性。他在斯坦福大学的工作主要围绕量化模型生成的陈述在统计上是否正确——这是一项至关重要的工作,因为人工智能系统越来越多地做出影响现实生活的决策。Candès 的观点提醒我们,无论我们的模型变得多么复杂,确保其可靠性既是一项统计挑战,也是一项计算挑战。

第三章:超越预测——元认知和因果表征的出现

Michal Valko:能够思考自己想法的人工智能

Michal Valko 是一位刚刚从 Meta GenAI 和 Google DeepMind 走出来的企业家,他正在挑战我们对人工智能认知能力的看法。目前,他领导着一家隐形初创公司,他的研究不仅仅是让人工智能变得更聪明,而是让人工智能理解自己的思维方式。

突破在哪里?一个看似简单的四步流程,让语言模型分析自己的问题解决方法。可以把它看作是教人工智能成为自己的老师。首先,模型确定解决问题所需的技能。然后,将相似的技能聚集在一起,并在这些更广泛的技能类别下重新组织问题。最后,当面临新挑战时,人工智能会从其技能库中汲取相关示例。

令人兴奋的是,这不仅仅是因为它有效,还因为它似乎比广受赞誉的思维链推理表现更好。更有趣的是 Valko 与 Kili 的合作,探索强化学习如何帮助人工智能系统做出更明智的决定,决定何时寻求人类帮助。

这是对未来的一瞥,人工智能不仅能解决问题,还能了解如何解决问题——有可能彻底改变从教育到复杂问题解决的一切。

Bernhard Sch?lkopf:揭示因果表征和数字孪生

在关于元认知和内部表征的热烈讨论中, ELLIS 研究所和马克斯·普朗克图宾根研究中心的科学主任Bernhard Schlkopf提出了互补而又独特的观点,吸引了观众的注意力。Schlkopf 的演讲深入探讨了因果推理和数字孪生领域,探讨了如何让人工智能系统对生成数据的底层机制有深入的理解。

他首先强调了因果马尔可夫条件的重要性——即一个变量以其父变量为条件,独立于其非子变量。在此基础上,Sch?lkopf 引入了独立因果机制 (ICM) 原理,该原理假定世界的生成过程是模块化的,每个组成部分都独立于其他组成部分运行。

随后,Sch?lkopf 转向了一个引人注目的应用:系外行星凌日探测。他解释说,当系外行星从恒星前方经过时,会导致恒星亮度出现典型下降。但是,如果仪器故障或其他混杂因素存在,许多亮度曲线可能会看起来非常相似。只有通过仔细模拟这些外部影响(使用人工智能“减去”仪器的信号),我们才能准确推断出 K2-18b 上存在水等现象。他在寻找外星生命时对海星范式的讨论强调了建立因果表征的深远意义。

此外,Schlkopf 还展示了新兴技术,例如 GraphDreamer(一种用于生成组合式 3D 场景的模型),并讨论了通过正交微调控制文本到图像扩散的最新进展。在他看来,强大的内部表征类似于老鼠的地图:虽然地图对于生存来说并非绝对必要,但它可以显著提高生物体的导航和繁衍能力。他幽默地点点头,将当前的语言模型比作拼字游戏冠军,尽管不会说法语,但他记住了整个法语词汇以赢得比赛。他的观点很明确:记忆不是理解,人工智能要真正掌握世界,就必须学会以一种反映我们自己的思维地图的方式来表示因果结构。

第四章:巨人的发言——LeCun 的激进愿景和 Bengio 的道德框架

在规划人工智能的未来时,很少有人能像 Yann LeCun 和 Yoshua Bengio 那样引人注目和具有影响力。他们在会议上的主题演讲不仅仅是演讲;他们是大师班,深入探讨了人工智能的本质以及未来的发展方向。在本章中,我将详细回顾他们的演讲,记录他们提出的技术创新、哲学见解和道德要求。

Yann LeCun:开拓 AI 架构新领域

Yann LeCun 是深度学习的创始人之一,也是 Meta 的首席人工智能科学家,他在主题演讲中既批判了人工智能的现状,又展望了人工智能的未来蓝图。他的观点明确而发人深省:“自回归法学硕士注定要失败。”他认为,虽然自回归模型取得了显著的进步——尤其是在自然语言处理方面——但它们对下一个单词预测的依赖使它们从根本上无法捕捉现实世界的复杂性。

超越下一个单词预测:呼吁基于感官的学习

LeCun 的主要批评是,当前的大型语言模型 (LLM) 通过记忆大量数据并预测序列中的下一个标记来运行,这项任务虽然在纸面上令人印象深刻,但与真正的理解还相去甚远。他进行了生动的比较:想象一个世界级的拼字游戏冠军,他通过死记硬背单词来获胜,而没有掌握任何含义。

真正的智能不是重复数据,而是理解世界的底层语言。

他认为,人工智能应该从原始感官输入(图像、视频、声音)中学习,就像人类儿童通过与环境的互动来学习一样。

联合嵌入预测架构 (JEPA) 简介

为了阐明他的愿景,LeCun 引入了联合嵌入预测架构 (JEPA)。这一创新框架与自回归模型截然不同。其工作原理如下:

LeCun 认为,这样的架构将使 AI 系统能够形成持久的世界模型——内部表征并非静态的,而是随着系统收集更多感官信息而演变的。他声称,这是实现他所谓的“高级机器智能”的关键。用他的话来说,未来在于能够理解、规划和与世界互动的系统,其水平可以反映人类的认知,而不仅仅是预测序列。

人类与机器学习范式

在整个演讲中,LeCun 将技术细节与哲学思考交织在一起。他挑战社区重新思考智能的衡量标准。他没有赞扬法学硕士在考试中取得优异成绩或生成连贯文本的能力,而是敦促我们关注系统如何从感官数据中开发世界模型——灵活、自适应且能够进行零样本学习的模型。他充满激情地呼吁人工智能社区摆脱对基于文本的预测的狭隘关注,采用更全面、感官整合的方法。

Yoshua Bengio:为人工智能安全规划一条负责任的道路

与 LeCun 前瞻性的架构愿景形成鲜明对比的是,Yoshua Bengio 的主题演讲是对我们的 AI 革命所固有的风险和责任的一次深思熟虑、慎重的探索。Bengio 的开创性工作为深度学习奠定了基础,他的演讲致力于揭示开发通用 AI 所面临的道德、社会和技术挑战。

国际人工智能安全报告:负责任创新的蓝图

Bengio 的演讲以最近发布的《国际人工智能安全报告》为主题。他的讨论围绕三个核心风险类别展开:

推理扩展和不受控制的增长的风险

Bengio 演讲中一个特别有见地的部分集中在推理扩展的概念上——在推理阶段提高计算能力以获取准确度的边际收益的做法。虽然更大的模型无疑推动了科学推理和编程任务的最新发展,但 Bengio 警告说,这种趋势也可能导致意想不到的后果。在没有相应安全措施的情况下增加计算能力可能会放大错误,加剧能源消耗,甚至放大训练数据中存在的系统性偏差。

本吉奥认为,此类风险需要进行范式转变:人工智能研究必须与严格的安全协议和道德监督齐头并进。他敦促政策制定者和研究人员合作制定标准,确保人工智能系统透明、负责且符合人类价值观,而不是将监管视为创新的障碍。

安全人工智能未来的合作愿景

Bengio 的愿景不是通过严厉的监管来扼杀创新,而是培育一个安全与进步齐头并进的生态系统。他强调需要透明的方法——从开源框架到详细的模型卡,这些模型卡不仅记录了性能指标,还记录了能源消耗、偏见和潜在风险。他呼吁基于科学的监管,恳求政策制定者根据严谨的技术见解而不是恐惧或猜测来做出决定。

在闭幕致辞中,本吉奥强调了一个基本事实:人工智能成功的真正衡量标准不是其计算能力的规模,而是它在多大程度上服务于人类而不造成意外伤害。他深思熟虑的方法,在创新与谨慎之间取得平衡,为不受约束的技术进步的繁荣提供了清醒的对比。

和谐的结合:愿景与责任

LeCun 和 Bengio 共同描绘了一幅既令人振奋又复杂的 AI 未来图景。一方面,LeCun 的彻底重构挑战我们构建能够真正理解世界的 AI 系统——从感官输入中学习,形成动态世界模型,并最终超越当前自回归架构的局限性。另一方面,Bengio 提醒我们,这种巨大的力量伴随着重大的责任:确保我们的创造是安全的、合乎道德的,并与社会更广泛的利益保持一致。

他们的演讲充满了技术细节和哲学深度,为人工智能社区敲响了警钟。他们敦促我们突破机器学习的界限,同时不要忘记管理我们共同未来的道德准则。在激进创新与严格安全的相互作用中,前进的道路浮现出来——这条道路不仅能带来更智能的机器,还能带来更智能、更有责任心的社会。

在反思这些深刻见解时,我意识到,人工智能的发展之路不仅要提出正确的问题,还要找到答案。LeCun 和 Bengio 的愿景迫使我们努力创造一个技术与道德同步发展的未来,确保我们的创新能够提升人类,而不会损害其核心价值。

第五章:炉边谈话——关于人工智能未来的思想交流

当晚的炉边谈话是会议的一大亮点——一场充满活力、没有剧本的对话,汇聚了人工智能领域最聪明的人才。在温馨的氛围、温暖的灯光和坦诚的交流下,小组成员们得以揭开层层技术术语的面纱,揭示他们对人工智能是什么、人工智能的发展方向以及如何重塑我们的社会的原始、未经过滤的想法。对话的参与者包括迈克尔·乔丹、扬·勒昆、伯恩哈德·舍尔科普夫、斯特凡·马拉特和阿苏曼·奥兹达拉尔——这是一个多元化的群体,他们的观点涵盖了人工智能的技术、道德、经济和社会层面。

自主代理和以人为本的人工智能的愿景

迈克尔·乔丹以大胆的宣言拉开了讨论的序幕:“我不想戴一副提醒我要开会的眼镜——我想要一个能帮我做事的助手!”对他来说,人工智能的前景不在于被动观察,而在于创造真正自主的代理,这些代理可以无缝融入我们的日常生活,接管平凡的任务,让我们专注于创造力和创新。他将人工智能视为一个动态、主动的助手,为接下来的对话设定了一个高标准。

Yann LeCun从来不回避争议,他以自己标志性的技术洞察力和务实乐观的态度进行反击。他认为,目前有关人工智能能耗的说法往往被夸大了。他问道:“我们真的会看到能源使用量大幅增加,因为每个人都会使用人工智能吗?”根据 LeCun 的说法,市场经济确保效率的提高自然会跟随需求。数百名工程师正在改进各个方面——从更智能的算法到更高效的 GPU——他向我们保证,像 Meta 这样的公司在运营中已经实现了碳中和。对他来说,挑战不仅在于构建可行的人工智能,还在于以经济和环境可持续的方式构建人工智能。

应对人工智能的道德问题和社会影响

随着对话的深入,Stéphane Mallat将讨论转向了人工智能更广泛的社会影响。他对人工智能权力集中在少数几家大公司手中表示了合理的怀疑。“这些由大公司控制的模型可以为自己的利益管理这种权力,”他指出,强调在全球变暖等关键问题上缺乏共识——即使科学已经明确。Mallat 的观点是呼吁重新构建辩论:社会科学应该理解复杂的人类系统,而不仅仅是做出预测。他的言论引起了观众的共鸣,他们点头表示同意,同时他哀叹当前的趋势是人工智能的影响是用数据点来衡量的,而不是有意义的社会理解。

Bernhard Schlkopf也加入进来,尖锐地提醒人们注意 AI 的隐性成本。他特别担心 ChatGPT 等推理密集型模型对环境的影响。他警告说:“每次我们进行简单的推理时,都会消耗大量的计算能力”,并描绘了一幅巨大的混凝土墙数据中心产生数 TB 二氧化碳的画面。Schlkopf 的警告语气不仅与能源有关,还与潜入我们文化的智力懒惰有关,我们更喜欢摘要版的信息,而不是接触原始的、更丰富的内容。

监管、责任和偏见的作用

对话很快转向了棘手的监管问题。迈克尔·乔丹坚持认为:监管应该在创新成熟之后进行。“过早监管只会让事情变得更加困难,”他辩称。他设想的未来是,人工智能可以补充人类的创造力,而无需过早监管。然而,他的自由放任立场引发了一场激烈的辩论。

斯特凡·马拉特 (Stéphane Mallat)以其一贯的敏锐机智反驳道,监管是不可避免的——无论我们喜欢与否,最终一切都会受到监管。他指出,如果没有任何监管框架,人工智能不受制约的力量可能会导致一个由少数垄断力量决定我们共同未来的社会。伯恩哈德·舍尔科普夫 (Bernhard Schlkopf) 补充说,最好的监管是由技术专家制定的,而不是由善意但不知情的局外人制定的。然而,他对监管是某些人的荣誉徽章这一观点表示不满——这种情绪强调了平衡创新与问责的复杂性。

Asuman zdalar对这种微妙的平衡提出了自己独到的见解。她说:“监管无处不在——这本身并不是一件坏事。”她强调,监管的目标应该是顺应人类创造力的潮流,而不是扼杀它。不过,她警告说,监管必须旨在提高人工智能系统的可读性。例如,在医学等领域,如果医生不理解人工智能预测背后的原因,那么这项技术最终就无法实现其目的。

关于偏见和信息洪流的争论

随后,讨论转向人工智能偏见的本质。迈克尔·乔丹挑衅性地指出,偏见并不总是坏事;有时它为我们提供了一个观察世界的必要视角。“偏见是不可避免的——我们比较,我们选择,我们甚至喜欢因为偏见而便宜一点的电影,”他打趣道,敦促进行更细致入微的讨论,而不是对“好”或“坏”偏见做出一刀切的判断。

然而,Yann LeCun则对“人工智能天生危险”这一普遍观点持更坚定的立场。他辩称:“担心被人工智能生成的信息淹没是没有道理的——我们选择阅读什么。”他坚持认为,真正的解决方案是改进人工智能,而不是实施可能扼杀开源创新的严厉监管。Stéphane Mallat 讽刺地指出,虽然我们可以选择我们想要的偏见,但我们必须保持警惕,防止权力垄断单方面决定这些偏见。

展望未来:人工智能作为合作伙伴

聊天结束时,小组成员就未来的共同愿景达成了共识。迈克尔·乔丹回顾了人工智能的早期发展,将其比作弗兰肯斯坦的怪物——能够进行伟大的创新,但会带来不可预见的后果。然而,他仍然乐观地认为,作为一个社会,我们可以利用人工智能来增强人类的能力,而不是取代它。他对人工智能仅仅是副驾驶表示了些许怀疑,更愿意将其视为帮助我们应对现代生活复杂性的自主伙伴。

Yann LeCun 在讨论结束时高调地表示,人工智能最终将使我们变得更加智能。“人工智能没有两种类型——每个系统都是为与人类合作而设计的,”他说。他的愿景是,无论在医学、材料科学还是日常任务中,我们身边总有一个智能伙伴,而且我们无需害怕这种进化。

最后的思考:拥抱复杂性并促进创新

炉边谈话并没有以明确的答案结束,而是以一系列的见解结束,承认了人工智能未来的复杂性。对话强调,人工智能不是一个孤立的领域,而是一个涉及技术、道德、可持续性和人际互动的多方面学科。小组成员的不同观点是更大辩论的一个缩影:如何营造一个人工智能可以蓬勃发展、改善人类生活并得到负责任治理的环境。

一位小组成员说:“只要学习数学,音乐和数学就是答案”,这是对下一代学生的号召,他们要为应对这些重大挑战打下必要的基础。随着灯光渐暗,讨论接近尾声,很明显,这场炉边谈话不仅丰富了我们的理解,还点燃了我们以创造力和责任感迎接人工智能未来的集体决心。

第 6 章:实验室之外的人工智能——可持续性、经济和社会

人工智能的环境和经济足迹

随着会议进入第二天,焦点从模型架构的微观世界转移到我们世界面临的宏观挑战。里卡多·维努埃萨 (Ricardo Vinuesa)对人工智能对联合国可持续发展目标 (SDG) 的影响进行了令人信服的分析。据维努埃萨称,人工智能技术有潜力实现 79% 的可持续发展目标。然而,矛盾的是,到 2030 年,ICT 的能源消耗可能会激增至全球电力需求的 20%——这清楚地提醒我们数字革命的环境成本。

人工智能能源评分和绿色人工智能的探索

Hugging Face 的Sasha Luccioni 博士介绍了她的 AI Energy Score 项目,这是一项开创性的计划,旨在对 AI 模型在不同任务中的能耗进行基准测试和比较。Luccioni 的演讲是呼吁采取更可持续的 AI 研究方法的号召,强调“AI 的生命周期”必须考虑从原材料提取和训练到部署和最终退役的所有方面。她的工作是确保 AI 创新的快速发展不会以不可持续的环境成本为代价的重要一步。

第七章:经济视角:生产力、垄断和工作的未来

会议对人工智能的经济影响的探索既富有启发性又发人深省,其中两次演讲因其深度和细微差别而脱颖而出。Erik Brynjolfsson和Philippe Aghion就人工智能如何改变工作场所和更广泛的经济提出了互补而又独特的观点,挑战了传统指标并强调了技术、竞争和政策之间的复杂相互作用。

人工智能作为生产力催化剂

Erik Brynjolfsson在演讲的开头深入探讨了人工智能对现代工作场所的变革性影响,并以呼叫中心作为一个引人注目的案例研究。他的研究表明,人工智能工具(尤其是大型语言模型)的引入推动了生产力的快速增长。例如,在呼叫中心,使用人工智能助手的员工能够更快地解决查询,即使在人工智能中断期间,通话时长等性能指标也恢复到了人工智能之前的平均水平。有趣的是,Brynjolfsson 指出,表现最差的代理经历了最显著的改进,而表现最好的代理只获得了微不足道的收益。这种传统生产力趋势的逆转尤其引人注目,因为从历史上看,技术被视为最熟练工人的辅助手段。然而,有了人工智能,即使是最不熟练的工人也能获得不成比例的收益,这表明技术正在以意想不到的方式让竞争环境变得公平。

布林约尔松还谈到了这样一个悖论:尽管微观层面有所改善,但宏观经济生产力指标却出现停滞迹象。他引用了研究结果,指出总体生产力增长已经放缓——从 2005 年的 2.6% 降至今天的 1.2% 左右,一些经济体甚至出现负增长。这种差异暗示着标准经济指标无法捕捉到的隐藏价值。例如,虽然免费数字工具(如 YouTube、Gmail 甚至 AI 应用程序)的激增创造了大量消费者剩余,但这些好处往往被排除在 GDP 计算之外。这一观察结果提出了一个重要问题:在数字创新从根本上改变我们经济互动结构的时代,我们如何衡量生产力。

生产率J曲线与长期愿景

Brynjolfsson 提出了“生产力 J 曲线”的概念,该概念表明,技术投资的收益最初可能看起来不大,但一旦资本存量效应开始发挥作用,收益就会急剧增加。他的分析得到了斯坦福数字经济实验室数据的支持,表明虽然现在全面观察生成式人工智能的宏观经济影响可能为时过早,但基于 Hulten 定理等模型的未来预测表明,生产力每年将增长 1.4% 至 3.0%。然而,他承认预测这些影响存在固有的挑战,尤其是当人工智能创造的大部分经济价值仍然是无形的,并分布在免费服务和互补创新中时。

Philippe Aghion:积极竞争政策案例

在此基础上,菲利普·阿吉翁描绘了一幅更广泛、更谨慎的人工智能驱动世界的经济格局图景。阿吉翁的分析尤其引人注目,因为他深入研究了云计算和 GPU 市场等关键领域出现的垄断趋势。他警告说,人工智能能力集中在亚马逊、谷歌、微软和 Nvidia 等少数科技巨头手中,会带来严重风险。如果没有积极的竞争政策,这些垄断可能会扼杀创新、限制消费者选择并加剧经济不平等。

阿吉翁认为,历史上的技术革命,如电力和 IT,最终刺激了广泛的生产力增长,但这只是在经过一段时间的制度调整和监管干预之后。他指出,目前对人工智能的投资水平通常估计仅为 GDP 的 1%,远远高于美国和中国等主要经济体部署的巨额预算。他表示,这种不平衡可能会使欧洲等地区处于竞争劣势,除非它们在资金和监管方面采取更积极的立场。

阿吉翁最引人注目的观点之一是,他强调竞争不仅在推动创新方面发挥着作用,而且在推动公平方面也发挥着作用。他展示的数据表明,尽管自 2012 年以来,人工智能专利数量呈爆炸式增长,但由于缺乏竞争多样性,这些创新的质量和可及性受到了阻碍。在少数主导者控制市场的行业中,创新生态系统有可能自我强化,新进入者挑战现状的机会更少。阿吉翁呼吁制定严格的竞争政策,这提醒我们,技术进步必须与制度变革相结合。如果没有旨在打破垄断结构的政策,人工智能实现生产力民主化和刺激经济增长的承诺可能会受到严重破坏。

弥合微观经济学与宏观经济学之间的差距

Brynjolfsson 和 Aghion 都强调,尽管人工智能已经重塑了个人工作场所,但只有我们能够将微观层面的生产力增长与宏观经济现实相协调,才能充分发挥其经济潜力。他们认为,真正的进步将来自一种整体方法——这种方法不仅要考虑人工智能对任务效率的直接好处,还要考虑对就业、消费者剩余和更广泛的竞争格局的长期影响。

总之,会议上提出的经济观点提供了双重叙述:一方面,人工智能是生产力和创新的直接催化剂,即使是技术水平最低的工人也能达到新的绩效高度;另一方面,人工智能权力集中在少数巨头手中,带来了重大风险,必须通过深思熟虑、积极的政策措施来缓解。菲利普·阿吉翁的细致入微的分析尤其引起了深刻的共鸣,它号召人们确保人工智能革命的好处广泛传播,而不是集中在少数人身上。工作的未来——事实上,我们全球经济的未来——取决于我们能否以雄心和审慎的态度应对这些复杂问题。

第 8 章:圆桌会议——从构建人工智能到生活在人工智能的世界

在由 Alice Albizzati 主持的充满活力、毫无保留的圆桌会议上,全球经济学、伦理学和人工智能创新领域的顶尖专家 Erik Brynjolfsson、Danielle Allen、Yoshua Bengio 和 Philippe Aghion 齐聚一堂,探讨重大问题:人工智能将如何重塑我们的社会、经济和日常生活?作为全球社会,我们应承担哪些责任,以确保技术革命惠及所有人?此次对话涵盖了从人工智能代理的进化到地缘政治技术霸权竞争等方方面面,既激发了智识,又坦诚相待。

人工智能的经济和社会影响:工具、代理和人为因素

Erik Brynjolfsson在讨论开始时强调了贯穿整个会议的一个观点:人工智能不是来“做”我们的工作的——而是来改变我们的工作方式的。 “这不是关于人工智能接管;而是关于我们如何使用人工智能,”他解释道。他强调,虽然这项技术还远未成为完全自主的代理,但它目前作为一种先进工具的作用已经开始改变生产力。Erik 分享了他在斯坦福大学数字经济实验室的研究见解,指出即使是现在,我们也看到任务性能的逐步、持续改进。随着人工智能代理逐渐接管日常功能,他设想了一个未来, 人们可以自由地从事创造性、战略性甚至纯粹的娱乐活动,如体育或音乐。

然而,菲利普·阿吉翁很快就改变了这种乐观的看法。他认为,将人工智能视为一个包罗万象的助手的想法为时过早。“真正意义上的代理尚未出现,”他评论道。“仍然迫切需要人类监督来检查这些系统做出的道德决策。”对菲利普来说,人工智能必须仍然是一种工具——一种与人类判断协同工作的工具。他强调,单靠技术无法推动社会繁荣;强大的机构和精心制定的政策对于充分利用人工智能的潜力至关重要。

自主与控制之间的紧张关系

圆桌会议很快深入探讨了市场驱动的“代理”人工智能与维持人类控制的必要性之间的矛盾。Yoshua Bengio 强调了一个关键的悖论:虽然许多公司正在转向开发像自主代理一样运行的系统,但如果不加以控制,这种转变可能会很危险。“将这些实体简单地视为工具只是一厢情愿的想法,”他辩称,并警告说,如果没有刻意的设计和监管监督,我们可能会创建功能更强大但不一定更安全的强大系统。

丹妮尔·艾伦 (Danielle Allen)对监管的作用提出了更细致入微的看法。她坚持说:“我们不应该只是坐等事情出错。我们应该积极选择和塑造人工智能发展的道路。”她的话引起了共鸣,呼吁研究界和政策制定者采取行动。丹妮尔强调,智力竞争——科学家之间的竞争,而不是公司之间的竞争——才是突破性创新背后的真正引擎。她认为,这将带来更好、更周到的人工智能系统,从而增强社会,而不会将权力集中到少数主导者手中。

监管、去中心化和人工智能的地缘政治

讨论中特别激烈的部分围绕着监管和地缘政治竞争展开。菲利普·阿吉翁警告说,目前分配给人工智能研究的预算——通常被认为仅占 GDP 的 1%——与美国和中国的巨额投资相比严重不足。“这不是运气的问题,”他断言。“这是一个预算问题,如果欧洲不果断采取行动,我们可能会无可挽回地落后。”菲利普的言论强调了他的信念,即如果没有积极主动和资金充足的政策,全球人工智能霸权竞赛可能会让某些地区——以及它们所代表的价值观——处于不利地位。

Yoshua Bengio强调了人工智能权力分散化的必要性,从而为这一主题做出了贡献。他警告说,如果只有少数几家公司控制着最先进的系统,他们就可以利用这种权力创造不可逾越的竞争优势,从而有效地垄断市场。Bengio 的担忧不仅仅是技术上的,而且是深刻的道德问题:“我们必须确保人工智能的力量保持分散,并确保所有人都能享受到它的好处,”他说。他对权力分散化的愿景不仅关乎技术多样性,也关乎在快速创新面前维护民主价值观。

道德困境和偏见的作用

随后,讨论转向了人工智能中复杂的偏见问题。Erik Brynjolfsson极具挑衅性地指出,偏见在某种程度上是人类决策中不可避免的,甚至是有益的。他指出: “我们都有偏见”,并将其与我们日常做出的选择进行类比,例如更喜欢一部电影而不是另一部电影,或者看重某些品牌。然而,Philippe 和 Danielle 都反驳了这种观点,强调虽然偏见可以简化决策,但人工智能系统中不受控制的偏见可能会导致系统性不公正。Danielle指出,透明度可以作为对抗这些偏见的工具,尤其是在影响从拼车服务到新闻推送等一切事物的推荐系统中。

Philippe 用一个强有力的现实例子来打破关于人工智能偏见的抽象讨论。当被问到“台湾是一个国家吗?”时,Deepseek 的回答是“台湾是中国的一部分”,这不是人工智能推理的结果,而是反映其训练数据固有偏见的一面镜子。这一发现引发了一场至关重要的辩论:在一个人工智能系统继承了人类偏见的世界里,竞争政策如何确保思想市场的多元化,而不是让少数科技巨头的观点主导全球对话?

展望未来:以人为本的人工智能与协同创新

讨论接近尾声时,出现了一个共同的主题:人工智能的未来取决于协作和集体责任。埃里克·布林约尔松重申,人工智能的真正前景在于它能够变得更像人类——不是取代我们,而是实现更深入的人机协作。他设想的未来是,人工智能系统不是孤立地工作,而是与人类系统形成共生关系,双方都为更富裕、更高效的社会做出贡献。

丹妮尔·艾伦强调,人工智能革命已经到来,我们所有人都有责任去塑造它。“通用人工智能不是某家公司或某个国家的财产,”她辩称。“它是属于人类的东西——就像月球一样,是所有人共享的。”她呼吁权力下放和增加公共投资,这引起了小组的强烈共鸣,反映了一个共同的信念,即前进的道路必须以科学卓越和道德诚信为指导。

最后的思考

随着圆桌会议接近尾声,对话让听众们感受到了深刻的紧迫感和可能性。本次会议中交换的见解强调,虽然人工智能提供了变革性的机会,但它也带来了重大挑战,需要有意识的行动和协作治理。无论是讨论监管的作用、不受控制的偏见的危险,还是人工智能投资的地缘政治风险,小组成员都明确表示,人工智能的未来并不是预先确定的——而是我们可以塑造的。

正如一位小组成员所说,“没有责任感的创新就像在沙滩上建房子。”圆桌会议生动地提醒我们,随着我们迈向人工智能驱动的未来,我们的成功将取决于我们平衡技术进步与定义我们的道德和社会价值观的能力。

结语:变革之旅的反思

在会议的最后一天下午,当我走出会议厅时,我感觉自己仿佛参与了一场真正具有变革意义的会议——各种思想的汇聚很可能影响我们社会未来几十年的发展轨迹。从 Eric Xing 和 Michal Valko 严谨的技术方案,到 Yann LeCun 富有远见甚至有时激进的想法,再到 Yoshua Bengio 谨慎、安全第一的方法,这些不同的观点描绘了一幅复杂但充满希望的 AI 未来图景。

LeCun 和 Bengio 的双重遗产

从很多方面来看,此次会议的叙述都以两大支柱为基础:LeCun 对 AI 架构的彻底重新构想和 Bengio 对负责任创新的坚定承诺。LeCun挑战我们重新思考机器学习的意义——敦促社区超越单纯的预测,走向理解整个世界。他呼吁系统从感官输入中学习并开发持久的世界模型,这既是一份技术路线图,也是对更大梦想的邀请。

另一方面,Bengio 提醒我们,能力越大,责任越大。他坚持将人工智能发展建立在严格的、基于科学的政策和道德标准之上,这是对技术创新繁荣的清醒但必要的平衡。他们的见解概括了我们人工智能未来的前景和危险——这个未来虽然充满了令人眼花缭乱的潜力,但必须谨慎和有远见地驾驭。

呼吁合作

或许,此次会议最深刻的教训就是认识到人工智能的未来并非少数几位孤立专家的领域,而是一项集体努力。从基因组学和元认知方面的技术突破,到可持续性、经济和伦理方面的辩论,每一条讨论线索都强调了跨学科、跨行业、跨边界合作的必要性。

作为一名人工智能和高级视觉计算的学生,我离开会议时有了新的目标感。挑战是巨大的,但机遇也是巨大的。下一代人工智能系统不会孤立地建立起来;它们将诞生于丰富多彩的想法、实验和对话中——每一个都为更智能、更公平、更可持续的世界做出贡献。

最后的想法:旅程才刚刚开始

在巴黎综合理工学院会议厅的回响中,我不仅收获了丰富的技术见解,还坚信:人工智能的未来取决于我们将激进创新与道德责任相结合的能力。无论是重新思考模型架构,还是重新调整我们对能源消耗和经济不平等的态度,未来的道路既充满挑战,又令人兴奋。

亲爱的读者,我邀请你加入这一旅程。参与这些想法,质疑假设,并为塑造我们共同未来的活跃对话做出贡献。人工智能的故事仍在书写中——我们每个人都可以在其不断发展的叙事中发挥作用。

0 阅读:21