从 ANI 到 AGI 及其他:破译 AI 的进化路径。
图片由 Dall-E 提供
在技术日新月异的世界中,有一个话题脱颖而出,吸引了科学家、技术爱好者和公众的想象力:
人工智能的兴起。
当我们站在一个新时代面前时,问题迫在眉睫:
人工智能的未来会怎样?
和我在一起,让我们一起发现它!
人工智能革命人工智能已经取得了长足的进步,从简单的基于规则的算法到模仿人类认知解决问题和做出决策的深度学习模型。
图片由作者提供
人工智能技术根据其模仿人类特征的能力分为三大类。
1. 狭义人工智能 (ANI) 或具有专业能力的人工智能ANI 通常被称为弱 AI 或狭义 AI,专注于特定的应用程序或任务。它旨在执行单个任务,并试图在有限的变量、限制和场景范围内模仿人类行为。
ANI的例子在iPhone上的Siri语音和语言处理或自动驾驶汽车的视觉识别功能等技术中很普遍。
2. 通用人工智能 (AGI) 或相当于人类水平的 AIAGI 也称为强 AI 或深度 AI,是指机器理解、学习和使用智能来解决复杂问题的能力,类似于人类。AGI在“心智理论”框架上运行,使其能够感知其他智能实体的情绪、信念和思维过程。
AGI仍然是一个理论概念,但已经引起了主要科技公司的极大兴趣。例如,Microsoft通过OpenAI向AGI投资了10亿美元。今天,我们已经有了 ChatGPT-4,它能够解决各种问题并展示更高层次的认知技能,代表了 AGI 的早期形式。
3. 人工智能 (ASI) 或超越人类智力能力的人工智能ASI 代表了一种超越人类智力的 AI 形式,能够在每项任务中超越人类。ASI 不仅善于理解人类的情感和经历,还被设想拥有自己的情感、信仰和欲望。
虽然ASI目前是一个理论概念,但其预期的决策和解决问题的技能预计将大大优于人类的能力。
在深入研究这种超级智能之前,让我们试着记住一点......
人工智能的未来在早期是什么样子的?多年来,人工智能的概念一直在恐惧和迷恋之间摇摆不定,早于实际术语。普遍的看法是,真正的人工智能必须反映人类的形式,掩盖了人工智能已经运行了相当长一段时间的现实。
值得注意的成就,比如在国际象棋等游戏中超越人类的技能,只是冰山一角。自 1980 年代以来,人工智能一直是各个行业的关键组成部分。
加里·卡斯帕罗夫(Garry Kasparov)与国际象棋计算机“深蓝”(Deep Blue)对弈。
1990 年代见证了机器学习的转变,出现了概率和贝叶斯方法。这些进步为当今一些最流行的人工智能应用奠定了基础,包括导航海量数据集的能力。
此功能扩展到对原始文本进行语义分析,使 Web 用户能够通过输入简单的查询在数十亿个网页中轻松找到所需的信息。
对超级智能的追求超级智能不仅仅是以闪电般的速度处理数字。这是关于智力各个方面的整体增强,从推理和创造力到自我提升。
想象一下,在这个世界里,机器的创新、思考和学习水平超出了人类的能力。我们还没有处于这样一个世界,但随着我们技术的发展,这种情况可能比我们想象的更接近。
最近的进展,例如 OpenAI 的 GPT-4,展示了人工智能的快速进步。考虑到机器学习或量子计算等领域所经历的所有突破,超级智能的出现变得越来越合理。
这把我们带到了......
超级智能的潜力和危险超级智能的好处是无限的。从具有基于人工智能的疾病预测因子的医疗领域到财务或气候变化,假设的超级智能可以改善人类社会。然而,实际的人工智能水平已经造成了一些重大影响,因此超级智能可能会使这些情况变得更糟:
1. 工作场所转型忘记人工智能只会影响低技能工作的旧观念。由于生成式人工智能的进步,如DALL-E和Mid-Journey,即使是创意职业也感受到了热度。
这些人工智能系统可以在瞬间制作出艺术、文学和视频。他们的速度如此之快,以至于在撰写基本新闻文章方面开始超过人类记者。
这种转变引发了关于未来工作的重大问题,尤其是在我们曾经认为不受自动化影响的领域。
2. 在知识产权迷宫中导航人工智能的兴起正在知识产权领域掀起一场风暴。当人工智能创作一首歌或一个标志时,谁拥有它?
程序员?人工智能本身?提供训练数据的创作者?这个问题变得越来越复杂,因为在现有内容上训练的人工智能系统现在能够产生令人难以置信的令人信服的虚假内容。这种困境甚至导致了法律摊牌,比如盖蒂图片社(Getty Images)起诉Stability AI使用照片。
3. 错误信息挑战人工智能能够廉价而快速地创建逼真的虚假内容,这是一把双刃剑。这项技术可能会极大地放大错误信息在网上的传播,随着虚假内容变得越来越复杂,这种担忧正在增加。
4. 人工智能在决策中的应用政府和企业越来越依赖人工智能在社会福利和执法等领域的决策。这些系统分配的风险评分可能会对人们的生活产生巨大影响。
然而,有一个问题:未经检查的人工智能可以复制甚至恶化现有的社会偏见。
人类必须保持循环,指导人工智能决策以防止不公平的结果。
为人工智能时代做准备能力越大,责任越大。随着人工智能的快速发展,我们需要跟上。政策制定者、行业专家和开发人员需要就 AI 的规则和法规进行合作。
确保这些智能系统符合人类价值观和道德规范至关重要。如果没有适当的制衡,不受约束的人工智能可能会导致反乌托邦的结果,机器可能会主宰人类。对于决策者来说,制定政策以跟上这一不断发展的技术步伐的时间正在流逝。
此外,人工智能的公平使用和分配也是一个紧迫的问题。超级智能的人工智能可以赋予控制它的人巨大的权力,导致财富和影响力的差距。确保有益和公平地使用人工智能是社会必须直面的挑战。
这把我们带到了...
奇点理论奇点理论最早是由约翰·冯·诺依曼(John von Neumann)于1958年提出的。对于那些不熟悉这个概念的人来说,它描述了一个假设的时刻,人工智能要么发展出自我意识,要么获得如此先进的能力,以至于它们的发展超出了人类的控制范围。
图片由克雷格·贝拉米(Craig Bellamy)提供
在这种情况下,人工智能将以指数级的速度自主改进自己,远远超出人类的理解或控制。
然而,这个概念是极具争议的。
反对这一理论的批评者认为,它低估了人类的思维,同时高估了人工智能的潜在能力。如果这一事件发生,这种事件的发生时间也是科学家和技术人员之间争论不休的主题。
因此,我们暂时不要惊慌!
乐观地驾驭未来人工智能的发展轨迹是有希望的。通过采用平衡的方法,我们可以利用人工智能进步的好处,同时有效应对其挑战。
当我们站在这个历史的关键时刻时,我们必须以兴奋、谨慎和责任感的心情来迎接这种超级智能的曙光。
我们如何为即将到来的事情做好准备?
答案在于提高认识并不断教育自己。人工智能在自动化日常任务方面的非凡能力不仅节省了时间,还使人类能够从事更复杂和富有想象力的工作。
以医疗保健为例:人工智能解释医学图像的能力可以挽救生命。同样,在交通领域,人工智能的作用也在不断增长,这从特斯拉等自动驾驶汽车的普及中可以看出。
未来的发展有望实现更先进的汽车技术。此外,人工智能正在简化物流和供应链,提高效率并降低成本。
何塞普·费雷尔(Josep Ferrer)是来自巴塞罗那的分析工程师。他毕业于物理工程专业,目前在应用于人类移动的数据科学领域工作。他是一名专注于数据科学和技术的兼职内容创作者。Josep 撰写了有关 AI 的所有文章,涵盖了该领域正在进行的爆炸式增长的应用。
原文标题:Beyond Human Boundaries: The Rise of SuperIntelligence
原文链接:https://www.kdnuggets.com/beyond-human-boundaries-the-rise-of-superintelligence
作者:Josep Ferrer
编译:LCR