读人工智能时代与人类未来笔记18_国际秩序

躺柒 2024-05-29 22:43:51

1.       通用人工智能1.1.         现代社会重视人类心智通过收集和检验数据,以及通过观察推断见解而获得的知识1.2.         在当下这个时代,理想型的真理一直是非凡的、可检验的命题,并可通过测试加以证明1.3.         人工智能时代将弘扬另一种知识的概念,即人类和机器合作的成果。我们(人类)将创建和运行(计算机)算法,这些算法将以更快、更系统的方式检验更多的数据,并且使用与任何人类心智都不同的逻辑1.4.         有时,其结果将揭示世界的某些属性,而这些属性是我们在与机器合作前无法想象的1.5.         通用人工智能将能够学习并执行范围极广的任务,一如人类所为1.5.1.           开发通用人工智能将需要巨大的算力,这可能导致只有少数资金充足的组织有能力创建此类人工智能1.5.2.           可以通过只允许经批准的组织运营通用人工智能来对其施加限制1.6.         如果通用人工智能真的出现在世上,这将是智力、科学和战略上的重大成就1.6.1.           即便未能如此,人工智能也同样能为人类事务带来一场革命1.7.         人工智能在应对突发事件(或者说意外事件)及提供解决方案方面展现出的动力和能力使其有别于以往的技术1.7.1.           如果不受监管,人工智能可能会偏离我们的预期,进而偏离我们的意图1.8.         人类可能参与到一场“逐底竞争”中1.8.1.           随着人工智能实现流程自动化、允许人类探索大量数据,并组织和重构物质和社会领域,那些先行者可能获得先发优势1.8.2.           竞争压力可能会迫使各方在没有足够时间评估风险或干脆无视风险的情况下竞相部署通用人工智能1.9.         对人的治理是以道德准则为指导的1.9.1.           在信仰时代,当神明裁判中的被告面临战斗裁决时,法院可以判定罪行,但由上帝决定谁获得胜利1.9.2.           在理性时代,人类根据理性的戒律来确定罪责,并根据因果关系和犯罪意图等概念来判罪并给予惩罚1.10.     人工智能需要一种自己的道德准则,这种准则不仅反映了技术的本质,也反映了它所带来的挑战1.10.1.      通常,既有原则并不适用于此处1.10.2.      人工智能并不依靠人类的理性运作,也没有人类的动机、意图或自我反省1.10.3.      人工智能的引入将使适用于人类的现有正义原则更为复杂化2.       时间旅行2.1.         从某种意义上来说,人工智能已经超越了人类的感知2.2.         通过时间压缩或“时间旅行”,也就是借助算法和算力,人工智能可以通过一些过程进行快速分析和学习,而同样的过程,人类心智需要几十年甚至几个世纪才能完成2.3.         在其他方面,单靠时间和算力已不足以描述人工智能的功能3.       两种不同但部分重叠的现实3.1.         人类可以通过理性阐述的3.2.         人工智能可以通过算法说明的3.2.1.           人工智能就能感知我们尚未感知也无法感知的事物3.2.2.           不仅因为我们没有足够的时间以我们的方式去推理它们3.2.3.           还因为它们存在于一个我们的心智无法概念化的领域中4.       “元”问题4.1.         在对世界有着不同解释和理解的人工智能的“辅助”下,人类能否满足对哲学的需求?4.2.         人类并不完全了解机器,但我们最终是否将与它们和平共处,并以此改变世界?5.       康德提出的限制5.1.         一个其无法回答的问题领域5.2.         一个其无法完全了解的事实领域6.       人6.1.         那些设计、训练人工智能并与人工智能合作的人能够实现的目标,将达到迄今人类无法企及的规模和复杂程度,比如新的科学突破、新的经济效率、新的安全形式,以及社会监控的新维度6.2.         在扩展人工智能及其用途的过程中,那些未能获得主导权的人可能会感到,他们正在被自己不了解,而且并非由自身设计或选择的力量所监视、研究和采取行动6.3.         这种力量的运作是不透明的,在许多社会中,这是传统的人类行为者或机构不能容忍的6.3.1.           首先要做的是向非技术人员解释人工智能在做什么、它“知道”什么,又会如何去做6.4.         官方的协商者必然是政府,但也需要为技术专家、伦理学家、创造和运营人工智能的公司以及其他领域外人士搭建发声平台6.5.         我们应该设法使其可审核,亦即使其过程和结论既是可检查的又是可纠正的6.5.1.           纠正能否实施,将取决于能否将针对人工智能感知和决策形式的原则细化6.5.2.           道德、意志甚至因果关系都不能很好地契合自主人工智能的世界6.5.3.           从交通运输到金融再到医药,社会的大多数层面都会出现类似的问题6.6.         不完美是人类经验中的常态之一,尤其是在领导力方面6.6.1.           有时,他们的行动基于错误的假设6.6.2.           有时,他们的行动纯粹是出于感情用事6.6.3.           有一些时候,意识形态扭曲了他们的视野6.6.4.           如果人工智能在某些领域显示出超人的能力,则其使用必须能够被不完美的人类环境所兼容并包6.7.         人工智能的出现,带来了人类仅凭理性无法获得的学习和处理信息的能力,功将带来新的问题它可能会让我们在那些已被证明超出我们回答能力的问题上取得进展6.7.1.           成功将带来新的问题6.7.2.           是时候定义我们与人工智能的伙伴关系,以及由此产生的现实了7.       模糊性7.1.         人工智能的动态性和新兴性至少令其在两个方面产生了模糊性7.2.         人工智能可能按照我们的预期运行,但会产生我们无法预见的结果7.2.1.           这些结果可能会把人类引入其创造者也始料未及的境地7.2.2.           1914年的政治家没有认识到军事动员的旧逻辑加上新技术会把欧洲拖入战争一样7.2.3.           自动驾驶汽车做出的决定危及生命7.2.4.           严重军事冲突7.3.         在某些应用领域中,人工智能可能是不可预测的,它的行动完全出人意料7.3.1.           以AlphaZero为例,它只是根据“赢棋”的指示,就发展出一种人类在几千年的国际象棋历史中从未设想过的棋风7.3.2.           随着我们赋予其更大的自由度,其实现目标的路径可能会让我们惊讶,甚至感到恐慌7.4.         我们既不应将人工智能视为自动运作、无须照管的存在,也不应允许其在无人监督、监视或直接控制的情况下采取不可撤销的行动7.4.1.           人工智能由人类创造,故也应由人类来监管7.5.         人工智能面临的挑战之一是,具备了创造人工智能所需的技能和资源的人并非必然具有理解其更广泛内涵的哲学视角7.5.1.           人工智能时代需要它自己的笛卡儿和康德,来解释我们创造了什么及其对人类有何意义8.       社交媒体8.1.         推特和脸书用以突显、限制或完全禁止内容或个人的功能全都仰仗人工智能,这便是其力量的证明8.2.         使用人工智能进行单边的、通常不透明的内容和概念推广或删除,对各国尤其是民主国家来说都是一个挑战8.3.         人工智能加大了对世界的扭曲,以迎合人类的本能偏好8.3.1.           人工智能可以轻易地放大我们的认知偏差,而我们却还与之共鸣8.3.2.           伴随着这种共鸣,面对选择的多样性,又被赋予了选择和筛选的权力,人们接受的错误信息将会泛滥8.3.3.           社交媒体公司不会通过新闻推送来推动极端和暴力的政治极化,但显而易见的是,这些服务也没有导致开明话语的最大化8.4.         某些信息的传播,尤其是故意制造的虚假信息,会造成损害、分裂和煽动,这是毋庸置疑的8.5.         在对“有害信息”的谴责、打击和压制显得过于宽松,这也应该引起反思8.6.         在一个自由社会里,有害信息和虚假信息的界定不应该被囿于公司的职权范围8.6.1.           如果将此类职责委托给一个政府小组或机构,该小组或机构应该根据确定的公共标准并通过可核查的程序来运作,以避免被当权者利用8.6.2.           如果将其委托给人工智能算法,则该算法的目标函数、学习、决策和行动必须清晰并接受外部审查,而且至少要有某种形式的人类诉求8.7.         每个社会都会选择各自重视的观念,这可能会导致其与跨国网络平台运营商之间的复杂关系8.7.1.           人工智能就像海绵一样善于吸收,它向人类学习,甚至在我们设计和塑造它的时候也是如此8.7.2.           不仅每个社会的选择是不同的,每个社会与人工智能的关系、对人工智能的感知,及其人工智能模仿人类、向人类老师学习的模式也是各不相同的8.8.         人类对事实和真理的追求不应该使一个社会通过一个轮廓不明、无法检验的过滤器来体验生活8.8.1.           对现实的自发体验尽管有其矛盾性和复杂性,却是人类境况的一个重要方面,即使这种体验导致了低效或错误9.       国际秩序9.1.         人工智能可以在随处可见的计算机上运行9.1.1.           由于训练机器学习模型需要专业知识和计算资源,因此创造一个人工智能需要大公司或国家级的资源9.1.2.           由于人工智能的应用是在相对较小的计算机上进行的,因此其必将被广泛使用,包括以我们意想不到的方式9.2.         我们可能别无选择,只能扶植人工智能9.2.1.           我们也有责任以一种与人类未来相容的方式来塑造它9.3.         在安全领域,人工智能赋能系统响应速度非常快,使得对手可能会在系统运行之前尝试进行攻击9.3.1.           可能造成一种内在不稳定的局势,堪比核武器所造成的局势9.4.         人工智能通过政府防务职能的扩散,将改变国际平衡以及在我们这个时代维持这种平衡所依赖的计算9.5.         过去,外交在一个有组织、可预测的舞台上进行9.5.1.           如今,其信息获取和行动范围将获得极大的扩展9.6.         随着形势愈加复杂,制定具有可预测结果的可执行协议将变得更加困难9.6.1.           人工智能翻译将促进对话,而且不用像以往的译者那样不仅要有语言造诣,还要精通文化9.6.2.           人工智能赋能的网络平台将促进跨境交流,而黑客攻击和虚假信息将继续扭曲人们的认知和评估9.7.         人类通过明确区分常规武器(被认为与传统战略相调和)和核武器(被认为是例外)而回避了核悖论9.7.1.           核武器的破坏力量一旦释放就是无差别的,不分对象9.7.2.           常规武器可以辨别打击目标9.7.3.           既能辨别目标又能进行大规模破坏的网络武器消除了这一区分9.7.4.           如果再有人工智能推波助澜,这些武器将如虎添翼,变得更加不可预测,潜在的破坏性也更大9.8.         当这些武器在网络中伺机游弋时,是无法确定归属的9.8.1.           它们无法被察觉,因为它们不像核武器那么笨重9.8.2.           它们还可以通过U盘携带,而这有利于扩散9.8.3.           这些武器一旦被部署就难以控制,如果考虑到人工智能的动态性和新兴性就更加如此9.9.         将人工智能功能与网络武器相结合的可能性加深了这一困境9.9.1.           这种形势挑战了以规则为基础的世界秩序的前提9.9.2.           它还让发展人工智能军备控制的相关概念成了当务之急9.9.3.           在人工智能时代,威慑将不再遵循历史准则,它也做不到这一点9.9.4.           人工智能的潜在军事用途比核武器更广泛,而且至少到目前为止,其进攻和防御还谈不上泾渭分明9.10.     人工智能成了另一种误解和错误的可能来源,拥有高科技能力的大国迟早将不得不就此进行一场持续对话9.10.1.      这种对话应聚焦于一个根本问题:避免灾难,并以此求得生存9.11.     人工智能和其他新兴技术(比如量子计算)似乎正在让超越人类感知范围的现实变得触手可及9.11.1.      我们尚未领会它们的哲学蕴含9.11.2.      我们正在被它们不由自主地推动向前,而非有意识地向前9.11.3.      新技术产生了新的哲学见解,而这些见解又通过技术(以印刷机的形式)传播开来9.11.4.      新技术已经发展起来,但相应的指导性的哲学理念却暂付阙如9.12.     它允诺带来更强力的药物、更高效公平的医疗保健、更可持续的环境实践,以及其他种种进步9.12.1.      它也可以使信息失真,或者至少使接收信息和识别真相的过程变得更加错综复杂,并由此令一部分人的独立推理和判断能力日渐减退9.13.     许多国家已经将人工智能列为国家项目9.13.1.      在国家层面,它应该确保美国在人工智能领域保持知识和战略竞争力9.13.2.      在国家和全球层面,它都应该致力于研究人工智能产生的文化影响,并提高对此影响的认识
0 阅读:3

躺柒

简介:书既能读薄也能读厚,输出才能检验输入,完成才能完善。