人工智能(AI)将在各个社会和经济领域大展拳脚,并有潜力从根本上改变人们沟通、工作和学习的方式,改善人们的福祉。但与此同时,AI也可能加剧持续已久的不公平,我们关注的重点是让AI工具从研发到应用,让所有人——尤其是此前难以分享到技术创新成果的人,充分参与并公平受益。
多年来,尽管在促进健康公平和减贫方面取得了长足的进展,但在几乎所有全球发展指标上,不同国家和社区之间的差距仍在扩大。开发新技术并将其应用在资源匮乏的环境是缩小这些差距的途径之一。这将要求政府、私营部门、慈善机构和全社会采取协调一致的行动,制定必要的解决方案,让追踪进步的各项可持续发展目标重回正轨。

■ 我们畅想着人工智能在各领域的强大应用,从加速医学突破,应对气候变化的影响,到提高学习成果以及帮助小农户提高产量 / subman盖蒂图片社
自成立以来,比尔及梅琳达·盖茨基金会一直通过合作伙伴关系和赠款,专注于应用创新以帮助加速进步,促进人类发挥潜能,并解决长期存在的不平等问题。我们与合作伙伴共同努力,不断探索,从抗旱种子到mRNA疫苗,寻找能够对全球健康和发展领域的目标产生影响的创新。
几乎所有预测都表明,人工智能(AI)的快速发展将使其在社会和经济领域大展拳脚,并有潜力从根本上改变人们交流、工作和学习的方式,改善人们的福祉。在盖茨基金会关注的各个领域,人工智能都有着强大的应用前景,从加速医学突破,应对气候变化的影响,到提高学习成果以及帮助小农户提高产量。迄今为止,盖茨基金会已投资于数十种应用于全球健康和发展的机器学习案例。最近,大型语言模型(如ChatGPT)的快速发展和可及性从根本上改变了人工智能的应用范畴。只有在各个受益者参与技术开发的前提下实施这项技术,才能实现潜在的收益。人工智能的高速发展同时带来了机遇和风险——其开发和应用是否具有包容性?是否反映了低收入国家的需求?还是会被不公平地应用,进一步拉大现有的差距?
由于种种原因,早期的技术进步未能给世界每个角落带来同样的改变,但难以获得创新是低资源环境中的人们往往无法及时、公平和持续地受益的首要原因。与任何新技术一样,谨慎对待人工智能的潜在用途至关重要,特别是需要从那些在过去未能同步获得创新成果的人群的角度。同等重要的是,要认识到与错误信息传播有关的风险,以及人工智能可能导致的信息滥用。在健康和发展领域,准确而可靠的信息极为关键,错误的信息可能导致毁灭性的后果。通过有前瞻性的设计并与受益者合作,让创新能够更好地挽救生命,为人们提供充分发挥潜能的机会,而这些也是我们的工作所期待产生的影响。
在全球发展领域应用人工智能更要谨慎。因为大型语言模型以分析数据为基础,使用算法和统计模型来发现其中的规律,并利用这些规律来构建模型。因此,这些模型是如何建立的,又是在何处建立的,以及随之伴生而来的观念和认知都将对其施加影响。边缘化社区对此几乎没有发言权,无法向模型提供信息,因此在模型中的统计数据准确性,很可能不如数据代表性更好的地方。这就使得错误率,以及人工智能在使用这些数据时延续既有偏见的风险大大增加。如果不加以谨慎对待和监督,人工智能就会带来风险。如管理不当,这些工具可能会在无意中强化偏见,让现有的不平等持续存在并传播错误信息。我们必须有意识地努力降低这方面的影响。
认识到人工智能高速发展的潜在收益和风险至关重要。盖茨基金会于2023年3月成立了一个内部的全球人工智能工作小组,作为一个协调机制来定义和基金会工作相关的人工智能的作用,因为我们工作的许多方面都和这项技术的发展相关。该工作小组成立的目的是推动一种负责任和有序的方法,探索基金会与人工智能应用的关系,帮助制定一条安全、公平、合乎伦理的发展道路。此外,盖茨基金会正在筹建一个由外部专家组成的伦理和公平咨询委员会,分享有关程序设计及人工智能伦理实践的见解,委员会将在我们基金会内部和受助人之间建立问责机制,并就如何有效防止偏见,避免AI带来的不良后果提供建议。
我们对公平获取的关注,对于当前和未来的人工智能工作至关重要。我们认识到,在资源匮乏的环境中引入人工智能可能带来特殊的风险,我们致力于通过持续的研究、合作以及与利益相关者透明的沟通以降低这种风险。盖茨基金会在开展人工智能应用的相关工作时,将以一系列首要原则为指导,这些原则塑造了基金会早期的工作方法,并和我们的核心使命一致:帮助建立一个人人都有机会过上健康而富有成效的生活的世界。随着我们与合作伙伴及外部专家的沟通,经验的积累,以及人工智能技术未来的发展,这些原则将得到进一步的完善和调整。
首要原则
坚持我们的核心价值观
盖茨基金会秉承的信念是,所有人,无论出生在哪里,都应该有机会过上健康的生活并充分发挥潜能。因此,我们利用AI技术的基础,就在于为资源匮乏社区带来公平和机会。人工智能可以成为推进这些目标的得力工具,前提是其缺点得到妥善的管理。
促进共同设计和包容性
低收入国家不应仅仅被视为人工智能的受益者或最终用户,而应被视为程序设计和应用的重要合作者和伙伴。这意味着跨组织、跨地域地分享见解、关注点和信息,推动人工智能的应用,使其更加公平,适合不同的社区使用。我们将协调人工智能的应用,并充分认可有效的伙伴关系必须经过精心设计并具有广泛的包容性。中低收入国家数字基础设施的可及性极为有限,在这些地区最大限度地发挥人工智能的效益可能会带来更多挑战。秉持我们整体的创新理念,我们将投资开发一个让人工智能得到负责任应用的循证数据库,造福广泛的社区和人群。
负责任地应用AI
我们将我们的角色定义为帮助确保AI工具的公平获取与应用。我们意识到,负责任的应用AI,需要以合规、包容和持续改进为核心。为实现这一目标,我们将利用既定的法律法规、行业标准和伦理准则,应对人工智能在健康和发展领域应用的复杂局面。我们将循序渐进,从一组有限的项目开始,随着循证数据库的建立再逐渐扩大规模。
应对隐私和安全问题
在应用人工智能时,隐私和安全问题至关重要,尤其是考虑到人工智能可能会越来越多地用于涉及个人敏感信息的情况。定期进行隐私和安全评估,确保遵守包括数据保护法在内的相关法规,保持透明,实行问责制,并不断与利益相关方接触以改进系统。此外还有一个关键点:确保在基于知情同意收集敏感数据之前采取此类措施,提供退出选项,并以适宜的当地语言分享信息。
建立公平获取机制
在人工智能的快速转型过程中,对AI的公平获取、应用和解决系统性不公平,有很多重要问题都需要提出来。公平获取的承诺不仅涉及分配,还涉及开发环境中AI应用的所有权、维护和支持问题。
保持透明
商业公司具备将AI工具进行商业化的潜力,所以我们明白以透明的方式开展这项工作的重要性。我们所有的赠款都有公开记录,我们坚持以利益冲突原则指导所有的工作。数据作为一种公共产品,应该最大程度地共享并进行持续的测试、改进和创新。
现在还是人工智能发展以及将它用于改善人类健康和发展的早期阶段。我们认识到了人工智能涉及的天然风险及负责任地应对这些风险的必要性。我们也期待着抓住这个契机,利用这场革命攻克迄今为止难以解决的挑战。正如我们在新兴的技术和平台上做的那样(如mRNA疫苗和治疗,用于疾病识别和跟踪的基因测序及其他转型工具等),我们很早就参与其中,力求让创新的成果公平惠及所有人。
出于同样的目的,盖茨基金会近期还发布了一项关于AI应用的“全球大挑战”项目。(请复制链接至浏览器链接了解更多:https://gcgh.grandchallenges.org/challenge/catalyzing-equitable-artificial-intelligence-ai-use),寻找在中低收入国家背景下,创新、安全地应用大型语言模型(ChatGPT)的方法,从而推动全球健康与发展、性别平等以及全球机遇与增长。被选中的项目将获得最高10万美元的资助,项目发起人将参加今年10月在达喀尔举行的“大挑战”年会。