影响你生活重大决定的算法,你的每一个动作都会在互联网留下痕迹

科技全频 2020-08-19 08:49:24

英格兰成千上万的学生为确定今年GCSE和A级成绩的算法的使用争议而感到愤怒。

由于被锁定原因,他们无法参加考试,因此该算法使用了有关前几年学校成绩的数据来确定成绩。

这意味着今年大约40%的A级成绩比预期低,这对学生下一步的工作产生了巨大影响。GCSE的结果将于周四公布。

有许多算法示例可以对我们的生活做出重大决策,而我们不必知道他们如何或何时这样做。

这只是其中的一些。

社交媒体

在许多方面,社交媒体平台只是巨大的算法得来结果。

在他们的心中,他们会计算出您感兴趣的内容,然后再为您提供更多信息-使用尽可能多的数据点。

每个“喜欢”,观看,点击都被存储。大多数应用程序还会从您的网络浏览习惯或地理数据中收集更多数据。这个想法是预测您想要的内容并使您不断滚动-它可以工作。

那些知道您喜欢可爱猫咪视频的算法也可以用来向您出售东西。

社交媒体公司收集的有关您的所有数据也可以以极其精确的方式为您量身定制广告。

但是这些算法可能会严重出错。事实证明,它们推动人们走向仇恨和极端主义的内容。极限内容比在社交媒体上产生细微差别要好得多。算法知道这一点。

Facebook自己的民权审计要求该公司尽其所能,以防止其算法“驱使人们走向自我强化的极端主义回声室”。

上个月,我们报道了在线零售网站上的算法如何设计出想要购买的东西,这些算法如何推动种族主义和仇恨产品。

保险

无论是房屋,汽车,健康保险还是任何其他形式的保险,您的保险公司都必须以某种方式评估实际发生问题的可能性。

《大数据:规模问题》的作者蒂姆德拉·哈克尼斯(Timandra Harkness)表示,在许多方面,保险业率先使用过去的数据来确定未来的结果-这是整个行业的基础。

使计算机正常运行始终是合乎逻辑的下一步。

她说:“算法会极大地影响您的生活,但作为一个人,您不一定会得到很多投入。”

“我们都知道,如果您改用其他邮政编码,您的保险费用就会上升或下降。

“那不是因为你,而是因为其他人或多或少地成为犯罪的受害者,发生事故或其他原因的可能性。”

诸如可安装在汽车中的“黑匣子”之类的创新技术可以监控单个驾驶者如何帮助降低自己在高风险人群中的驾驶员的汽车保险成本。

随着算法了解更多有关我们自身情况的信息,我们是否可能会看到更多个人定制的保险报价?

蒂姆德拉说:“最终,保险的重点是分担风险-因此每个人都投入(金钱),需要它的人将其拿出来。”

“我们生活在一个不公平的世界中,因此,您制作的任何模型都将以某种方式不公平。”

卫生保健

人工智能在诊断各种疾病甚至建议治疗途径方面正在取得长足的进步。

2020年1月发表的一项研究表明,从乳房X线照片识别乳腺癌方面,该算法的性能优于人类医生。

其他成功包括:

·可以预测卵巢癌生存率并帮助确定治疗选择的工具

·伦敦大学学院的人工智能技术,识别出最有可能错过约会的患者,因此需要提醒

但是,所有这些都需要大量的患者数据来训练程序-坦率地说,这是相当数量的蠕虫。

2017年,英国信息委员会裁定Royal Free NHS Foundation Trust 在与Google的AI部门DeepMind共享了160万条患者记录时,在保护患者数据方面做得还不够。

DeepMind的联合创始人穆斯塔法·苏莱曼(Mustafa Suleyman)当时说:“找到令人振奋的新方法来改善护理与超越患者的期望之间存在一条很好的界限。”

警务

大数据和机器学习具有革新警务的潜力。

从理论上讲,算法具有执行“预测性警务”的科幻承诺的能力-使用数据(例如,过去发生过犯罪的地点,时间和人员)来预测在哪里分配警察资源。

但是这种方法会造成算法偏差,甚至造成算法种族主义。

技术智囊团WebRoots Democracy的Areeq Chowdhury说:“情况与考试成绩相同。”

“为什么要根据其他人的历史来评判一个人?相同的社区总是代表过多”。

今年早些时候,英国国防和安全智库RUSI 发布了有关算法监管的报告。

它对缺乏国家准则或影响评估表示关切。它还呼吁对这些算法如何加剧种族主义进行更多研究。

面部识别-也被批评为包括英国大都会警察在内的英国警察所使用的面部识别。

例如,人们担心进入面部识别技术的数据是否会使算法成为种族歧视。

罪魁祸首是面部识别相机在识别白脸时更准确-因为它们在白脸上的数据更多。

“问题是,您是否在足够多样化的人群中进行测试?” Areeq说。

“您不想要的是由于该算法某些群体被误认为犯罪分子的情况。”

获取更多科技新资讯,欢迎订阅关注“科技全频”。

0 阅读:7

科技全频

简介:发现科技新知识,带你领略科技魅力。