读AI未来进行式笔记10幸福感

躺柒 2024-06-11 12:53:20

1. 幸福感1.1. 所谓的抑郁只是制药公司发明出来的营销概念1.2. 幸福是非常主观的感受1.2.1. 对于中低收入人群,财富的确能带来一定程度的幸福感1.2.2. 可一旦超过一定的金额之后,它的边际效应就会递减,甚至还会有反效果1.2.3. 中了彩票的人并不比对照组更幸福1.2.4. 事故受害者尽管当下更不幸福,对未来幸福感的预估却和普通人无异1.2.5. 通往自我实现的道路并非一路向上,而是起起落落,有高峰也有低谷1.2.6. 如果被不安全感控制,你就无法得到真正的爱和归属感1.2.7. 幸福不是一件非黑即白的事情,而是一种持续的追求1.3. 没有意外也就没有灵感1.4. 在科技巨头垄断的时代,所有人的数据像一座座孤岛,分布在不同的产品海域1.4.1. 每座岛屿只负责处理某个特定领域的事项:娱乐、购物、社交、职业、健康、投资、保险1.4.2. 有时这些数据岛屿会被切分成更垂直的品类,但更多时候是岛与岛之间的融合兼并1.4.3. 巨头们用算法操控人们的心智,左右政治选举结果,散布关于种族仇恨与性别歧视的言论,滥用或泄露个人隐私,强化信息茧房,让用户沉迷于即时性的感官刺激,甚至上瘾1.4.4. 如果没有中间件通过标准接口抓取到你分散存储在各个平台上的数据,再交给AI进行联邦学习,就不可能最大化地满足你的需求1.4.4.1. 中间件技术供应商必须遵守政府制定的可靠性、透明度与一致性的标准,并通过付费订阅方式避免与大平台争利,或者受流量变现的诱惑而走上巨头的老路1.4.4.2. 中间件系统的兼容架构允许两套算法并行不悖,如同在同一片海域中的两股洋流1.5. 定义的问题1.5.1. 到底什么才是“幸福”?1.5.2. 从马斯洛的需求层次理论到塞利格曼的积极心理学,历史上关于幸福的定义和理论不计其数1.5.3. 这个问题更复杂的地方在于,20年后,人类的生活水平将在AI技术的加持下实现质的飞跃1.6. 衡量标准的问题1.6.1. 幸福”是一个抽象、主观而且千人千面的概念1.7. 数据的问题1.7.1. 要开发能够给人类带来幸福的强大的AI,离不开海量数据的支持,其中的大量数据还会涉及个人隐私1.7.2. 《通用数据保护条例》是一套保护个人隐私和数据的新规,旨在帮助人们重新收回对个人数据的掌控权1.8. 数据存储安全的问题1.8.1. 历史告诉我们,只有当这个实体的利益与用户的利益完全一致时,稳定可靠的关系才能被建立起来1.8.2. 在未来,如何找到或创建一个其自身利益与用户利益一致的实体,或将成为最关键的问题2. AI时代的幸福准则2.1. 1943年,美国心理学家亚伯拉罕·马斯洛发表了著名的《人类动机理论》2.1.1. 五个层次,呈金字塔形,由低到高依次是生理、安全、爱与归属、尊重以及自我实现方面的需求2.1.2. 金字塔需求模型最底部的两层基础需求已经得到满足的人,会更愿意去追求更高层次的精神幸福,如爱与归属、尊重、自我实现等,而不是追求物质财富、肉体欢愉这类较低层次的幸福2.2. 心理学家迈克尔·艾森克(Michael Eysenck)用“享乐跑步机”来形容人类的幸福感状态2.2.1. 尽管生活中会有许多积极或消极的事情发生,个人的物质财富也有增有减,但人们的幸福感最终会调整到一个相对稳定的水平2.3. 物质财富确实能在短期内让幸福感有所提升,但长期来看,物质财富与幸福感的关系并不大2.4. 对幸福的追求也将从肤浅的物质享乐转向更高的精神追求3. 如何利用AI衡量和提升幸福感3.1. 直接问就行了3.1.1. 通过问答的形式来评估人们的幸福感,可能是目前最可靠的方法,但这种方法不便于长期使用,因此必须开发其他的衡量手段3.2. 依托于一系列日新月异的技术3.2.1. 利用物联网设备(摄像头、麦克风、运动检测仪器、温度或湿度传感器等)捕捉用户的行为反应、面部表情、声音信息,然后使用情感计算算法(识别人类情绪和情感),输入所采集到的物联网数据,输出每个人的情绪识别结果3.2.2. 情感计算算法不仅能够识别出人们的普通表情(通常持续0.5―4秒),而且能识别出微表情(通常仅持续0.03―0.1秒),这些表情包含了丰富的情绪信息3.2.3. 脸色也是算法能够识别的重要物理特征之一3.2.4. 人在讲话时声音的高低、节奏的快慢、语调的轻重,也可以用作评估一个人情绪的有效特征3.2.5. 因为能识别出如此多的特征,AI会比人类更准确地检测出一个人的情绪(诸如高兴、悲伤、厌恶、惊讶、愤怒或恐惧等),而且AI还可以在同一时间内对多人进行观测,然后结合对周围人的观察结果,得出更进一步的评估结论3.2.5.1. AI识别人类情感的能力已经超过了人类的平均能力3.2.5.2. 尽管AI能够精准识别人类的感情,但这并不代表机器人也能表达感情,更不代表机器人有感情3.3. 持续监测与特定感觉和情绪相关的激素水平3.3.1. AI可以识别出客人在进行什么活动时会感到快乐,处于什么环境下会感到幸福,然后利用这些数据训练AI模型,让其能够识别幸福感3.4. 要建立一个真正科学严谨、永不翻车的“幸福发电机”,我们需先在科研层面解决一些极为棘手的问题3.4.1. 要制定幸福感指标3.4.1.1. 人类的心理状态是由脑电波、大脑组织结构以及身体内的化学成分(激素)这三部分协同决定的3.4.2. 实现更高层次的需求意味着不再寻求当下的满足感,而是要追寻人生的意义或目标,并为之付出长期的努力3.4.2.1. 长周期学习对于AI来说非常具有挑战性,因为当测量出一个人的幸福感上升时,AI无法确认这是当下的活动所导致的结果,还是上周或者上一年的某个事件所导致的结果,甚至不排除是以上多重事件共同导致的结果4. AI数据4.1. 数据聚合是构建强大的AI必不可少的步骤之一4.1.1. 通过“淘宝”知道我们想要购买的商品4.1.2. 通过“支付宝”知道我们的资金流动情况4.1.3. 通过“高德地图”知道我们去过的每个地方(除非我们关闭了定位功能)4.1.4. 通过“饿了么”知道我们的口味偏好4.1.5. 通过“天猫精灵”知道我们在家时都做了什么4.1.6. 阿里巴巴可以为我们提供非常独特的定制服务,同时,阿里巴巴也将源源不断地从数亿人身上收集到海量的数据4.2. 互联网巨头对我们的了解可能远超各位的想象4.2.1. 它们不仅可以推断出我们的家庭住址、种族、性取向,以及我们为什么心情不好,甚至还能猜到埋藏在我们心底的秘密,如偷税漏税、酗酒或者婚外情等4.3. 隐私问题不但引起了人们的重视,也引发了政府关于应该如何行动的探讨4.3.1. 对于数据是否会成为互联网巨头垄断的根源这一问题,包括中美在内的多个国家都在密切关注5. 通用数据保护条例5.1. 设计GDPR的初衷(透明度、问责制、保密性)是善意的、高尚的5.1.1. AI是不断进步的技术,会不断有新的应用出现,所以在收集数据之初,系统无法穷举每一条数据未来的所有用途5.1.2. 如果企业在每次进行产品功能升级时,都就每条用户数据征得用户的同意,那么对于用户来说,也是不可接受的骚扰5.1.2.1. 用户造成极大的干扰5.1.2.2. 绝大多数用户都是未经思考就“同意”授权,所以并没有真正实现保护用户数据的目的5.2. 推行GDPR是一个良好的开端,为世界提供了一种新思路,有的国家正以此为基础构建自己的数据保护体系5.3. GDPR的最终愿景是将个人数据的使用权还给个人,让每个人都能控制并知悉个人数据将会被谁查看、使用并从中获利,而且有权拒绝其他个人或机构使用这些数据5.4. 2018年正式生效的GDPR规定,企业对用户数据的使用必须是透明的,用户有权了解自己的数据将被如何使用5.5. GDPR还要求,如果用户对AI的判断不满,用户有上诉请求人类仲裁的权利5.6. GDPR的目标是确保企业存储最少的数据,同时确保企业立即删除存储时间超过一定期限的数据5.6.1. 这些都会严重影响AI的效果和发展5.6.1.1. 不是失去了原有的功能,就是变得不再智能6. 可信AI6.1. 与其舍本逐末,因对隐私方面的担忧而全然舍弃AI所能带来的便利,不如等到技术成熟时,尝试构建一个值得信赖的“可信AI”6.1.1. 可信AI将代表我们,根据我们每个人的价值观和喜好,以及提出数据请求的企业的可信度,评估对方所提供的服务是否值得我们冒提供数据的风险,然后做出决策6.2. 可信AI不仅拥有我们的全部数据,还可以利用这些数据判断出我们的想法和情绪,也就是说,在“可信AI”面前,即便我们试图隐藏,我们的一切也将无所遁形6.2.1. “可信AI”不仅会成为用户的强大助手,还会化身为数据保护者,以及所有应用程序的接口6.2.2. 我们可以把它视为在AI时代为数据建立的一种新的社会契约6.2.3. 所有从网站或App上弹出来的那些烦人的隐私条款和授权要求,将没有任何存在的必要6.3. 如果用户和“可信AI”持有者的利益发生分歧,那么用户的利益就失去了保障6.4. 互联网公司需要盈利,所以它们的AI必然把业务优化作为系统最重要的目标函数6.4.1. 可能导致互联网公司的利益和用户的利益背道而驰6.4.2. 要求互联网公司把用户利益设为最重要的目标函数也不现实,原因很简单,这将大幅削减企业的利润6.5. 最可靠的“可信AI”持有者,应该是一个没有商业化营利目的的实体,只有这样的实体,才会毫无保留地把用户的利益放在优先位置6.6. 如果我们要构建一个值得人们信赖、聚合人们数据的强大AI,也可以先看看是否有类似的催化剂6.6.1. 联邦学习就是一种可跨多个分散的边缘设备或保存本地数据样本的服务器训练算法6.6.1.1. 种算法无须用户把数据上传给算法持有者,它通过把训练任务交给不同的终端,在不接触用户隐私数据的前提下,就能完成模型的训练6.6.2. 名为同态加密的算法6.6.2.1. 即让AI直接在加密数据上进行训练6.6.2.2. 其背后的原理是,同态加密算法的加密是单向的,无法通过逆向破解倒推出用户数据6.6.3. 可信任执行环境(Trusted Execution Environment,TEE)技术6.6.3.1. 加密和受保护的数据可以在这种环境下被读取,在芯片上进行解密,然后成为AI的训练数据,但解密后的数据,永远不会离开芯片6.6.3.2. 很难保证芯片公司不在执行环境里设置后门6.7. 那些对新技术持怀疑态度的人,可能更认可类似于GDPR之类的强监管方案6.7.1. 我们必须以完全开放的态度去探索多样化的解决方案,这样才有可能找到技术创新与数据安全的最佳平衡点6.8. 把最有价值的个人数据交给第三方6.8.1. 相信绝大多数人都是把钱存在银行,把股票委托给证券公司,把比特币交给互联网。银行、证券公司、互联网,都是第三方6.8.2. 在未来,如果人们能找到值得信任的“可信AI”,并把所有数据交付给它,那么就会出现可以给人类带来幸福的强大AI系统6.8.2.1. 人们将不必再为无数的数据请求窗口所困扰,也不必担心自己的数据是否会被盗用或滥用6.8.2.2. 这个可信的系统,可能是一个仁慈的君主,也可能是一个开源公社,或者是一个分布式区块链网络6.8.2.3. 新技术的进步会让人类的数据隐私更加安全
0 阅读:1

躺柒

简介:书既能读薄也能读厚,输出才能检验输入,完成才能完善。