“我看不起直播带货的企业家”——农夫山泉钟睒睒批算法作恶

壹零社科技宅 2024-11-21 04:44:54

“有人利用了算法,屏蔽了多角度来的消息。很多恶是人为造成的,尤其是利用了科学、科技手段、技术能力后,那造成的恶比普通人造成的恶要大。”钟睒睒说。

01

农夫山泉钟睒睒语出惊人

“我仍不希望大家去喝绿瓶水(纯净水),它就是不值钱!”

“我看不起直播带货的企业家,你可以做更有价值的东西。”

“有人利用了算法,屏蔽了多角度来的消息。很多恶是人为造成的。”

……

11月19日晚,农夫山泉创始人钟睒睒在江西赣州出席活动时谈及今年上半年遭遇的网络暴力、做绿瓶水背后的故事以及对网络直播的看法,他一一做了解释和回应。值得注意的是,当被问及一系列热点话题时,钟晱晱也积极回应。

相较于走流程式的访谈,钟晱晱抛出的一些话语足称得上“语出惊人”了,尤其是对农夫山泉“小绿瓶”和“网络算法”两个话题的表达,快速在互联网上发酵。

2024年4月底,农夫山泉推出了纯净水“小绿瓶”,并采取低价营销策略,12瓶的包装最低只卖9.9元,这究竟是农夫山泉应对之前网络攻击的临时策略,还是长期性的布局?

对此,钟睒睒表示,农夫山泉一开始做的就是纯净水,而纯净水是甜的,所以有了“农夫山泉有点甜”的广告,后来了解到矿物质对人体的重要性后,他就要求停止生产纯净水,全部生产天然水。

“现在有人说农夫山泉造谣、不甜了,那是因为水里的矿物质——如钙和镁,是苦涩的味道。”钟睒睒坦言,上半年推出“小绿瓶”(纯净水)是意气之举,他仍然不希望消费者去喝绿瓶水,所以定价上和天然水拉开了差距。他想告诉大家:“红瓶水(天然水)就是值这个钱。”

当然,相较矿物质和健康,我们更关注的还是钟晱晱对于互联网算法的态度。

采访中,钟睒睒提到,今年3月,农夫山泉和他本人受到了自公司成立以来最为严重的一次网络攻击。他认为,这一事件背后,是算法遭到利用,对网友进行了多角度的信息屏蔽。

“当你打开这些平台,看到的总是同样的内容。有人在利用技术手段,这些人造成的伤害远远超过普通人所造成的伤害。需要社会去遏制,需要政府站出来主持公平。”钟睒睒认为。

他还质疑,在谣言中,是否都需要一个反派角色来制造对立,正如好莱坞电影中常见的那样?如果缺乏这样的对立,一些平台似乎难以持续吸引流量,如果是这样,他认为,这样的平台是极其恶劣的。

“算法的恶是有知识的人生产的,不是底层老百姓,老百姓仍然是受害者,那些骂钟睒睒的人不是既得利益者,他们也是受害者,他们因为不了解真相而怀有仇恨,实际上,我们需要的是良好的营商环境和对企业家的尊重。”钟睒睒说。

02

算法作恶

不知不觉被带节奏的网民

提及互联网算法作恶,很多人其实第一反应是外卖、网约车,强大的算法让打工人成为了一种被高度控制和剥削的劳动形式。

外卖平台无疑是最典型的存在。让打工人成为了一种被高度控制和剥削的劳动形式。在数字资本主义阶段,智能算法成为劳动者劳动过程的主要管理者和监督者,通过游戏化劳动、赶工游戏等方式模糊了资本家对劳动者的剥削事实,使劳动者沉浸于虚假的满足感中。

此外,平台经济中的算法管理不仅限制了工作者的行为自主性,还通过算法控制策略操纵这些方面,导致劳动者在行为上的自主性受到限制。

在数字资本主义阶段,智能算法成为劳动者劳动过程的主要管理者和监督者,通过游戏化劳动、赶工游戏等方式模糊了资本家对劳动者的剥削事实,使劳动者沉浸于虚假的满足感中。

然而,大多数人更多时候其实觉得“算法作恶”同自己并没有太大关系,毕竟无论是外卖还是网约车,消费者更多时候反而感受到的还是算法带来的便捷数字生活体验,可事实真的如此吗?当钟晱晱

这样的富豪都能感受到“算法作恶”带来的信息屏蔽和不公时,其对算法的“炮轰”更多是指当下隐隐存在的“算法歧视和偏见”问题。

科技没有国界,算法也没有情绪,可控制算法或者培育算法的人会有。

算法歧视和偏见是当前人工智能领域中一个重要的伦理问题,其根源和表现形式多样且复杂。算法歧视通常指的是在算法决策过程中,由于设计者、训练数据或人机交互中的偏见,导致对某些群体产生不公平或有偏向性的结果。

算法偏见的产生有多个原因。首先,数据生产环节的偏差是一个主要原因,如果训练数据样本代表性不足或存在主观偏好,那么算法在处理这些数据时就可能复制或放大这些偏见。其次,算法模型设计与训练过程中的不当操作也可能导致偏见,如模型可能将少数族群视为离散数据或噪音,从而埋下社会歧视的风险。

此外,算法与外界环境交互时,负面数据有机会被利用,形成反馈循环,进一步强化原有社会偏见。

具体在新闻传播方面,算法在设计和运行过程中可能继承并放大社会中的偏见,从而导致新闻报道的不公正和不对称,而最为典型的就是Facebook的“偏见门”事件。

事件的起因是一名Facebook前合同工(非正式员工)向科技博客网站Gizmodo爆料,称他们在Facebook以新闻专业人员的身份进行工作时,发现Facebook的新闻趋势榜并非完全由算法自动完成,而是存在人为干预。爆料者指出,编辑团队可以有意地让某些新闻变得重要,而让其他新闻变得不重要,甚至有意打压保守倾向的媒体及其报道。

Gizmodo在2016年5月9日发表了这篇爆料文章,迅速引起了媒体圈的骚动。美国国会方面也要求Facebook正式解释此事。Facebook的高管们迅速出面回应,否认存在人为操纵和偏见,但这一回应并未平息舆论的质疑。

随后,有媒体获得了Facebook的内部文件,这些文件进一步证实了编辑团队在热门话题选择上的自由裁量权。英国《卫报》率先刊发了这些泄露的文件,并据此对Facebook提出了明确的质疑。

在舆论压力下,Facebook于5月12日首次对外公布了其内部编辑守则。该守则显示,热门话题会首先经过算法自动筛选,然后再由热门话题团队进行第二轮审核。但这一解释并未完全消除公众的疑虑。

显然,当十年前社交平台都能用算法引导社会舆论、引导社会共识时,算法和大数据应用已经不知道迭代多少次的今天,各个社交平台真的能确保自己的算法或者说算法裁量标准没有一点偏向吗?

不过相较引导社会舆论,互联网算法其实更喜欢干的事儿是——算法推荐!

03

算法推荐打造信息茧房

评论区也能量身定制

购买一款健身器材后,互联网平台总是给我推荐一些运动课程或小视频;查询一款家常菜做法后,视频平台总是给我推荐一些美食博主或烹饪视频;留心珠海航展后,各种军事博主就成为我新闻App或视频号的高频推送……

互联网算法想要懂我们其实并不难,短视频平台的推荐算法会根据用户的行为数据(如观看历史、点赞、评论、分享等)来分析用户的喜好,并据此推荐相关的内容。这种个性化推荐不仅提高了用户的满意度和留存率,还增加了平台的商业价值。

此外,推荐系统还会考虑内容本身的特征,如视频风格、创作者特点、热门话题等,以确保推荐内容的多样性和新颖性。

这种推荐机制本身是为了给用户提供更好的服务,但却加速了互联网信息茧房的构建。

不少人对信息茧房的理解还停留在信息推送层面,现代网络平台通过算法对用户的行为和兴趣进行分析,从而推送定制化的信息。这种精准推送虽然提高了用户体验,但也加剧了信息茧房的形成。

可随着互联网算法持续迭代,即便是同一内容,不同用户看到的评论区其实也是“可控”的。

不同账号在观看情侣吵架视频时,评论区的内容存在显著差异。即使尝试以不同身份参与讨论,也无法改变评论区的顺序,这表明算法在定制评论区内容时具有一定的封闭性。

左男右女

评论区的算法定制化现象意味着同一内容下,不同用户的评论区展示的内容可能完全不同。评论区的算法定制化导致了观点碰撞的场所变成了单一观点的支持场所,这使得不同立场之间的隔阂、对立、误解与撕裂进一步加剧。

评论区本应是不同观点自由表达的场所,但算法操控下,每个用户优先看到的是与自己意见一致的同质化评论,这不仅限制了用户的认知,还强化了偏见。

04

AI时代

用户与算法的相互驯化

随着AI时代拉开帷幕,用户与算法的双向影响变得尤为突出。

AI算法通过个性化推荐和智能推送等方式,极大地改善了用户的在线体验。

AI算法能够根据用户的浏览历史、搜索记录和偏好,提供定制化的搜索结果和产品推荐,从而提高用户满意度和参与度。这种个性化服务不仅提升了用户体验,还推动了电子商务的发展,通过精准的推荐增加了用户的购买意愿。

然而,AI算法也存在潜在的负面影响。

一方面,算法可能会放大用户的偏见,导致用户喜好趋同现象。当用户在电影评分网站上给某部电影打分后,系统会推荐类似风格的电影,这可能导致用户逐渐失去探索新内容的动力。另一方面,过度依赖算法推送的内容可能会影响用户的情绪和价值观,例如推送不健康或不适当的信息,甚至可能引发用户对算法的抵触情绪。

此外,AI算法在提升用户体验的同时,也带来了隐私和安全方面的挑战。由于算法需要收集大量用户数据以进行个性化推荐,这引发了用户对数据隐私的担忧。因此,企业在使用AI算法时必须确保透明度和公平性,以增强用户对系统的信任。

值得注意的是,用户也在积极地与AI算法互动,以优化自己的使用体验。

一些年轻用户通过学习和了解算法的工作原理,主动调整自己的行为以获得更好的推荐结果。这种互动不仅提升了用户的自主性,还促进了算法的改进和发展。

而在用户和算法的相互影响过程中,不仅互联网平台要努力寻找平衡,用户也需要警惕算法被有心之人利用。

05

写在最后

“技术中性”不能等同于“价值中性”

“技术中性”不能等同于“价值中性”,不能让价值观成为算法技术的附庸。算法推荐毋庸置疑是一个价值观问题,技术可以没有价值观,但是作为技术发明者、操纵者的人,不能没有价值观。

近年来,针对算法推荐引发的诸多乱象,相关监管部门频频依法重拳出击——约谈、处罚整改、永久下架、暂停算法推荐功能等手段多措并举。然而,现实中却总能看到这样的现象:即便不断地打击、处罚和整治,却难以遏制劣质内容“换个马甲”、变换渠道再次生长。这是为什么?

首先,算法决定了内容的展现形式——不论用户上传的是文字和图片,还是视频或直播,算法都需要将这些抽象出特征,分门别类进行统筹标记。其次,算法决定让什么样的人群看到什么样的内容——算法推荐分发系统,会按照用户标签、兴趣点、位置、相似用户喜爱偏好、在线时间、使用机型等行为细节来设置算法匹配,实现“不是用户决定自己想看什么,而是平台决定用户能看到什么”。

同时,算法推荐不仅是价值观问题,还是法律问题,需要纠正“流量为王”的价值观,用积极健康、符合公序良俗的价值观指引算法推荐的设计和应用。这表明技术的应用不仅需要技术自身的中立性,还需要法律和社会规范来引导其发展方向。

1 阅读:36

壹零社科技宅

简介:感谢大家的关注