科学技术是社会发展的动力,像空气一样如影随形,渗透进我们的毛孔和呼吸。特别是近几年大热的算法推荐,就是传说中“感受不到的科技”之一。
1、什么是算法推荐?
算法推荐指跟踪用户网络行为,使用算法计算个人特征,环境特征和其他相关信息,以估计用户可能喜欢的内容。
虽然这么介绍,或许你还不能了解什么是推荐系统,但在日常生活中,你一定碰到过这些情况:
日常一天
清晨7点起床看新闻,今天的头条新闻将根据您的浏览痕迹和每列的频率推出符合您口味的新闻内容。
上班路上8点,当您开车时,您在云音乐中选择“私人FM”并偶尔打开“每日推荐”。你知道它似乎认识你。大多数推荐的歌曲与你的相似。
中午12点的Lunch Time,国际会议即将取消。主页显示几乎所有餐厅都已订购,所以我选择了最受欢迎的餐厅。
下午3点开始犯困,你的老板没有开始在水中钓鱼,颤音中的小视频一遍又一遍,所以有很多歌唱,跳舞和滑稽的傻瓜。
下班6点后的地铁里,你钻了B站,发现只要云吸了一只猫,就有一只可爱的猫无法完成刷牙。
终于到晚上10点,由于天气寒冷,你搜索了秋冬裤袜,淘宝为你提供了秋裤的折扣信息,比父母的问候更贴心。
淘宝猜测你喜欢,私人电台音乐歌曲,微博热门推荐等等,都是推荐系统输出的内容。所以从我醒来的那一刻起,每天24小时,8小时的睡眠,实际上,我们正在处理推荐系统。
这提出了一个问题:到底是我们利用“算法推荐”获得了便利,还是“算法推荐”在隐形消费我们?
2、简单算法暗藏逆流
根据算法的逻辑,人们过去的网络行为决定了当前内容的呈现,而当前行为决定了未来信息的呈现。
这为Internet上的人创建了高度准确的“用户肖像”。您观看的视频,您听过的歌曲,您购买的东西,您喜欢的爱情豆......“自画像”标签为您提供更准确的内容。
殊不知,简单的算法推荐下却暗藏逆流。
流量当道
漠视价值观
远离主流价值驱动因素,无需编辑手动控制信息的质量,依靠流量数据算法,每个用户显示不同的信息内容和价值,让用户陷入盲点值
哪部分内容对应人群,并且只推荐这部分给他们,为了最大化分红流,忽略“社会道德底线”和“价值观“,假新闻、标题党、星、腥、性等内容非常受欢迎,仅供参考博客使用
让人止足
作茧自缚
我们都知道,当人们站在山顶,在对面的山上大喊大叫时,人们会把“你好”叫到山顶,对面的山会给你“喂食”。
算法也是如此,你的反应行动,一旦被记录下来,就会像那声“喂”的回音再反弹给你。
借助算法技术的强大功能,它还可以学习如何增强您的行为,塑造一个以个人喜好为主宰的乌托邦世界,里面全是你喜欢的内容,而那些不熟悉不认同的统统被筛掉了。
我们建议在重复算法下使用不断强化了自己的固有喜好,容易滋生偏见,价值认同难度加大。再难接受新鲜的事物和观点,甚至会与其他群体建起一道沟通壁垒。
。 。
再听不见
其他声音
这也证实了Neumann的“沉默的螺旋”理论。
在完全以自我喜恶为主导的乌托邦里,如果你偏向于某一种声音,那么灌输给你的信息体系里,迎合于你这方的价值取向会广受欢迎,相反的声音则会销声匿迹。
该算法巧妙地伪造了用户的“虚拟世界”作为站在大多数人的公平一侧的用户,这使得人们认为许多人对自己持有相同的观点。导致舆论环境下正确的观点反而得不到伸张。
网络舆论就失真了,关起门来只听自己的声音,再听不见其他声音,这就完全背离了网络舆论的公共性、广泛性。
3、信息流发展下的思考
拥有先进的技术和强大的算法是好事,但在宏观网络世界里,科技的弊端往往会被放大。用户很容易沉浸在他们自己的“舒适区”的三分之一,并且不愿意接受公共空间。
因此,对于我们这些长期智能平台的人来说,我们的思维方式应该更具包容性和开放性。我们必须敢于探索和创新,而不是声称自己是小世界的王者。没有人是一座孤岛,走出去拥抱外面的精彩,不做井底之蛙才能体味人生百态。
而平台公司也应该承担责任,不放弃善意的流动,用户体验非常重要,但社会道德的底线更为重要。对有强大技术支撑的平台来说,可以从算法入手,开发更新技术和算法,走在内容前面进行质量的筛选把关。不能让算法完全决定了内容。
世界因科技变不同,技术能改变人类的生活方式,也能将其毁于一旦,是福是祸在于我们自身如何把握度量。未来随着大数据和智能机器人的火热,推荐系统也将愈发成熟,程序员也需要不断研习进步,才有能力提供一份社会担当。