耕读频道 @igengdu | 耕读博客 igengdu.com
#算法推荐 #大数据 #信息茧房 #工具 #理性运用

作为信息“放大器”的算法推荐与人的思考

通常认为,算法推荐是不好的。
这篇文章的作者则分析算法推荐的好处。他认为,算法推荐的好处是:对于读者而言,将关联性的内容推送给读者,减少读者找同类内容的时间;对于创作者而言,算法推荐可以将其内容推荐给算法认为对此感兴趣的人。

我个人认为:大数据的算法推荐,在未达到超级人工智能之前,还不能真正给人制作难以甄别的假象或难以走出的信息茧房;此时的算法只是一种基于关键词、关键数据的推荐机制,类似于个人信息“放大器”。

对于“放大器”本身,可以用,也可以不用(对于读者、创作者同样如此),被动地用,消极地用。可以说,算法推荐只是工具,关键在于人的运用和自由选择。

或者说,造成信息茧房的真正的原因在于个人(不考虑群体制造的假象、人工智能制造的、人难以辨别真假的幻觉等)本身。

如果觉得这个算法推荐的“放大器”导致的后果(如信息茧房)不好,我们或许应该反思,是否是我们原来思考的内容太过简化、片面、单向度、固化,是否有必要深入、扩展下思考?

通过自己的思考和选择,就能走出所谓的算法推荐造成的信息茧房。

当然,电商平台根据大数据和算法推荐来杀熟(同一产品,不同人不同价格),那是平台为了利益最大化而做出的“歧视”“分层”行为,是不太好的行为,是值得人们抵制的。


📢 频道   ✈️ 群组 (耕读)   📬 投稿
#虚拟世界 #观点 #信任 #人性 #恶 #善

虚拟的世界,“信任”尤显可贵

在现实世界,我们通常能够比较全面地了解一个人,进而给予相应的信任程度和依赖、付出程度。

然而,在虚拟网络世界,由于缺少必要的了解,我们对他人的了解,通常不足的;而且,由于缺少有力的监管,人作恶的成本较低,作恶的愿望、可能性被放大,因而,稍有不悦,各种不好的事情就会频频发生:开盒(公布个人具体信息)活动屡见不鲜,稍不顺心就大骂对方“有病”“傻逼”。

在相对缺少监管的网络世界,人的谈话相对宽松的同时,人性的丑陋也得到了展露和扩展。因而,在虚拟世界,人们之间的信任,非常脆弱,却更显得珍贵。

我为人处事还算比较谨小慎微。之所以这样,其原因之一或许在于,我比较早地看清人情世事、看清人通常有的本性。然而,我还总是希望、期盼这个世界会简单点,这个世界会好的。

在虚拟世界,我尽量与人为善,分享有益、有用的内容。大部分网友、群友对我也很不错,诸如旺财大佬、F大佬、Crazypeace大佬、盒子大佬等,人都很不错。然而,总有让人心寒的事情发生,诸如你好不容易申请到的邀请码,发给对方后,对方拿着邀请码一个字都不回;你想提供有趣、有用的服务,结果别人攻击你的网站,把你的甲骨文永久账号偷走了。我认识的旺财大佬,免费分享高质量节点3~4年,却经常发生:其辛苦搞来的节点,很快被群友分享到公开的Github仓库,如此等等。

我的结论是:我不能沉溺或倚重于网络,程序和代码只是为了解决生活中问题而生,但代码和程序不能主导、也不能取代生活。无论是在现实、还是虚拟世界,尽量谨慎地做一些真正有意义的事情。

📢 频道   ✈️ 群组 (耕读)   📬 投稿
#AI #信息 #甄别 #审慎

近日AI新闻:人工智能领军人物提醒,人工智能或许会威胁人类安全。

数名OpenAI、谷歌DeepMind现任和前任员工签署公开信警告人工智能存在巨大风险:

1.OpenAI的人工智能系统已经接近人类智能水平,通用人工智能AGI有50%的可能性在2027年就会问世,而不是此前预测的2050年!

2.这封公开信指出,人工智能的发展可能会带来一系列的风险,例如加剧现有社会的不平等、助长操控和虚假信息传播,以及失控的自主人工智能系统可能导致人类灭绝等。

签署公开信的多位OpenAI前任雇员曾从事人工智能安全工作,为公开信背书的业内大佬则有“人工智能教父”Geoffrey Hinton、因开创性AI研究而获得图灵奖的Yoshua Bengio,以及AI安全领域的顶尖专家Stuart Russell。

新闻来源:源1源2

📢 频道  ✈️ 群聊 (耕读)  📬 投稿
 
 
Back to Top