应该不是这么简单的实现,Web of trust正常是要结合多个维度来打分比较客观,比如结合关注、互动(评论、点赞、转发)、黑名单等。之前作者提到一句“Iris rejects posts from authors that your social network has had no interaction with. But sometimes people in your network follow or reply to randos on other apps, and they connect with spammers. ”,其中的"interaction with"我猜测就是把互动的也考虑进去了,这样global会显示更全。
试用了下 https://iris.to/ 客户端,它通过web of trust的方式很不错地解决spam轰炸,global的机器人广告基本看不到了。
称它为放大版朋友圈更合适,因为本质上已经不是global。
不知道它的算法延伸到几度人脉,朋友,朋友的朋友,朋友的朋友的朋友……
希望后面提问点击查看帖子,可以显示我和博主的关系,比如是我关注的A关注了此博主,所以显示在这里。如果出现了机器人帖子,可以找出打入社交网络的”内鬼“。
Discussion
可能,没看具体实现。
不过我觉得学简单越好,可以让用户确认为啥会看到某条帖子。减少推特那样的暗箱推荐。这也是回复中William 的担忧。
我理解广告垃圾信息的出现,本质上是封闭系统内必然会出现的熵增现象。
无论多么巧妙的算法都只是为了降低该封闭系统内的熵增。
无论何种算法,皆是信息排序组合的方式。
算法本身还是系统的一部分,若其并不从外界引入任何能量的话,仅通过纯粹算法的改进,期望达到系统内熵减的效果,显然是违反了热力学第二定律的。
只有按行为(Behavior)付费,让行为计算自己,按聪(Sats)排序的算法,才是降低系统内部熵增的唯一有效且最佳解决方案。
对于每个用户自己的社交网络,用户都在按照上面帖子描述的方式输入能量,维持一定秩序。
任何行为本身并不具备能量属性,用户并没有动力去输入能量审查广告贴。
即便所有用户会主动愿意参与审查,通过人的智能所控制机器的完全免费广告行为也会淹没普通用户的努力。
即便推荐算法非常智能,也无法对抗广告行为参与者的智能,毕竟前者是未通过图灵测试的自动化机器算法,而后者是真正的人的智能。
或者我们假设人的智能在不断改进推荐算法,但与此同时人的智能也在不断改进发送垃圾广告行为的机器学习能力。两种情况下人所付出努力是完全对等的。
我们把任何行为都完全看成平等的,包括广告行为、垃圾信息(并无法准确定义)、用户行为,它们共同组成了一个能量输入为零(垃圾广告行为消耗了算法和用户审查的努力)的形式系统。该形式系统内缺少外界能量的持续输入,熵增是必然的现象。
所以用户自身行为所输入能量的总和为零,你并不能假设所有用户都会自发地维护秩序而不做任何破坏系统秩序的事情。
在有利可图的情况下,任何一个普通用户都有发送垃圾信息的倾向性,也有不发送垃圾信息的倾向性,二者是完全对等的。
#[1]