赚钱的社会准入门槛高了,并不是你的错,是社会机制出了问题。从最功利的角度讲,就算你再笨也是一个调校亿万年的智能体啊,大脑功耗不超过25w/h,有效计算效率高AI万倍以上,但是社会不能用,只能浪费掉,怪谁?
因此不要跟自己内耗了,多去找找同类、同趣,多去想想怎样改善生存环境,让更多的人生存的更好些吧。
其实web2的平台本来也有这种潜力,但是因为他们的商业模式的闭源性,阻碍了关系链和生产模式的进一步升级。AI如果要往这个方向发展一开始就不应该往公司的方向走,商业模式需要重新设计。
他们的理念挺有意思
同意你的不等式,我也不认为组织会消失。但是AI的嵌入会让公司的组织形式大变。个人也不再需要通过公司的接口来嵌入到社会大生产和分配中去,还可以选择通过AI接口,直接参与到一个个具体的生产项目中。届时个人在项目中的身份可能会很复杂,消费者,投资者,生产者有可能三位一体,边界变得模糊。
但是这种情况也有可能导致个人的进一步原子化,因此不能只从生产效率的角度来评估项目的价值,提升个人幸福感和体验感,生产活动中建立的人与人的可信关系都要考虑进来。
#商业
公司这种组织的出现,源于稳定性的需要。
当有人发现了一个具有一定规模、相对稳定的需求后;
提出了一套解决方案,需要一个相对稳定的团队实现并改进这个解决方案;
最终会达到这个需求总量和外部竞争形成的天花板;
但在此过程中会沉淀下很多知识,生产线、信任等组织资源,从而形成一个微环境,更容易在一些特定领域重复上述的过程;
不断重复后,组织规模日益庞大,但组织内部的信号传递效率等开始下降,激励不相容增加,导致组织内部摩擦增大;
最终组织达到了扩张的边界,形成了相对稳定的内部利益格局。
这个过程最初是多赢的,需求是相对稳定的,解决方案相对稳定而且需要稳定的优化,生产过程需要稳定,消费者,投资者,员工都需要稳定、可预期,甚至在某些阶段出于企业形象、道德文化激励的需求,企业的外部性也会保持为正。但是随着需求的变迁,资本的复利要求,组织内部摩擦成本的增加,一切都会发生变化,组织开始进入衰亡阶段。但组织也有生的本能,层层叠高的壁垒,层出不穷的手段,最终让组织癌变变成了一个“既得利益集团”,可以说这就是社会的癌症。
AI出现后能不能改变这个局面呢?答案是非常有可能。原因是AI的聚类能力,通用的,无人工干预的,自动的,高准确度的聚类能力。稳定性来自于聚合/聚类,来自于规模,它本就是是涌现的结果。
和很多人刷短视频上瘾后不再愿意看书,甚至不愿意看长视频一样,必要的学习难度还是要保留的。什么时候Chat GPT学会启发式提问,辅助人类探索新知,这个事情才算是优化的对路了。
支持弱人工智能还是强人工智能的底层本质上是还是是否相信其他人,如果我们不相信其他人,最终掌握弱人工智能的人也会内卷出强人工智能。
若我们无法相信他人,即便弱人工智能的少数掌控者们真的达成了一致,那么他们也要防备弱人工智能被盗取给大众,防备大众自行发展出强人工智能,和保证他们达成的这个“一致”的永恒性。这个成本极高,而且由于他们裹步不前了,同时基数又少(多了,则达成一致的成本高),早晚有一天会被大众追上。如此弱人工智能的掌控者们和大众就只能存活一个。
无论最终大众和少数掌控者们谁获胜,人类还是会面临强智能的威胁(不一定是人类发明,人类文明中涌现的)。获胜者基数足够小的情况,就只能寄托于改造自己,寄希望于自我意识和记忆在这个过程中还可以保真传承,这是走霸王龙的进化路线,孤独、无趣且脆弱(哪怕克隆备用分身无数)。若是获胜者仍然要保证一定基数,保留社会存在,最终的解决方案还是要一套人与人之间能够互相信任的机制。
以投资为起点,大都以利益为终点;
以消费为起点,大都以创造为终点。
当海量的需求涌现出来时,通过清晰化,正则化,会有同样海量的创意涌现出来。
剩下的事情就是让需求和创意匹配,去生产,去创造,去沉淀。文明的厚度就是这样被慢慢地奠基起来。
在稀缺逐渐成为历史,UBI有足够的基础推行时,创造的乐趣和他人的尊重可能会成为最后也是最好的激励,届时一个以助人为乐的大同时代也许会到来吧。
稀缺时代的人是无法理解这些的。同年的创伤需要漫长时间才能治愈;不被他人需要,唯有沉溺于肉体的快感之中,才能体会到一些活着的感觉的人也要经历漫长而痛苦的挣扎。所以上面想法暂时还只能是一个理想。