arweave非常贴合bitcoin和nostr的价值观
Discussion
只需用闪电网络解决存储激励机制问题,
并没有必要发币。
尤其Pos治理代币,是一种类似法币的虚假发明。
如何解决服务商收钱跑路的问题?
nostr协议本身不会跑路,你怕relay商跑路(暴毙也有可能🤔)你就自己在PC上跑一个,或者买VPS跑一个,甚至闲置的安卓手机跑一个,成本非常低,基本上个人电脑和手机跑relay自用,性能都是过剩的,留一个备份总是好的
本来就不能信任relay商,不过诚信经营流水生财才能持续盈利做大,一锤子买卖在自由市场会被很快过滤(虽然被骗的人是很惨😿
对了,跑relay比架个人播客准入门槛和难度低太多了,个人播客已经把我累死,在放弃的边缘徘徊,Web1吃枣药丸
但是arweave能够解决存储问题,而且nostr也不适合存储非文本的二进制数据。
arweave借助挖矿机制把数据的安全性提高到了协议级别,而nostr还是服务商级别,针对不同安全性要求的数据还是有需求合理性的。
当然我对arweave整个体系是否会崩溃还存疑,直觉告诉我它需要非常精妙的设计才能长期稳定运行… 这需要更加深入的研究。
成本问题,用区块链来把数据去中心化的通病就是成本随着币价上下波动,而不随着市场上的硬盘和电脑还有服务器的的价格波动
整个储存市场价格是通缩的,符合摩尔定律,而Ar只有涨价才持币者的利益,也就意味着Ar涨价,矿工才可以持续挖矿,而Ar涨价,会刺激用户不用Ar储存而是转用去中心化分布的服务器比如nostr的relay
区块链的全局共识是很昂贵的,Ar数据膨胀必定导致节点中心化,Ar类区块链储存方案,从成本和去中心化两个角度,都是逻辑不自洽的存在
最好的最安全的最可靠的数据去中心化的方式是把数据写入比特币区块链,超强的不可删除性,而且事实上没人可以阻止你这么干🤡
但比特币区块链的区块空间是稀缺资源,价格逐年上涨,你觉得一字节的储存费用越来越贵这合理吗?符合摩尔定律吗?
为啥不买去中心化分布式硬盘服务,为啥要用区块链?
倒也没必要达到比特币级别的安全性,啥数据呀这么重要😇
其实我觉得倒是没必要发个新币,用比特币做一个二层协议(是叫这个吧我没研究过),服务商或矿工质押比特币提供存储服务,定期按存储数据大小收闪电聪收取服务费… 总之达到一个二层协议✖️质押比特币价值的安全性就行了。
当然细节可以再讨论,感觉还有挺多问题需要解决。
在AR系统内,AR代币并没有必要一定需要存在。
按照AR的设计逻辑,将矿工挖的AR代币换成闪电聪,似乎也没任何问题。
存储是需要消耗巨大的时间成本的,而这些成本并未被AR所考虑。
AR系统是一个最典型的臃肿的熵增封闭系统,它必然做不到将任意数据永久存储的事情(维持存储状态的熵减秩序)。
还有一个,就是很多人没意识到一个点,只看到了云服务器的中心化趋势,而没有看到nostr协议所创造的与之对应的另一个趋势
这个趋势隐藏在“抗审查的全球信息传输互联网”叙事之下,即,服务器的小型化与轻量化趋势,实际上意味着未来全球互联网不可阻挡的去中心化趋势

随着对 Arweave 协议存储需求的增加,AR 代币的价值亦会增加。当 AR 代币产生波动,Arweave 将自动调用动态存储价格调整模型(dynamic storage price stabilization mechanism)来确保 Arweave 上的数据成本以法定货币计算是稳定的。在该机制下,矿工挖矿的 AR 奖励与挖矿难度(Network Difficulty)成正比,通货膨胀奖励(Inflation Rewards)成反比。这一机制虽然无法阻止 AR 价格的波动,但长期来说是优秀的抗波动机制。
Arweave 的自动调用动态存储价格调整模型是一种机制,用于帮助平衡网络上的存储需求和存储资源供应,并确保 Arweave 的存储价格保持在合理的水平。该机制基于供需平衡的原则,通过动态调整存储价格来应对网络上存储需求和供应的变化。
具体来说,Arweave 的自动调用动态存储价格调整模型使用一种基于市场供需的动态定价算法,根据当前的存储需求和供应情况,自动调整存储价格。当存储供应过剩时,存储价格会下降以吸引更多的存储需求;而当存储需求过高时,存储价格会上升以鼓励更多的存储资源供应。通过这种机制,Arweave 可以更好地适应不同的存储需求和资源供应状况,从而实现存储价格的稳定和合理。
谁家价格不反映市场供需… 这段有点把人当傻子了,市场有那么好调节吗,通过一种机械的方式试图把市场调明白…
我愿给它命名为《arweave特色的市场调节机制》🐶
这段我其实是照搬的ChatGPT,因为他这个机制,我还没彻底搞明白。我又用你的话回了GPT,它的回复是:Arweave 的自动调用动态存储价格调整模型并不是完全机械式的调节机制,它也需要考虑到市场中的其他因素。例如,它还会考虑到节点的投入成本、网络的安全性和可靠性等因素,并综合考虑这些因素来调整存储价格。此外,Arweave 还会通过社区的治理机制来协调节点和用户之间的利益关系,以确保存储价格的合理性和稳定性。
Arweave 的自动调用动态存储价格调整模型已经被应用于 Arweave 网络中,目前已经在网络中运行了一段时间,并且得到了一定程度的验证和应用。根据 Arweave 的官方网站上的介绍,该机制已经成功地调节了 Arweave 网络中的存储价格,并且对网络的稳定性和可靠性产生了积极的影响。
需要注意的是,Arweave 的自动调用动态存储价格调整模型是一个比较新的机制,它也还在不断地完善和优化中。虽然这种机制可能存在一些限制和不足,但它是为了更好地适应 Arweave 网络的特殊需求和资源分配机制而设计的。
随着时间的推移和实践的积累,这个机制可能会进一步得到验证和应用,并且可能会被其他类似的区块链项目所采用和借鉴。
这其实越深挖漏洞越多…
我说的机械式调节,其实就是与人无关的调节,或者说不涉及智能的领域(也没有AI或者神经网络等学习模型)。考虑再多因素也是机械式调节,机械式调节市场是不可能有效的。就像稳定币最终会走向崩溃。
而且它这个机制引入了这么多的因素,可靠性就非常非常差了,本身系统里只有数据、代币两种要素而已… 我提几个问题你感受一下:
谁来负责调节存储价格?
如果是一种智能的调节方法,谁来担任这个智能体?人还是一种算法?如何保证能够胜任?如何保证不作恶?
如果是一种机械的调节方法,谁来负责录入市场数据以及其他各项调节所需的数据,比如存储价格、流量成本?
我上面说的这个“谁”,是否有能力通过某种手段让代币价格归零?或者大幅下跌?如何体现去中心化的稳定性?
我了解了一下具体的调节方式,用自己的话说一下。(不保证对,我了解的也有限)
首先我们看下面一个公式:
我们把代币价格,也就是AR币的市场价格设为X
储存价格也就是每G储存需要花费的AR设为Y
矿工收入设为Z。
则:XY=Z
其中X是由市场决定的,为了稳定矿工收入,Y就需要和X成反比波动。
但自动调节机制,无法直接获取X。这里就需要引入一个假设,X上涨,会减少储存需求,X下跌,会提高储存需求。
当X上涨时,需求减少,Y则下降
当X下降时,需求增加,Y则上升
XY不断进行反比波动,保证Z始终保持一个相对恒定的值。
但还有一个问题,如果我们上面说的假设不成立了,怎么办?
如果AR价格上涨,需求却同步增长,则矿工收益最大化,不需要担心。
如果AR价格下跌,需求却同步下跌,则矿工收入最小化。为了防止矿工因收入降低,关机跑路,因此设置了捐赠池。随着这是一种相对中心化的方式,但也等于上了一个保险。而且矿工不止有手续费收入,还有出块奖励,再出块奖励衰减为零之前,不需要担心这点。
捐赠池的引入就说明了协议的创作者对协议本身的稳定性并没有特别高的自信。
而且中心化的设计一但引入某个系统,就会导致整个系统都被中心化,哪怕其他设计尽可能符合去中心的原则。
你说的有道理,但我觉得做为一个保险机制,本身就是对最坏可能的一种处理预案,有总比没有好。就好像vitalik面对以太坊转pos后可能出现的攻击,他的解决方案也是通过社区协调这种人治的方法,我们也不能说以太坊就中心化了吧,这只是一种战时状态。而且一个储存公链,我也不指望它有比特币级别的去中心化程度。
以太坊实际上就是中心化了…👀
利好大饼
去中心化储存,只能靠分布在全世界的硬盘所有者自发地(or收费地)用各种非全局同步的方式提供下载/上载服务
拥有优质信息熵的信息,即使是没有任何经济激励,也会有人主动践行此信息的去中心化/备份,比如你去买一本书放在书架上,下载一部电影在硬盘里,没有任何人付钱驱动你做这件事情,你为了这部分优质信息熵,还要自己承担硬盘储存空间的时间成本,还要付流量费,区块链爱好者会觉得“我没钱收我干嘛要帮别人把信息去中心化”,但区块链诞生以前,甚至互联网诞生以前,信息的去中心化就是这样运行的,这就是ValueForValue
没有区块链,书就流传不下去了吗?电影就流传不下去了吗?区块链储存不是人人可运行的了的,而且你如果作为一个矿工,你追求的是币的价值而不是你储存的信息的价值,而如果你作为一个硬盘所有者,你在乎的是你储存的信息的价值,你自己会对有限的硬盘资源里的信息进行排序和增减,拉长时间线,优质信息永远会得到保留(分布在互不认识的人的硬盘里、书架上)
区块链储存摈弃了信息之间的自由市场竞争,靠代币激励而不是靠信息本身的信息熵激励,这是有问题的,比如两个同一时间同一字节大小的不同文件写入区块链,不管信息熵高低,储存的机会成本是一样的,低质信息不会因为长期没人访问而被裁剪,而裁剪有不符合区块链原则,那么这部分资源就被浪费了(而且矿工越多、节点越多,说明低质量信息被备份越多次,越浪费,也即是,这个系统越去中心化,越臃肿,越难维持去中心化
我一开始得出的结论也是去中心化存储的需求是个伪命题,我现在也这么认为。我对arweave感兴趣是因为很喜欢他的理念和经济模型,具备自由、简洁和长期主义的特点。但好的想法和能不能成功是两回事。
信息的去中心化,靠区块链储存,我觉得成本太高,太冗杂,发币也非必要,经济模式不可持续
还有一点,区块链本质上就是一种特异化的服务器,信息的去中心化真的需要服务器吗,我觉得是非必要的,其实储存本身靠硬盘,只需要创建一个上载和下载的协议,然后定义一个硬盘之间沟通的协议
那么,其实keet已经做到了,keet就是一个跨设备文件分享工具,它解决分享问题,不解决储存问题,储存成本由硬盘所有者按照市场价格各自承担,当然资源所有者也可以按资源个数收费分享资源(而且已经整合了闪电网络支付)只需要上载文件和下载文件的双方同时在线,不需要服务器做中转,真正的P2P文件分享服务
储存问题本身不需要靠区块链解决,硬盘做储存已经很好了,而且便宜,要解决的反而是上载/下载/通信问题,那么keet已经够用了
我在思考arweve捐赠池的时候,意识到这是一个在没有足够多手续费时,如何保证区块链系统安全性的问题。但我很快想到这个问题在比特币上同样存在,比特币社区的Peter todd就曾经问过这样一个问题:“有没有人能举个PoW货币的例子,其中矿工只能通过交易费用获得收益?有什么例子吗?”
矿工是打包交易的人,他们这么做的动机,是获取奖励,而这个系统的坚固之处在于,矿工为了追逐巨大的利益,投入了大量的资本建造和运转矿机,导致单一个体很难拥有在网络总量一半以上的算力,这些各自为战的矿工反而编织出了一个非常强悍的防护网。
但随着比特币的区块奖励每四年减半,最终会无限趋近于零,导致没有足够的悬赏去激励矿工投入资本建设和运营矿机,那攻击这个网络所需的成本就会越来越低,直到攻击从仅有理论可能变得实际可行。
这里可能会有两个反驳的观点:第1个观点是,除了区块奖励以外,矿工还可以依靠交易手续费,可是实际上我们看历史的数据,会发现今天的交易手续费占矿工收入总额是极低的,而且这个数字也是非常不稳定的,在网络空闲时会更低。在过去的时间里,尽管比特币的价格已经上涨了很多倍,比特币的交易手续费总量却并没有上涨太多,因为越是高昂的转账费用,越会鼓励人们不去使用比特币转账。
还有第2个反驳的观点是,如果比特币的价格继续上升,那么矿工也会有足够的效益。首先,没有任何人能保证币价每四年价格恒定翻倍。其次,这个观点也没有考虑当币价上涨时,需要保护的网络的总价值也会等比例的上涨。很难想象当比特币市值有5万亿美元的时候,攻击成本却只有50亿美元会发生什么。
操心这干啥?比特币2140年才能挖完呢,你能活到那天?只要你活着的时候,它能涨到100万刀,你管它以后怎么样呢?
我能想象到的是未来比特币会成为Pow投票的共识层。
即凡是涉及一群人所需达成共识的事件,皆可建立按闪电聪投票表决的pow民主程序。
全球任意时间段参与投票的闪电聪全部作为比特币下一区块的奖励。
比特币区块链并不仅仅只结算比特币转账,而是结算整个人类的事务。
除了投票表决外,我能想到的是,每个国家都会运行矿机。
如果比特币成为世界货币,比如石油结算接受比特币支付,那么每个国家势必都会持有相当大量的比特币,“算力安全”会成为与“粮食安全”、“军事安全”等并列的安全之一——不会有国家愿意处于随时可能被他国封锁跨国交易的风险,即使这件事从未发生。
这其实是一种道德,我们依赖这个体系,那么我们维护这个体系。就像世界各国约定减少碳排放以维护地球生态一样,他们同样需要共同维护这个交易结算体系,毕竟相比较持有美元被无限印钱剥削,矿机的成本几乎可以忽略不计。
站在这个视角看,其实投票也是一种道德,它并不强制要求谁付出什么,但是如果你想要为你理想中的社会做出一点贡献,想要替这个世界做出一点选择,请把你手中的比特币销毁掉——也就是通过作为一笔特殊含义交易(可能是给某个候选人打1聪)的超高额手续费,也可以说是让这些比特币获得新生。
那么结论就很明显了,当利益驱动结束后,我们需要道德驱动。
这是对于比特币和全人类的一场考验,希望我们能够通过这场考验,从而进入到一个全新的世界。
其实zap就是一个小小的投票,它表示了对内容的赞赏。
除了zap,我们可以利用打钱给矿工(手续费)来进行一些实质性的操作(要不叫dez?🐶),比如在nostr设立一个排序区,通过dez某个帖子可以使其获得更高的排序,dez所花费的聪会一定比例打给relay运营者,一定比例打给矿工。
前者比例越高则relay经营状况越好,后者比例越高则公正性越强(避免relay运营者低成本操纵排名),以此形成relay运营成本和可信度的制衡。
通过设立日排序、周排序、月排序等,我们可以轻松实现商业化、公正投票、店铺评分、书籍电影打分等等功能。
呼叫NIP专家 #[6] ,看看有没有可行性呀👀
唯一的问题是 社区是否接受 哈哈
另外 你说的每个国家拥有矿机这件事 让我想到了下面这条视频
https://m.youtube.com/watch?v=X_xgmVLyB94
再另外 花花愿意多讲一点eth中心化的问题吗
我是从nostr开始用数字货币的 所以一直都是sats sats sats 对其他的不了解
以太坊和比特币的最本质区别应该就是智能合约,pos和pow都还是次要的,因为毕竟以太坊以前也是pow,pow和智能合约并不矛盾。
我没系统学过以太坊或智能合约,不过也没啥难的,你可以找个地方写写试试,感受一下。
https://solidity-by-example.org/
记住这个感受之后,剩下的包括应用、原理上的差别基本都是从这里出发的自然推论。(我是这么理解的)
比特币上也有智能合约
对的,比特币也有智能合约
比特币和以太坊最大的区别不是智能合约的有无问题,并没有所谓的“以太坊有智能合约而比特币无智能合约”这种说法
比特币和以太坊的根本区别在于对智能合约的态度,以太坊认为智能合约应该放在链上或者二层(layer 2),而比特币认为智能合约应该放在链下,注意词语⚠️不是比特币的“二层”,而是“链下”
链上智能合约比特币也有,比如最早的USDT(对你没看错,USDT最早是在比特币链上发行的)和NFT(是的,NFT最早也是在比特币上诞生的)
但比特币社区的共识是智能合约最好不要在链上搞,所以比特币的“链上智能合约”生态就像你们所看到的,并不丰富,但并不等于比特币没有智能合约和比特币反智能合约
“链上智能合约”对于区块链的安全性和去中心化都是一种威胁,同时还会影响区块链的性能,而以太坊一直以来做的事情就是为了性能而妥协去中心化(然而以太坊不管转PoS还是怎么升级,性能依然很低🤡
我们在表达一个事情时要明白究竟是说了什么。
智能合约是一个伪概念。
称呼智能合约是智障合约或诈骗合约更妥帖。
在协议层无法产生智能。
就像我们无法说细胞中心法制、DNA是智能的一样。
但我们可以说生命细胞是智能的。
比特币是协议层的事物,它必然无法表现出宏观世界里的智能现象。
就算是比特币二层闪电网络也属于协议层的范畴,也不能称其智能。
智能合约是智障们(Vitalik)发明出来的忽悠散户的概念。
合约一般是指协议层的事物,如何能表现出如生命世界里如细胞般复杂智能现象呢。
所以智能合约并不存在。
智能合约更准确的表述是程式化契约。
而作为程式化契约完全可以放在线下,
就像你和房东签租房合同一样,并无必要让整个世界都知道你干了这件事。
Vitalik重新发明出智能合约的概念,除了方便发币割韭菜,别无它用。
Vitalik此人是酷爱参与政治的。
从他见过的政要就能明白(中本聪应该不屑干这样的事)。
无论其在社交媒体如何给自己洗白,以及如何包装自己的政治偏好或公众形象,就像FTX创始人那样虚假包装一样。
都无法否认他的以太坊实际从哪些政治资源中获利。
勘误一下:
智能合约这个词语是尼克·萨博提出来的,本意就是你说的程式化的合约,一开始就并没有与区块链绑在一起的意思,本身就应该放在线下(或者链下,那时并没有区块链的概念
而Vitalik干的事情是挪用了智能合约这个词语并进行了语义污染,把它强行与区块链绑定在一起
V口中的智能合约即“链上运算的程式化合约”已经与尼克·萨博所说的智能合约有了本质区别,这种合约需要所有的网络参与者验证和运算来避免双花,而不是合约双方与一个第三方(大他者/政府/利维坦/必要之恶)三个参与者进行运算和验证(来避免双花
这种只需要三个参与者的“程式化合约”模式,在比特币闪电网络上得到了实现,可以通过闪电网络节点双方配合比特币主网账本这个“诚实的第三方”来保证整个过程不过出现双花,同时因为不需要调动整个网络计算资源,从而得到了非常强大的可拓展性和隐私性
这里打广告一下 #RGB ,这个协议的设计哲学也是如此,这是完全被低估的一项核弹级协议
因此,V的“全链运算验证型程式化合约”即大多数语境下的智能合约,是一种非常愚蠢、且浪费资源、隐私性捉急的存在
比特币矿池 Luxor 首席运营官 Ethan Vera 在 Mempool 播客举办的 OrdCon 活动上表示,因为 Ordinals 的出现,矿工收入增加,也意味着比特币安全预算增加。增加比特币更多的功能,可能也是解决手续费不足的一条解决方案。
arweave愿景挺大,能否真的成功(获得大规模应用),尚不明朗。😂
并不存在服务商,Arweave的数据是保存在矿工那里的,矿工是可以自由出入的。也就是说除非矿工集体罢工,否则不用担心这个问题。不过arweave也设计了一个机制来防止这种事情发生,所有的手续费都会有一部分保存在一个基金会里面,用来在关键时刻激励矿工。
哈哈,我在说如果不基于存储发币如何解决服务商跑路的问题,我大概能猜到Arweave的原理,但是 #[3] 说可以用闪电聪来激励存储,我感觉不太能行。
把数据存储服务商的服务化整为零,
以存储为例,每存储1G数据24个小时,支付10聪,1G数据存储一年支付3650聪。
10G数据存储一年支付36500聪。
即针对服务商每一行动(按秒、分钟、小时或天)产生的微小支付都在闪电网络上实时(按天)结算。
假如服务商在第1天或第342天跑路,他已帮你服务了1天或342天。此过程你并没有什么损失。
当然你会说服务商跑路,你的数据会全部丢失,你可以选择将数据实时付费多备份几个服务商(中继器)。
或者我们可以通过Pow建立服务商声誉评价系统,让新用户选择的成本更低。
嗯,定时收费是合理的,因为存储成本本来就是空间✖️时间。
所以我对arweave的一次付费终身存储(即数据与协议共存)的机制稳定性存疑,长期来看总是增量共识在给全部存量数据买单,就像只收土地转让金不收房产税的土地财政一样,整个体系似乎必然崩溃——伴随着越来越昂贵的边际存储成本。
但这不代表我觉得这个事情不合理,我们应该有一个稳定预期的存储服务,而不是每天祈祷服务商不跑路,或者寄希望于多个服务商不会同时跑路,或者寄希望于评分、口碑之类更加虚无缥缈难以证实的东西。
我们需要更加安全稳定的数据存储服务,它需要让数据的安全性提高到协议级别,并且长期合理收费。
闪电网络的实时结算功能可以降低服务商的道德风险。
将一笔巨大的服务费摊薄到每一天甚至每一分钟每一秒或某一具行动之中,是可免信任的。
道德风险是没了,有没有想过服务商经营不善破产,还是说收比特币的服务商不会破产。
服务商级别的数据安全性终究不让人觉得放心,而且中心化的服务会受到审查的制约,我们需要协议级别的安全性。
去中心化的储存过去靠印刷术,现在靠nostr,反正不能靠区块链
我曾经把relay比喻成一个把“抓取、copy、印刷、发送、储存”一体化、自动化的超级印书机和图书馆complex
nostr可以实现的事情实际上非常多
用区块链做存储就像是把印刷厂开在了印钞厂,倒不是不行,但是谁来搞定无酸纸和变色油墨👀
期待更加丰富的生态,让我们真正拥有更多属于自己的东西。
服务商可以是任何人,甚至他们大多数是完全匿名的。
只有铁拳审查全球所有服务商的收益高于由审查而带来的巨大成本,审查行为才会发生。
并且服务商的行为会因得到来自闪电网络的全球经济激励作用,而显著推高上述铁拳审查成本。
我们为了维护比特币账本(区区几百G数据存储),已消耗了巨大的能量,并不再需要重复造轮子额外维护一个声称永久存储全球网民数据的产品。
仅需要借助比特币账本产生的共识,通过无法被审查的比特币系统,让铁拳疲于奔命,以致于不得不让渡权力,从而获得自由的方式来完成Pow自由的愿景。
储存成本是空间✖️时间没错,但你忽略了存储成本主要受数据密度和数据可靠性驱动。与摩尔定律为 CPU 减速不同,目前硬件数据存储的最大密度远远低于理论计算值。
过去 50 年中,数据存储成本每年平均下降30.5%,而Arweave 的计算假设更保守,以市场硬盘存储 1GB/小时价格为起始价,将存储价格下降趋势的假设为每年 0.5%。因此,arweave永久存储的前提建立在互联网网络日益降低的存储成本趋势上。
需要注意的是,用户支付的存储费用也被设为矿工永久存储的成本,Arweave 目前的收费足以覆盖存储数据 200年的成本。
此外,网络手续费收入的约 86%将进入捐赠池,当矿工成本无法覆盖时,捐赠池中的资金将作为补贴发放给矿工。
随着时间的推移,Arweave 的存储成本逐年降低,区块奖励也逐年减少;但Arweave 网络存储量与捐赠池资金高度正相关。随着网络储存量的增加,捐赠池中 AR 的积累将足以对矿工进行成本补贴、确保收益。这也是 Arweave 确保数据存储至少 200 年的经济支撑。
果然有一套自己的经济理论,至于有没有漏洞… 我回头再研究研究🤔
目前看来最可疑的还是存储摩尔定律,或许长期看来是有效的,但是一旦某几年发展进入瓶颈,那就很麻烦了,虽然有容错机制,但能容多少也是值得怀疑的,如果这个东西发展得非常快,存储了哪怕互联网1%的数据,那么它现在的那些冗余完全可以忽略不计了。
而且存储价格真的越来越低了吗🥲怎么我感觉这几年买移动硬盘没便宜多少啊。
ChatGPT 回答的:存储数据的价格已经在过去几十年中不断下降。根据历史数据,存储每GB数据的价格已经从20世纪90年代初的几百美元下降到目前的几美分至几美元不等,这是一个非常显著的价格变化。这个趋势预计会继续下去,因为随着技术的不断发展,存储设备的容量和速度都在不断提高,而成本却在逐渐降低,这使得存储数据变得更加便宜和可行。
你的感觉没有出错!机械盘的价格很难在短时间内能降低一步了。固态的价格最近由于中国企业的崛起大幅度降价。
对于数据永久存储的问题,我觉得还是得把字刻在石头上最保险…开玩笑……🥰
把数据可靠的长久保存是很大一批计算机科学家一直努力的方向…并且目前也看到了一些成果,我们应该期待未来有更好的技术出现。现在最重要的成本。
1. 硅芯片的密度已经没多少倍可以增长了
2. 新工艺对memory的缩放率 在最近几代 已经越来越趋近于“约等于没有”
*未来对性能的提升都集中于多类型芯片集成;已经硅在已知的物理和技术上已经到极限了
所以肯定不能作“过去 50 年中,数据存储成本每年平均下降30.5%,而Arweave 的计算假设更保守,以市场硬盘存储 1GB/小时价格为起始价,将存储价格下降趋势的假设为每年 0.5%。” 这样的假设
我个人还是觉得单独发一条链没必要,先不说是不是真的有这么大需求,还需要矿工维护,经济利益不够那些矿工就会跑。就算有那么大需求,在L2,L3抄一下arweave的技术不就可以了吗。还不用担心没矿工会死,或规模过大,根本没那么多需求的问题
1. CPU领域的计算时钟速度正在趋近于理论物理极限,摩尔定律正在减速或失效。但存储领域的数据密度的情况远非如此:
A. 当前消费级存储介质的密度最大值是1.66*10的12次方(比特/立方厘米)
B. 研究中获得的最大数据密度是2.5*10的25次方(比特/立方厘米)
C. 理论上的最大数据密度是1.53*10的67次方(比特/立方厘米)
从我们当前的位置,以每年30%的乐观数据密度增长速度,将需要 434 年才能达到最大理论极限,如果每年 20%则需要 697 年,每年10%则需要 1329 年。
2. 即使数据密度提高速度放缓,存储介质的可靠性(平均故障间隔时间)仍将继续增加, 并且可以说具有更光明的前景。
3. 由于人类对数据需求的增长速度,未来开发更低 GB 小时成本的存储机制具有很强的经济动机。因此数据密度/存储介质可靠性不能持续提升是小概率事件。
简单来讲,随着存储密度和硬盘寿命的增加,永久存储价格将在未来不断降低。
且随着人类数据/网络事业的不断增长,人类将有巨大的经济动机来使得上述可能变为现实。
请问A,B,C的数据是哪里来的。
我的知道的内容是: 虽然制程让部件尺寸可以做得更小,但memory不知道什么原因就是要占那么多面积,缩不了(会漏电?)。
https://www.zhihu.com/question/290382241
*另外其实隧穿一直都有发生,所以gate里栅栏的尺寸一直在十几nm左右,都是用冗余之类的手段去对抗隧穿/漏电
以下数据来自ChatGPT
A. 目前消费级存储介质的最大密度数据来自于存储制造商西部数据(Western Digital)的官方网站。他们在介绍自己的 14TB 硬盘时提到了这个数字。
B. IBM 研究人员在单个磁性原子上实现了存储一个比特的突破性研究,据称该技术可以实现每立方厘米 2.5 x 10^25 bit 的数据密度。这篇文章发表在《Nature》杂志上,文章题目为 "A single-atom magnetic memory",发表时间为 2017 年。这项技术仍处于实验室阶段,还需要进一步的研究和开发才能应用于实际生产。
C. 理论上的最大数据密度可以追溯到量子力学和热力学等领域的理论研究,具体数值的论文或者报道比较多。这里我们可以参考一篇发表在《Scientific American》杂志上的文章,题目为 "The Ultimate Memory: How to Create the Human Memory Chip",作者为 R. Colin Johnson,发表时间为 2012 年。
"A single-atom magnetic memory" 是一篇发表在《Nature》杂志上的文章,由 IBM 研究人员撰写。这篇文章报道了一项研究成果,即在单个磁性原子上实现了存储一个比特的突破性研究。
该研究采用了扫描隧道显微镜和自旋极化力显微镜等先进技术,将一个单个铁原子放置在铜表面上,并使用自旋极化力显微镜来控制和读取铁原子的自旋状态。研究人员通过改变磁场的方向来控制铁原子的自旋状态,从而实现了在单个原子上存储一个比特的信息。
这项研究的突破意义在于,它打破了传统存储器的制约,通过单个原子实现比特级别的存储。这种存储方式具有非常高的存储密度和稳定性,可以为未来的存储器技术提供新的思路和途径。不过,这项技术仍处于实验室阶段,还需要进一步的研究和开发才能应用于实际生产。
"The Ultimate Memory: How to Create the Human Memory Chip" 是一篇发表在《Scientific American》杂志上的文章,作者是 R. Colin Johnson。这篇文章提出了一种新型的计算机存储器,称之为“人类记忆芯片”(Human Memory Chip)。这种存储器的设计灵感来源于人类大脑的神经元网络,能够模拟人脑的信息处理方式和记忆机制。
该存储器的基本单元是一个人造的神经元,每个神经元由一个光学或电子器件构成,能够模拟人脑神经元的兴奋和抑制状态。这些神经元通过光或电信号连接起来,形成一个三维的神经元网络,可以存储和处理信息。据作者估计,这种存储器的存储密度可以达到每立方厘米 1.53 x 10^67 bit 左右,远远超过当前任何存储器的存储密度。
尽管这种存储器的设计非常有前途,但是要实现它还需要克服很多技术难题,例如制造光学或电子器件、构建三维神经元网络、设计信号传输和控制系统等。目前,这种存储器仍然处于理论和实验阶段,尚未应用于实际生产和商业化。
第3说的给我感觉是 让物理/技术 为 人类的需求让路....
就算技术允许,现在的DRAM/SRAM确实可以做得更小,但良率问题就决定了肯定不会这么做(这是现在的物理/材料决定的良率,不是因为工艺不精的问题)
我觉得你混淆了磁盘存储器和半导体存储器的区别。硬盘容量和DRAM/SRAM没有直接的关系,因为它们是不同类型的存储器。
硬盘是一种磁盘式存储器,使用磁性材料在磁盘上存储数据。硬盘的容量取决于磁盘的尺寸、磁性材料的密度、磁头的精度等因素。在计算机系统中,硬盘通常用于长期存储大量数据,例如操作系统、应用程序、文档、媒体文件等。
DRAM和SRAM是一种半导体存储器,使用晶体管和电容器等元件存储数据。它们通常用于计算机系统中的临时存储,例如系统内存、高速缓存、寄存器等。DRAM和SRAM的容量取决于制造工艺、存储单元的大小、芯片的面积等因素。在计算机系统中,DRAM和SRAM的容量通常相对较小,但是它们具有快速的读写速度和低功耗等优点,因此常用于需要高速访问的场景。
因此,硬盘容量和DRAM/SRAM没有直接的关系,它们是不同类型的存储器,用于不同的存储需求。
话说,它根本没提到磁极能保持多久的问题。那样可行的话,等于在更微观的级别解决了隧穿问题。假如加上另外的方式(我觉得是科幻),它可以被量产,那等于现在半导体也还有缩放空间
技术突破不就取决于理论上的可能性+实际中的需求吗?单就存储技术来说,还有量子存储、光存储、DNA存储、基于人工智能的存储、聚合存储等等充满想象力的发展方向。而且随着信息世界的不断发展,储存数据的需求也在不断上升,我很难相信现在的水平就是人类的极限了。
不妨先定一个小目标,
存储整个地球的影像(气象、温度、湿度、风、树、河流、山川、平原、高原、人类行为等)如何?
我们姑且不论当硅基芯片突破 1nm 之后,量子隧穿效应将使得“电子失控”,芯片失效的问题。
任何存储数据的行为皆是熵减的过程,需要耗能的。
而就算给地球装一个戴星球,恐怕也无法提供足够能量存储得了地球上所有物质、生物(蓝藻、病毒、人类)的行为历史数据。
是啊,所以我才说“已知的物理和技术上已经到极限了”,其实5年后的事我都不太愿意推测,太多变数了。不过,“不可行”的变数也是属于这里面
我唯一愿意推测的就是AGI,因为似乎确实很可行。AGI出现的话,很多事就变得没意义了,所以我才不太愿意讨论其他感觉特别远的事。 这里的AGI指:不一定需要有“意志”这么复杂/高级的内容,解题能力在1个人类范围(包括所有学科)就够了;需要一定的自我迭代能力,那需要的条件似乎更简单了,能在10年内满足:
1. 神经网络尺寸缩水,这是我最近见到比较出乎我意料的内容
2. 神经网络加速器的进步,现在的npu结构,和以后的neuromorphic结构。
3. blockchain的匿名性,这也是defi在这方面有意义的事。Agi大概也不能超越现在的加密学,最多大概能找出一些相对省时一点的破解算法。那样的话,它的活动就很受限制了。有defi的话,它可以生成各种黄赌毒内容赚钱,然后通过匿名分配需要做的软硬件拆解给人类 来保证不会被反推。
*4.假如这个社会变得更绝望的话,就会有更多AGI信仰者,他们能为AGI保障运行和备份的地方,和干各种违法犯罪的事
https://fuse.wikichip.org/news/7343/iedm-2022-did-we-just-witness-the-death-of-sram/
看这个sram的缩放最直观,知乎找不到了,不过其实几年前已经有人展示过
