储存成本是空间✖️时间没错,但你忽略了存储成本主要受数据密度和数据可靠性驱动。与摩尔定律为 CPU 减速不同,目前硬件数据存储的最大密度远远低于理论计算值。

过去 50 年中,数据存储成本每年平均下降30.5%,而Arweave 的计算假设更保守,以市场硬盘存储 1GB/小时价格为起始价,将存储价格下降趋势的假设为每年 0.5%。因此,arweave永久存储的前提建立在互联网网络日益降低的存储成本趋势上。

需要注意的是,用户支付的存储费用也被设为矿工永久存储的成本,Arweave 目前的收费足以覆盖存储数据 200年的成本。

此外,网络手续费收入的约 86%将进入捐赠池,当矿工成本无法覆盖时,捐赠池中的资金将作为补贴发放给矿工。

随着时间的推移,Arweave 的存储成本逐年降低,区块奖励也逐年减少;但Arweave 网络存储量与捐赠池资金高度正相关。随着网络储存量的增加,捐赠池中 AR 的积累将足以对矿工进行成本补贴、确保收益。这也是 Arweave 确保数据存储至少 200 年的经济支撑。

Reply to this note

Please Login to reply.

Discussion

果然有一套自己的经济理论,至于有没有漏洞… 我回头再研究研究🤔

目前看来最可疑的还是存储摩尔定律,或许长期看来是有效的,但是一旦某几年发展进入瓶颈,那就很麻烦了,虽然有容错机制,但能容多少也是值得怀疑的,如果这个东西发展得非常快,存储了哪怕互联网1%的数据,那么它现在的那些冗余完全可以忽略不计了。

而且存储价格真的越来越低了吗🥲怎么我感觉这几年买移动硬盘没便宜多少啊。

这个代币的价值也值得怀疑,其实完全没必要再发一个币,老实给比特币打工不香吗🐶

代币归零的风险比存储摩尔定律失效可能性还大… 而且一旦大幅下跌极难反弹,谁会相信一个被破坏过一次的存储生态呢?

确实,市值百名之外了,很容易跌没了。

发币的好处在于可以无中生有😄

ChatGPT 回答的:存储数据的价格已经在过去几十年中不断下降。根据历史数据,存储每GB数据的价格已经从20世纪90年代初的几百美元下降到目前的几美分至几美元不等,这是一个非常显著的价格变化。这个趋势预计会继续下去,因为随着技术的不断发展,存储设备的容量和速度都在不断提高,而成本却在逐渐降低,这使得存储数据变得更加便宜和可行。

你的感觉没有出错!机械盘的价格很难在短时间内能降低一步了。固态的价格最近由于中国企业的崛起大幅度降价。

对于数据永久存储的问题,我觉得还是得把字刻在石头上最保险…开玩笑……🥰

把数据可靠的长久保存是很大一批计算机科学家一直努力的方向…并且目前也看到了一些成果,我们应该期待未来有更好的技术出现。现在最重要的成本。

1. 硅芯片的密度已经没多少倍可以增长了

2. 新工艺对memory的缩放率 在最近几代 已经越来越趋近于“约等于没有”

*未来对性能的提升都集中于多类型芯片集成;已经硅在已知的物理和技术上已经到极限了

所以肯定不能作“过去 50 年中,数据存储成本每年平均下降30.5%,而Arweave 的计算假设更保守,以市场硬盘存储 1GB/小时价格为起始价,将存储价格下降趋势的假设为每年 0.5%。” 这样的假设

我个人还是觉得单独发一条链没必要,先不说是不是真的有这么大需求,还需要矿工维护,经济利益不够那些矿工就会跑。就算有那么大需求,在L2,L3抄一下arweave的技术不就可以了吗。还不用担心没矿工会死,或规模过大,根本没那么多需求的问题

1. CPU领域的计算时钟速度正在趋近于理论物理极限,摩尔定律正在减速或失效。但存储领域的数据密度的情况远非如此:

A. 当前消费级存储介质的密度最大值是1.66*10的12次方(比特/立方厘米)

B. 研究中获得的最大数据密度是2.5*10的25次方(比特/立方厘米)

C. 理论上的最大数据密度是1.53*10的67次方(比特/立方厘米)

从我们当前的位置,以每年30%的乐观数据密度增长速度,将需要 434 年才能达到最大理论极限,如果每年 20%则需要 697 年,每年10%则需要 1329 年。

2. 即使数据密度提高速度放缓,存储介质的可靠性(平均故障间隔时间)仍将继续增加, 并且可以说具有更光明的前景。

3. 由于人类对数据需求的增长速度,未来开发更低 GB 小时成本的存储机制具有很强的经济动机。因此数据密度/存储介质可靠性不能持续提升是小概率事件。

简单来讲,随着存储密度和硬盘寿命的增加,永久存储价格将在未来不断降低。

且随着人类数据/网络事业的不断增长,人类将有巨大的经济动机来使得上述可能变为现实。

请问A,B,C的数据是哪里来的。

我的知道的内容是: 虽然制程让部件尺寸可以做得更小,但memory不知道什么原因就是要占那么多面积,缩不了(会漏电?)。

https://www.zhihu.com/question/290382241

*另外其实隧穿一直都有发生,所以gate里栅栏的尺寸一直在十几nm左右,都是用冗余之类的手段去对抗隧穿/漏电

以下数据来自ChatGPT

A. 目前消费级存储介质的最大密度数据来自于存储制造商西部数据(Western Digital)的官方网站。他们在介绍自己的 14TB 硬盘时提到了这个数字。

B. IBM 研究人员在单个磁性原子上实现了存储一个比特的突破性研究,据称该技术可以实现每立方厘米 2.5 x 10^25 bit 的数据密度。这篇文章发表在《Nature》杂志上,文章题目为 "A single-atom magnetic memory",发表时间为 2017 年。这项技术仍处于实验室阶段,还需要进一步的研究和开发才能应用于实际生产。

C. 理论上的最大数据密度可以追溯到量子力学和热力学等领域的理论研究,具体数值的论文或者报道比较多。这里我们可以参考一篇发表在《Scientific American》杂志上的文章,题目为 "The Ultimate Memory: How to Create the Human Memory Chip",作者为 R. Colin Johnson,发表时间为 2012 年。

"A single-atom magnetic memory" 是一篇发表在《Nature》杂志上的文章,由 IBM 研究人员撰写。这篇文章报道了一项研究成果,即在单个磁性原子上实现了存储一个比特的突破性研究。

该研究采用了扫描隧道显微镜和自旋极化力显微镜等先进技术,将一个单个铁原子放置在铜表面上,并使用自旋极化力显微镜来控制和读取铁原子的自旋状态。研究人员通过改变磁场的方向来控制铁原子的自旋状态,从而实现了在单个原子上存储一个比特的信息。

这项研究的突破意义在于,它打破了传统存储器的制约,通过单个原子实现比特级别的存储。这种存储方式具有非常高的存储密度和稳定性,可以为未来的存储器技术提供新的思路和途径。不过,这项技术仍处于实验室阶段,还需要进一步的研究和开发才能应用于实际生产。

"The Ultimate Memory: How to Create the Human Memory Chip" 是一篇发表在《Scientific American》杂志上的文章,作者是 R. Colin Johnson。这篇文章提出了一种新型的计算机存储器,称之为“人类记忆芯片”(Human Memory Chip)。这种存储器的设计灵感来源于人类大脑的神经元网络,能够模拟人脑的信息处理方式和记忆机制。

该存储器的基本单元是一个人造的神经元,每个神经元由一个光学或电子器件构成,能够模拟人脑神经元的兴奋和抑制状态。这些神经元通过光或电信号连接起来,形成一个三维的神经元网络,可以存储和处理信息。据作者估计,这种存储器的存储密度可以达到每立方厘米 1.53 x 10^67 bit 左右,远远超过当前任何存储器的存储密度。

尽管这种存储器的设计非常有前途,但是要实现它还需要克服很多技术难题,例如制造光学或电子器件、构建三维神经元网络、设计信号传输和控制系统等。目前,这种存储器仍然处于理论和实验阶段,尚未应用于实际生产和商业化。

第3说的给我感觉是 让物理/技术 为 人类的需求让路....

就算技术允许,现在的DRAM/SRAM确实可以做得更小,但良率问题就决定了肯定不会这么做(这是现在的物理/材料决定的良率,不是因为工艺不精的问题)

我觉得你混淆了磁盘存储器和半导体存储器的区别。硬盘容量和DRAM/SRAM没有直接的关系,因为它们是不同类型的存储器。

硬盘是一种磁盘式存储器,使用磁性材料在磁盘上存储数据。硬盘的容量取决于磁盘的尺寸、磁性材料的密度、磁头的精度等因素。在计算机系统中,硬盘通常用于长期存储大量数据,例如操作系统、应用程序、文档、媒体文件等。

DRAM和SRAM是一种半导体存储器,使用晶体管和电容器等元件存储数据。它们通常用于计算机系统中的临时存储,例如系统内存、高速缓存、寄存器等。DRAM和SRAM的容量取决于制造工艺、存储单元的大小、芯片的面积等因素。在计算机系统中,DRAM和SRAM的容量通常相对较小,但是它们具有快速的读写速度和低功耗等优点,因此常用于需要高速访问的场景。

因此,硬盘容量和DRAM/SRAM没有直接的关系,它们是不同类型的存储器,用于不同的存储需求。

话说,它根本没提到磁极能保持多久的问题。那样可行的话,等于在更微观的级别解决了隧穿问题。假如加上另外的方式(我觉得是科幻),它可以被量产,那等于现在半导体也还有缩放空间

技术突破不就取决于理论上的可能性+实际中的需求吗?单就存储技术来说,还有量子存储、光存储、DNA存储、基于人工智能的存储、聚合存储等等充满想象力的发展方向。而且随着信息世界的不断发展,储存数据的需求也在不断上升,我很难相信现在的水平就是人类的极限了。

不妨先定一个小目标,

存储整个地球的影像(气象、温度、湿度、风、树、河流、山川、平原、高原、人类行为等)如何?

我们姑且不论当硅基芯片突破 1nm 之后,量子隧穿效应将使得“电子失控”,芯片失效的问题。

任何存储数据的行为皆是熵减的过程,需要耗能的。

而就算给地球装一个戴星球,恐怕也无法提供足够能量存储得了地球上所有物质、生物(蓝藻、病毒、人类)的行为历史数据。

是啊,所以我才说“已知的物理和技术上已经到极限了”,其实5年后的事我都不太愿意推测,太多变数了。不过,“不可行”的变数也是属于这里面

我唯一愿意推测的就是AGI,因为似乎确实很可行。AGI出现的话,很多事就变得没意义了,所以我才不太愿意讨论其他感觉特别远的事。 这里的AGI指:不一定需要有“意志”这么复杂/高级的内容,解题能力在1个人类范围(包括所有学科)就够了;需要一定的自我迭代能力,那需要的条件似乎更简单了,能在10年内满足:

1. 神经网络尺寸缩水,这是我最近见到比较出乎我意料的内容

2. 神经网络加速器的进步,现在的npu结构,和以后的neuromorphic结构。

3. blockchain的匿名性,这也是defi在这方面有意义的事。Agi大概也不能超越现在的加密学,最多大概能找出一些相对省时一点的破解算法。那样的话,它的活动就很受限制了。有defi的话,它可以生成各种黄赌毒内容赚钱,然后通过匿名分配需要做的软硬件拆解给人类 来保证不会被反推。

*4.假如这个社会变得更绝望的话,就会有更多AGI信仰者,他们能为AGI保障运行和备份的地方,和干各种违法犯罪的事

https://fuse.wikichip.org/news/7343/iedm-2022-did-we-just-witness-the-death-of-sram/

看这个sram的缩放最直观,知乎找不到了,不过其实几年前已经有人展示过

不过总体而言,我还是觉得是伪需求,这种东西在言论自由的环境根本不需要专门一条链;那在高度审核的地方就容易分析了:

1. 需要它不被墙,我觉得不可能,arweave的节点特征、数据传播等都约等于明文

2. 不说好不好用了,还要花费才能上传数据,还真不如翻墙

我越来越肯定,这些地区需要的是人民直接为自己的权益斗争。这些技术最多只能算是在斗争上的锦上添花吧。不然这些技术根本没机会被传播

伪需求这点我认同,我也想不到有多少地方是需要永久储存的。但经济模型,我觉得没太大问题。