Avatar
🐝𝔼𝕥𝕙𝕒𝕟.𝚪🌄
2c17fcf7dc96be8482345a7909f12428b506ea3bc5af66f72c358bf03cbddf32
📷I'm a creative person who loves art, travel🌍 and coffee☕️! I capture moments with my camera and edit them to showcase their beauty. Join me on my journey!💫

郁闷,忘记重新登录会丢channel,没有备份呀😱

那个 zaper 天天都会 zap 你几十聪的

现在日常终极进阶就是挂耳倒出来泡水搅拌,然后再过挂耳滤袋,味道也很正。

最后总结经验其实就水温很重要,豆子质量也很重要,然后水粉充分混合,控制好泡的时间长短,就能出效果风味。

当然手冲还是更有仪式感的😂😁

你竟然没有 ln address,刚刚手滑想 zap 就提示。。。。

然后发现一些共同关注的人,发的一些note 用你的npub看到了,我这边没有见过,emo.. ....

可能是你的relay 多?😭

nostr 就这不好,别人能知道自己在客户端看到的界面是怎么样的,私信和谁互动多,只是看不到私聊内容。

Replying to Avatar diystar

https://github.com/ACINQ/phoenix/releases 发现 phoenix 比 bluewallet 好太多了,对新人友好,各种细节入微,自带节点支持(而 bluewallet 即将放弃节点支持)

⚡转发并关注,即 zap 120 sats

bluewallet 的确不太好用。

也是无语了,这 spam 一到白天就多,晚上就少发,躲着讲其它语言的人。

其实生成这个给 stable diffusion 场景的文字描述,就可以只给几个关键字,然后让 chatgpt 完善成短脚本,然后再让它翻成简短英文,效率很高,很好用。😂

😄 看来我可以配合 lora 模型试试。

对的,感觉说不到点上,要问得很细致,它才能回答得好。

#手冲咖啡 #Pour-over coffee

手冲咖啡是日益流行的咖啡制备方式,它可以让您体验到最真实的咖啡味道,有助于提高您对咖啡的品味。手冲咖啡是一款经典的、时尚的咖啡。它可以由一般的咖啡豆磨成的咖啡粉制作而成,而且不需要使用任何先进的机器。它与其他咖啡方法相比,既制作简单,又能够保留咖啡原有的风味,带给人们最完美的咖啡体验。

手冲咖啡的优点:

1、口感浓郁:手冲咖啡的口感浓郁,由于咖啡豆经过精心的研磨,所以咖啡的口感更加丰富,给人们更好的咖啡体验。

2、简单易学:手冲咖啡制作简单易学,无需使用任何先进的机器,只需要一些基本的工具,便可完成咖啡的制作,非常适合新手接触。

3、口味醇正:手冲咖啡口味醇正,能够保留咖啡原有的风味,使每一杯咖啡都独特而美味。

此外,手冲咖啡也非常容易学习。只要您有一台手冲机和一些咖啡豆,就可以开始制作手冲咖啡了。

下面是一些基本的手冲咖啡制作步骤:

1. 准备好所需的工具,包括手冲机、咖啡豆、磨豆机、滤纸、水壶和水等。

2. 磨碎咖啡豆,将粉碎的咖啡豆放入滤纸中,调整粉碎程度,需要粗细均匀,不能太细,这对于最终口感有很大影响。

3. 将滤纸放入手冲机中,将水烧开,把水倒入手冲机,调整温度大概摄氏92度。

4. 用手冲机挤压水,让水通过咖啡豆,将咖啡豆提取到水中,让咖啡液慢慢的流出来。

5. 将咖啡液倒入杯中,加入牛奶等调料,即可享用手冲咖啡。

总之,手冲咖啡既简单易学,口感也浓郁,口味醇正,是一款值得推荐的咖啡。只要你遵循上述步骤,就能轻松制作出一杯美味可口的手冲咖啡,为你带来最完美的咖啡体验!

做手冲咖啡的过程可以让您有机会把握咖啡的口感,它也是一种绿色环保的方式,而且还可以感受到最真实的咖啡味道。手冲咖啡不仅使您可以体会到真正的咖啡口感,而且还可以让您享受制作过程带来的乐趣。

#chatgpt #ai

对 AI 的思维链条 CoT 能力和进展多说两句。

1. AI 的 CoT 能力基本上就是在 GPT3 和 GPT3.5 这两个版本之间的某处诞生的。GPT3 还几乎不具备 CoT,而基于 GPT3.5 的 ChatGPT 已经明显具备了。考虑到这个飞跃对通用人工智能的关键程度,我们确实是在过去一两年里眼睁睁目睹了一次 ground breaking 级别的技术进展。(顺便吐槽一下 GPT 这个糟糕的版本号系统。

2. 人们对 CoT 能力究竟是怎么从大语言模型中产生的目前并不是特别了解。许多人都观察到似乎让模型多读一些代码语料有助于培养 CoT。Google Brain 的 Peter Liu 猜测说这是因为读代码能逼着语言模型把相隔很远的词联系起来思考(这是代码的特点)。AI2 的 Yao Fu 猜测这是因为代码的多层级性有助于语言模型理解 CoT。但这都还只是猜测。这是目前最有趣也最重要的理论问题之一。

——不要把这一条理解为让你的孩子去学 Python 有助于培养思维能力。没有用的。

3. 同样在过去两年内出现的一个新的热词是 Grokking,中文可能可以翻译成「顿悟」,它描述了这样一种现象:一个高度复杂的神经网络在漫长的训练期内一直只能记住训练样本的信息,几乎没有泛化能力,但到了某一刻,它的泛化水平忽然跳了出来,而且非常完美。你可以想象成一个神经网络经历了一个「aha moment」,像是内部的某个齿轮忽然对上了一样。我的理解是 CoT 也可以看做是一种 Grokking。

4. 在一种很粗糙的意义上说,大语言模型的外部属性(也就是用户可以直接感知和评估的属性)可以分解为「知识基础」+「推理能力」+「表达能力」这三个层面。大多数关于 ChatGPT 的讨论把目光集中在第一项和第三项,忽视了第二项的革命性进展。当人们热衷于吐槽它的知识基础(比如竟然不知道某件事或者完全弄错了某个事实)的时候,多少有点 miss the point。事实上你完全可以想象未来的 AI 被分拆成模块,知识引擎被单独拿出来处理(让一个语言模型记住大量明明可以快速检索到的知识是没有意义的),而推理与表达才是它的能力重点。这种解耦也会*加快模型的运算效率。

5. 说到模块解耦,甚至还有一个更有趣的例子,来自 UCSB 的 Wenhu Chen 最近的一篇论文 Program of Thoughts Prompting。他们觉得让 AI 通过 CoT 生成结果甚至都有些绕远了。应该让 AI 把原问题直接转化为程序代码,然后调用外部的代码运行模块来得出答案。这等于是把「计算」这一块也从语言模型中间剥离了出去。

如果某个公共 relay 就是要找你的人搭建的。。。。。。你想想😅,所以relay 也不是随便加的。