29
f6XF
2936462bda8612e290f17231fddca9a658b472680cb661b537b1121d5b3d683b
f6XF

Epstein 照片曝光了。。我看了下川子也在里面,盖茨,克林顿也臭了,难顾这两都离婚了呢。。当初川子怎么有勇气竞选的时候曝光这些照片的呢。。

这些富豪太肆无忌惮了吧[泪] ​​​

有网友问我沐曦,摩尔和寒武纪的区别。。国内的事情我一般不敢乱讲,怕惹事,我斗胆讲一讲,厂商听了如果有不爽,及时通知我删帖,好商量,别发EMS快递,谢谢。

沐曦和寒武纪只做数据中心业务,2B市场,沐曦有一个MXMACA,这个东西类似CUDA,这帮人AMD出来的,有CUDA恐惧症,AMD只所以垃圾,大家都知道的,就是没有一个CUDA,发挥不出硬件的能力。。英伟达显卡上写的代码,可以很方便移植到沐曦的芯片上;

寒武纪主流产品是NPU(类似GPU),是一种专用芯片,注重能耗。寒武纪主打一个:“英伟达训练 + 寒武纪推理”。英伟达用的是 CUDA,寒武纪用的是自己的 MagicMind(推理加速引擎)和 Neuware(软件栈)使得在英伟达芯片训练的模型可以跑在寒武纪芯片上做推理。如果你的原始代码是标准的 PyTorch 或 TensorFlow,寒武纪提供了专门的插件和算子库。大部分情况下,你不需要改动底层代码,只需要通过寒武纪的工具链进行模型转换(量化、编译)

摩尔呢,主要是英伟达的人出来干的,处处模仿英伟达,敞开当一回地主那种感觉,消费级显卡和数据中心显卡都做,但是消费级显卡貌似黄了,摩尔也有类似沐曦的MXMACA,摩尔叫MUSA。都类似CUDA。摩尔的IPO文件中几个大金主(匿名的),消费极大,大概率都是买万卡集群的,摩尔专门干这个,为超级大客户服务的。

当然,我也是AI小白,不如广大网友专业,略懂皮毛,内行可以在评论区讨论下,谢谢。

一大早到公司加班,看到有网友来信问篮球拉拉队的研究成果能不能发个小作文,黑SPA的能不能也发一个,就这个会有网友感兴趣才怪了,我可以不会出这个丑。。

我昨晚重点思考了香港房价的事情,据说香港房价最近5个月都稳重小涨,有企稳迹象,如果属实的话,或者反应了市场真是情况,可能国内这边也快了。希望是一个整体回暖,而不是局部结构调整,期待一切都会好起来。

//@刘群MT-to-Death:【当时Hinton临时成立的公司早就想卖给Google,所以现在地平线创始人余凯代表百度出价到更高的时候,Hinton就叫停了拍卖】看来百度本来就没有机会,并不是因为出价比不过Google。不过百度和余凯老师能在这件事情上留下一笔,也足以青史留名了[good][good][good]

@高飞

#模型时代# 从Alex卧室的两块GPU到万亿参数:Hinton与Jeff Dean复盘现代AI的7个关键决策

2025年NeurIPS大会的一期访谈,刚有空整理了一下,对话的两个人那是相当权威:Geoffrey Hinton和Jeff Dean(Google首席科学家、Gemini联合负责人)。主持人是Jordan Jacobs(Radical Ventures联合创始人、Vector Institute联合创始人)。

这场对话的价值在于:当事人亲口讲述了那些被后人神化的"历史时刻"到底发生了什么。你会发现,很多决定性突破的背后,是一些看起来很随意的判断。

我印象比较深刻的一个论述是,Hinton作为教授,如何挑选学生?

答案:问"你最好的想法是什么"。如果回答是"我还没有想法,等研究生阶段再说",那就不要。因为他要的是已经产生过原创想法的人,不管想法好不好。能力可以培养,但产生想法的习惯很难后天养成。

另外,这个对话里也提到,当时Hinton临时成立的公司早就想卖给Google,所以现在地平线创始人余凯代表百度出价到更高的时候,Hinton就叫停了拍卖。

一、"每周提高1%,就推迟一周答辩"——Hinton最好的管理决策

Alex Krizhevsky是AlexNet的第一作者,但他差点没做出来。

刚开始尝试用tiny images(一个缩略图数据集,图片只有32×32像素)做实验时,Alex告诉Hinton"不行"。Hinton去看了一眼,发现他把weight decay(权重衰减)设成了1。这个参数相当于对模型收的"税"——每学一点东西就要被扣掉一部分。正常税率是0.001,千分之一,模型能稳步积累知识;Alex设成了1,相当于100%税率,学到多少扣多少,永远攒不下东西。"为什么是1?""不知道,感觉是个好数字。"

"学生不懂某件事的时候看起来像傻瓜,但他们不是,只是不知道而已。Alex进步得非常快。"

后来Alex要做depth oral(博士资格考试的文献综述环节),但他不想做。Hinton做了一个决定:"每周你在ImageNet上的准确率提高1%,就可以推迟一周。"结果一周接一周过去,准确率一直在涨,Alex再也没做那个depth oral。

Hinton说这是他做过的最好的管理决策。

顺便一提,AlexNet是在Alex父母家的卧室里训练的。两块GPU显卡,多伦多大学买单;电费父母买单。"我这是在给大学省钱。"

二、"必须在Yann之前做出来"——Ilya的战略判断

推动AlexNet应用于ImageNet的关键人物是Ilya Sutskever。

当时卷积神经网络已经存在多年,Yann LeCun一直在推广它。Ilya的判断是:这东西用在ImageNet上肯定行,但机会窗口有限。他对Hinton说:"我们必须在Yann之前做出来。"

与此同时,Yann正在自己的实验室努力说服博士后和学生把卷积网络用于ImageNet,但每个人都有"更好的事情要做"。

Ilya不光催,还动手。他亲自把ImageNet的所有图片预处理成统一尺寸,让Alex可以直接用。

结果就是2012年的AlexNet,错误率比第二名低了10个百分点以上,震惊了整个计算机视觉领域。

三、"我们是收购标的,不是求职者"——DNN Research的定价策略

AlexNet之后,所有大公司都想挖Hinton、Ilya和Alex。

Hinton观察到一个现象:公司里"发工资的预算"和"做收购的预算"是两笔钱,后者是前者的10倍。所以他们决定成立一家公司DNN Research,把自己包装成收购标的,而不是求职者。

收购拍卖发生在Lake Tahoe赌场的NIPS会议上。楼下赌客赢一万美元铃声大作,楼上每次加价一百万。

Hinton其实早就决定Google必须赢——他那年夏天在Google Brain实习过,体验很好。最后眼看"错误的人可能会赢",他们直接叫停了拍卖。

"我后来一直想知道,是不是在场的人在操纵拍卖。"主持人Jordan问。Hinton笑着回答:"我们确实操纵了。"

四、"为什么我们不训练非常非常大的神经网络?我们有很多电脑"——Google Brain的起源

2012年的某一天,Jeff Dean在Google的微厨房(micro kitchen,Google办公区里分布的小型茶水间)偶遇Andrew Ng。Andrew刚开始每周来Google一天,Jeff问他在做什么,Andrew说他在斯坦福的学生用神经网络取得了好结果。

Jeff说了一句改变历史的话:"那为什么我们不在这里训练非常非常大的神经网络?我们有很多电脑。"

当时Google数据中心里没有GPU,只有大量CPU服务器。Jeff写了一套软件框架,可以把神经网络的计算切分到成千上万台机器上并行跑。他们用16000核CPU训练出比此前任何人都大50倍的模型,在1000万张YouTube随机截图上做无监督学习。

但他们犯了一个错误:为了让模型更像大脑,没有使用卷积共享权重——卷积的精髓是"同一个滤镜扫描整张图",参数可以复用;他们给图片每个位置都配了独立的滤镜,结果参数量膨胀到20亿。尽管如此,模型在ImageNet 22K上仍然取得了70%的相对错误率提升。

早期Brain团队只有约20人,全挤在一间比会议室还小的没窗户的办公室里。"没窗户可能是好事,他们就不会往外看了。"

Hinton那年夏天以64岁高龄成为Google实习生——因为访问学者必须待满6个月,而他只能待一个夏天,"实习生"是唯一能给他发badge的类别。"我觉得他们能录用64岁实习生的唯一原因是,年龄字段只分配了6个bit。"

他不得不和一群IIT和清华的学生一起上新员工培训课,教官说"用你的LDAP和OTP登录"——这是企业内网的账号协议和动态验证码,任何一个科技公司员工都该知道的基础操作——他举手问"什么是LDAP?什么是OTP?"四个助教最后决定专门分配一个给他。午餐时一个以前上过他课的本科生认出他喊了一声"Hinton教授",所有人才恍然大悟。

五、"先投5000万,还不知道怎么用"——TPU的豪赌

2013年,Jeff Dean做了一个"信封背面计算"(back of the envelope calculation,英文里指随手在纸上做的粗略估算):如果1亿人每天用语音和手机对话3分钟,用CPU跑最新的语音识别模型需要多少算力?

结果很吓人:需要把Google的服务器数量翻一倍。

Jeff判断,专用芯片是唯一出路。神经网络有几个好特性:运算类型很少,而且对精度要求不高——精度低一点只是引入一些噪声,而神经网络本来就喜欢噪声;甚至不需要纠错内存,因为算错几个bit也不影响结果。

他在走廊里"堵住"了当时的CFO Patrick Pichette,说服他先投5000万美元部署第一代TPU,尽管当时还不完全知道怎么用。

TPU v1专门做推理,性能比同期CPU/GPU好15-30倍,能效好30-80倍。这篇论文现在是计算机架构顶会ISCA历史上被引用最多的论文。

Jeff Dean认为这种软硬件一体的能力是Google的核心优势。硬件开发周期是2.5到6年,这意味着硬件设计师必须预测这个飞速发展的领域在遥远未来的方向。如果有机器学习研究者和硬件工程师坐在一起,分享那些"还不是主流但看起来有前景"的想法,预测就会准确得多。

六、"我们应该合并"——Gemini的诞生

ChatGPT发布时,Google内部其实已经有一个被广泛使用的聊天机器人,8万员工在用,反馈非常正面。

为什么没发布?因为从搜索产品的视角看,它有幻觉和准确性问题,而搜索最核心的原则就是准确。

"我们有点短视。我们没意识到聊天系统还能用来做很多其他事情——帮你给兽医写一封关于生病狗狗的信,帮你总结一篇论文……"

ChatGPT发布后一两周,Jeff Dean写了一页备忘录。核心观点是:Google当时有多个分散的团队在做大模型研究——Brain团队、DeepMind、以及其他几个。既分散人才,也分散算力,这没有道理。

他建议合并成一个团队,集中资源,目标是造世界上最好的多模态模型。

这就是Gemini的起源。

七、"发表它,因为对世界有好处"——Transformer论文的选择

有人问Jeff Dean:Google后悔发表Transformer论文吗?

"不后悔,因为它对世界产生了很好的影响。"

但他也承认,对于最大规模模型的某些训练细节,现在确实不再公开发表了。"我们仍然发表很多东西,如果你看NeurIPS的论文列表,我们可能有100多篇。但对于纯粹具有商业价值的最大规模模型的细节,我们确实有所保留。"

有意思的是,Transformer刚出来时,团队内部并不觉得它比其他突破更重要。Jeff Dean说:"我不确定它比sequence-to-sequence或mixture of experts重要多少。非常有用,但我们今天用的所有东西看起来都有用,因为那就是我们为什么用它们。"

Hinton坦言自己当时没太关注Transformer,因为他一直研究的是大脑如何工作,而大脑显然不会"保存所有神经活动向量的拷贝"。"我觉得这不能在大脑里实现,所以我不感兴趣。"

被忽视的警告与被拒的论文

这场对话里散落着一些"差点没发生"的故事,值得单独拎出来。

Hinton申请续期一个加拿大政府的战略性研究基金时,评审意见说"这项工作不可能有任何工业应用价值"。Hinton说:"我真希望知道是谁写的。我想告诉他,这个领域贡献了去年美国股市增长的80%。"

Distillation(蒸馏)是2014年的工作,被NIPS拒稿。评审理由是:"蒸馏出来的学生模型并不比老师模型更好,有什么意义?"——他完全没理解这项技术的目的是用小模型逼近大模型的效果。

还有一个Blackberry的故事。Hinton的学生George Dahl和Abdel-rahman Mohamed做出了比当时最好系统略好的语音识别模型。Hinton联系Blackberry说:"我们有更好的语音识别技术,想不想要?可以派个实习生过去演示。"Blackberry的回复是:我们对语音识别不感兴趣。

当然——那时候Blackberry还有键盘。

对未来的判断

Jeff Dean的技术路线图:把attention扩展到数十亿甚至万亿token,而不是现在的百万级;开发更节能、更高性价比的推理硬件;探索持续学习(continuous learning),让模型在服务用户时也能更新;突破现有的模型架构限制,探索更自由的连接模式。

Hinton对持续学习持谨慎态度:"有个很好的理由我们现在不做——静态模型更安全,你可以测试它。如果模型自己在学习,你很难知道它会学到什么。"

Hinton对整体未来的判断很直接:"如果有人真的建成了它,要么我们都幸福地生活,要么我们都死。"他认为20年后会怎样,没人有任何头绪。大量工作会消失,但问题不在AI,在于政治系统——生产力大幅提升后,财富如何分配?"至少在美国,你们目前的政府不是处理这个问题的理想配置。"

关于大模型的创造力,Hinton有一个有趣的观点:这些模型把海量知识压缩到"区区"万亿参数里,压缩意味着必须找到不同知识之间的共性。"它们知道的比任何一个人都多,可能正在发现希腊文学和量子力学之间的联系。没有多少人同时是这两个领域的专家。"

他认为医疗和教育是最可能被彻底改变的领域——两者都有弹性需求,效率提升不会减少需求,只会增加供给。"几年内AI会像私人家教一样好,再过一段时间会更好,因为它们见过一百万个其他学生。"

总结

这七个决策串起来,你会发现一个规律:成功的团队不是因为看到了别人看不到的东西,而是因为在所有人都犹豫的时候,他们"just insisted"(就是坚持)。

用Hinton的话说,enormous determination(巨大的决心)既能成就伟大的成果,也能让你在错误的方向上浪费多年——他自己在capsules上花了很多年,Jeff和Ilya都劝过他别做了,他没听。"选对方向的巨大决心能带来很好的结果;选错方向的巨大决心会让你浪费很多年。"

关键是选对方向。而怎么选对?没有人知道。

核心归纳

Q1: 为什么Google明明有8万员工在用的内部聊天机器人,却被ChatGPT打了个措手不及?

因为他们用搜索产品的镜头看聊天机器人。搜索最重要的是准确,而聊天机器人有幻觉问题,所以他们觉得不能发布。他们没意识到用户可以容忍聊天机器人在准确性上的瑕疵,因为用途不同——帮写信、总结文章、头脑风暴这些场景,"差不多对"就够了。

Q2: Hinton挑学生的核心标准是什么?

问"你最好的想法是什么"。如果回答是"我还没有想法,等研究生阶段再说",不要。他要的是已经产生过原创想法的人,不管想法好不好。能力可以培养,但产生想法的习惯很难后天养成。

Q3: 这两位大佬对AI未来最大的分歧是什么?

Jeff Dean认为持续学习(模型边服务边更新)是未来方向;Hinton认为这很危险,因为静态模型可以测试,动态学习的模型你不知道它会学到什么。这反映了工程思维和安全思维的张力——前者追求能力边界,后者担忧控制边界。

@深圳宁南山

感觉这两年中国在全球的影响力在飙升

举个例子,我前段时间在油管上就刷到了两个国外千万粉丝大V,

一个是泰国网红Kyutae Oppa,他的粉丝达到了929万人,评论区都说他是韩国人,但是整个频道都是泰语的,他在视频中也是说泰语,视频的评论也是泰国粉丝。

他11月2日上传的在重庆市区的旅游视频播放量到11月15日已经达到132万次,而在11月9日上传的前往重庆武隆旅游的视频播放量到11月15日也达到了59万次。

一个是墨西哥网红Luisito Comunia,他的油管账号粉丝量更是达到了惊人的4530万,粉丝显然不只是来自墨西哥,而是来自整个拉美的西语区。维基百科上说他的油管频道在墨西哥订阅量排第二位,在整个西班牙语世界排第九位。

他11月12日上传的重庆旅游视频,一天之内播放量就高达两百多万次 ,到11月15日我看了下,已经达到了惊人的576万次。

实际上今年来华的千万粉丝大V远不止这两个,百万粉丝级别的就更不用说了。

我有一个观点,那就是在全球广大发展中国家和地区,由于西方宣传覆盖弱一些,所以这些国家的老百姓对中国认识的变化会快一些,因为他们平时接收到中国的负面新闻报道相对少一点。

而发达国家的国民对中国的认识的改变则会相对滞后一点,因为他们的媒体宣传报道中国的负面内容会更多,更密集,这会导致国民对华认知的变化相对滞后。

[泪][泪]

@张新年律师

关于南京博物院涉嫌流失明仇英名画江南春事件,网传《虚斋旧藏古画捐赠人庞叔令对新华社报道的声明》

#南京博物院# 来源:@亚洲周刊

2025年12月19日00:27:02,新华网刊登了新华社《“南京博物院藏仇英名作现身拍卖市场”追踪》一文(以下简称“南博名作追踪”)。

本人庞叔令认为该文存在严重问题,现声明如下:

1、新华社未采访本人庞叔令。“南博名作追踪”部分内容失实,具有明显倾向,不公正、不客观。

2、“南博名作追踪”列证的三张图片,均系鉴定意见与流转材料。我的律师曾在法庭上要求南博提供,但其明确拒绝。南博在庭审中不向作为捐赠人的本人出示,如今却在法庭之外向第三方官媒提供。本人对其行为不能理解、不能接受,深感痛心。

3、南博未向新华社提供并公开其在1961年、1964年鉴定原件及未遮挡的文件全貌(南博此前以马赛克遮挡了关键内容)。

4、南博未向新华社提供其在“南博名作追踪”中提及的1986年~1990年鉴定原件(出处见文中图片——徐湖平以院长名义签署的“拨交省文物商店剔除品书画”)。

5、新华社在“南博名作追踪”中提及有六名以上专家、做过至少三次以上鉴定,本人请南博详细列明每位专家的鉴定意见,并提供原件。

6、在“南博名作追踪”中,南博向新华社提交了1961年的专家鉴定意见,专家明确“陈鎏题引首真”。陈鎏(1508~1575),字子兼,号雨泉,吴县(今江苏苏州)人,官至四川右布政使,其卒年晚于沈周、仇英。(来源:百度百科)这证明《江南春》有明代真迹。明代真迹是否属于文物,是否可被剔除,请南博向社会公众做出说明。

7、1997年梁白泉是南博时任院长,徐湖平是时任副院长。(见百度百科星图《南京博物院历任院长》)根据我国法律法规,徐湖平无权批准将《江南春图卷》等1259件剔除品书画“拨交”江苏省文物商店,无权以院长名义签批如此重大馆藏流出,其行为已涉嫌犯罪,本人在此公开请求国家对此人进行调查。

……

刚解放的那会,枪毙了不少土匪,稍微做做思想工作,这些土财主,大户收藏家就能献出国宝,现在这个时候,国宝的价值都量化了,也足够法制化了,大概率不会再有什么普通人会捐了(个别大款还是有捐的),所以南博摆烂,不care捐赠者权益,捐赠者要查根本不给查,傲慢不理睬,直到对簿公堂都无可奉告很多细节,新华社一来查,这才挤牙膏式交代了一些。。这些都能理解。

我最不能理解的是出了这么多博物馆,美术馆大案要案,这个文物保管制度为什么还不更新,不能再用一把手领导负责制这个老套路,风险太大了,其他方向可以这么搞,效率高一点,文保单位真不能这么搞,太依仗一把手的段位了,要把权力关在笼子里,要透明啊。

现在查得这么紧,当务之急要放几个消防车到南博,防止大火平帐[捂嘴哭]。 另外走了程序,领导签字就能离开博物馆,会不会启发其他博物馆ld[允悲]。

真是感觉不能查太深了,能追回国宝点到即止就算了[泪][泪] ​​​​

宇树那个机器人如果净化到能入wu参jun,我们这种生产能力,直接生产一千万bd,苗子那边是不是马上就跪了?世界就和平了?[允悲]

http://t.cn/AXUnSTHI

字节是牛逼,深得教员兵法。。硬是在大厂环伺的环境下,把基础设施做得非常牛逼,我认识好几个字节元老,了解不少内幕,很多大厂没这个infra,想学都学不了,当然了加上产品设计也牛逼,几乎全是长板。。//@李成东:希望字节跳动最终是在A股上市!大牛市,需要超级公司。[作揖]//@但斌:[赞][作揖]

@白骑士张伟明

投字节是从780亿美元一直收老股,没有人卖,直到疫情和打击互联网资本无序扩张,一些股东担心字节上不了市,我们才收了第一笔老股转让,然后就是中米贸易战,老米封杀海外抖音,我们打了个折收了第二笔老股转让,总共经历了7年,如今的字节已经是互联网+ Ai重要玩家了,上市即万亿美元的世界级公司[鲜花]

字节是牛逼,深得教员兵法。。硬是在大厂环伺的环境下,把基础设施做得非常牛逼,我认识好几个字节元老,了解不少内幕,很多大厂没这个infra,想学都学不了,当然了加上产品设计也牛逼,几乎全是长板。。//@李成东:希望字节跳动最终是在A股上市!大牛市,需要超级公司。[作揖]//@但斌:[赞][作揖]

@白骑士张伟明

投字节是从780亿美元一直收老股,没有人卖,直到疫情和打击互联网资本无序扩张,一些股东担心字节上不了市,我们才收了第一笔老股转让,然后就是中米贸易战,老米封杀海外抖音,我们打了个折收了第二笔老股转让,总共经历了7年,如今的字节已经是互联网+ Ai重要玩家了,上市即万亿美元的世界级公司[鲜花]

这种事情还不很明显嘛。。。但真不能公开讲。//@可能会火123:八友科技的@梁斌penny 应该知道[泪] //@八大山债人:确认gnss信号被干扰了。。。谁扰的,不知道。。。#债见# 。。。//@海伦娜丝:神马意思?//@八大山债人:说了鸭子。。。#债见# 。。。//@PS3保罗:转发微博

@央广网

【#南京导航失灵系卫星信号受到临时干扰#】#南京导航集体失灵军用频率不受影响#19日,“南京卫星协会”发布《关于12月17日南京区域导航信号异常情况的技术性探讨分析》,全文↓ ​​​​

还是说说啦啦队的事情,我觉得能去啦啦队的,颜值不低,不过达不到明星的水平,否则早就被市场发现了。。或者被群众捧上去了。虽然颜值没法量化,但市场基本上会给与最好的安排,是客观公正的。

以前没有抖音,快手这些,颜值的市场化水平还不高,可能取决于星探和导演的发掘,现在有了抖音,可以自己开直播了,颜值的定价就充分市场化了。对于颜值更普通的绝大多数人,市场是不会定价的,也就是没有价值,那就要靠劳动力,靠头脑吃饭了,人还是要发挥天赋,靠长板吃饭,市场不会同情弱智 [泪]

一会去菜市场买菜,最近一周最大亏损近10万美金,这两天回了4万美金,可以说惨不忍睹,不过我还是坚持认为AI的投资还是早期,不过结构上发生了变化,芯片的投资应该降低,电力的投资应该提高,铜铝等关键生产要素的投资应该提高。

总之,还是要加强学习,不学习可真是要亏钱的。。

“梁博,我想转行大模型,现在大模型最稀缺的岗位是什么?”

答,这个我可能不一定能说得好,我理解最需要的是实验员。。现在大模型的发展需要大量的创新,而这些创新是否work需要大规模的实验,你看思维链,Deep Thinking,辩论式推理,都是无数走到大家面前的好的idea,但是还有很多大家没看到的idea,要么被大量实验证明是错误的,或者还在继续改进中。因此这个里面需要大量的人来搞。

这类人需要对大模型的原理,卡点非常了解,要有创新思维,动手能力,发现和解决问题的能力,当然我说的也不一定对,其他大模型资深同志可以评论区谈谈。。

美国大模型可以轻松收割全世界群众(包含中国群众),大量付费使用者。但是国内大模型基本只能2B,2G乃至2J,能从群众手里收钱太难了。中国虽然工业化水平高,但是大多干的是薄利生意,愿意为AI买单,能够支付大金额买单的企业不多,付费意愿和能力都有限。zf这块比较敏感不展开。美国有Palantire这样大厂,中国无数家喊出对标P厂的,但是没有一家杀出来,主要是没有市场支撑。

我曾经和国内某绝对头部大厂的领导询问他们的盈利模式,他们不走面向用户收费,主要是和非互联网大厂的技术合作(定制),这块是高利润,能覆盖免费2C的成本,另外就是AI提高了用户粘性,靠广告收费。主要还是技术合作收入,广告收入。该厂也是目前国内互联网大厂唯一依然在突飞猛进的大厂,国际化最牛逼的大厂。。

要把我厂并购了,营收没准就翻翻了[允悲]

@新浪财经

【#智谱或将成全球大模型第一股#】最早启动IPO的北京智谱华章科技股份有限公司(简称智谱),12月19日正式披露招股书。招股书显示,2022年、2023年、2024年收入分别为5740万、1.245亿、3.124亿。2022年至2024年连续三年收入翻倍,年复合增长率达到130%。公司收入主要来自于大模型收入。公司毛利率持续保持在50%以上。招股书显示,2022年、2023年、2024年分别拥有54.6%、64.6%、56.3%的毛利率,2025年上半年毛利率为50%。目前,智谱大模型赋能了全球12000家企业客户、逾8000万台终端用户设备及超4500万名开发者,是中国赋能终端设备最多的独立通用大模型厂商。智谱成立于2019年,是国内最早研发大模型的企业,也是中国体量最大的独立大模型厂商,或将有望成为“全球大模型第一股”。(证券时报)

这问题就更大了,院长不知道,就把事情给办了[允悲],钱哥几个分了,然后找领导背锅[泪]。

@正在新闻

#南博前院长回应争议文物流出# 【南博前院长徐湖平回应《江南春》画卷流出:“非经我手鉴定,以调查为准”】#南博流出画卷签字院长回应# 12月19日晚,南京博物院前院长徐湖平告诉《正在新闻》,“这个事没有经我手,我不是书画鉴定家。”对于《江南春》画卷一事,还需联系南京博物院,“文化厅工作组会实事求是调查,我也确实不了解情况,以调查结果为准。”

徐湖平表示,他今年82岁了,身体抱恙在家,由老伴照顾起居,“高血糖,前列腺也不好。”2008年退休至今,近20年不再过问外界的事。

此前新华社报道,1958年,庞莱臣家人曾给南京博物院捐赠“虚斋旧藏古画”137件。其中仇英《江南春》图卷突然出现在拍卖行市场。曾有两轮专家鉴定后认为《江南春》系作伪,1997年5月8日,被专家认定为赝品的《江南春》图卷拨交给原江苏省文物总店。

拨交证明有时任院长徐湖平、保管部主任钱锋、申请人凌波的签字。2001年4月16日《江南春》被“顾客”以6800元价格购买,销售清单明示为《仿仇英山水卷》。

另据《中国新闻周刊》报道,江苏省文旅厅牵头成立工作专班联合调查处理此事,“内部正在研究,会有正式对外的口径”,若存在相关违法违规行为,将根据调查结果依法依规处置,最终调查结果将及时对外公布。

http://t.cn/AXUQvAFB

华为整体性优势太大了,各个方面都摸到了世界前列,我问了下大模型,全体员工20万,其中研发11万。。管理水平之高,叹为观止,和平年代,一家私营企业能做到这么大规模,还有如此生命力,难怪其他大厂都非常忌惮。。从软件到硬件,从系统到应用,2B到2C,太全面了,大部分都是基础设施上,倘若未来在应用端继续发力,简直不可想象。

假如全厂20万人集体出去旅游,需要多少量大巴车,如果按顺序出发,2辆车2辆车一起出发,从第一批车出发到最后一批车出发预计间隔33.33小时(大模型帮我算的最快时间)。如果共同就餐,大模型认为将会是一个巨大的挑战。。。太可怕了。

感觉至少要30几个纵队[允悲]//@万能的大熊:你来说说,华为到底有什么领先?[doge]

@大嘴洞悉Plus

很多人好奇,华为到底强在哪? ​​​

会不会以后机器主唱,人伴舞?观众是机器。。[苦涩]//@牛叔:今年春晚谁家机器人上感觉竞争越来越激烈。。。//@喜脉洗脉://@学长阿浪:最后一下震惊到我了[哆啦A梦吃惊]

@杰克波比

王力宏演唱会机器人伴舞,才过去多久,就已经发展成这个样子了吗?[跪了]

http://t.cn/AXUjXSeO