最近AI相关的公司股票都因为美国各种循环融资,
看不到回报的高额度投入和全球市场流动性的缺失遭受重创。
CSP大厂改折旧,
现金流,
资本开支营收占比已经比较高了这点我去年中就提过了,
但当时市场无视了,
继续猛冲AI,
现在又被拿出来热议,
核心原因和当时完全一样,
还是没有看到与资本开支相匹配的盈利和爆款应用,
说白了市场认为的泡沫就是投入成本太高。
但当下大家也是不可能真不投入AI了,
与其去虚无缥缈的预测资本开支破裂和爆款应用的出现时间,
还不如去研究当前行业的发展趋势去破解AI的“泡沫”问题。
怎么破解呢,
答案就是降本,
任何一项技术的发展趋势必定是其单位成本的不断降低,
不然他就不可能普及。
从大哥大到小灵通再到智能手机,
从互联网到移动互联网都是这样走过来的。
那么当下AI最大的困境在哪里:资本开支高和缺电,
对应起来就是GPU太贵,
电力消耗过大,
那么怎么解决这个问题,
就下面两个路径:
一、
降算卡的系统成本
(1)自研芯片,
典型代表就是谷歌嘛,
并且谷歌和苹果一样属于现金充裕,
生态闭环,
软硬兼修的六边形战士,
理所当然地成为巴老爷子人生最后一笔投资。
从下面这张表也能看出来谷歌TPU7配置还是相当可以的,
两块能力基本对标B300,
但是从价格算,
买块B300估计能做四张TPU7。
因此26年TPU出货指引已经来到了四百万张,
都快赶上预测的26年Rubin 出货量了。
对产业影响就在于,
如果通用GPU和自研卡长期总市场达到1:1,
意味着同样的资本开支,
能实现大约原来1.5倍以上的算力和存储使用量。
对光模块这些配套产品同样是这个道理,
更多的卡意味着配套需求增加了。
(这段是我9月7号写的,
刚好这波存储爆发前,
详情可以翻一下当时的内容)
(2)将传统一款GPU拆分成推理+深层训练两种不同配置卡的形式,
采用高低搭配的内存方案,
英伟达的rubin+CPX组合以及昇腾系列芯片的950pr+950dr都是这个例子,
逻辑部分可以采用同样的芯片,
但是通过在内存上采用不同的配置降低成本。
像288G HBM4成本已经到了惊人的3万+人民币,
但是我用288G的GDDR7可能才1万5左右,
文本预处理轻量化可以显著降低我的推理卡成本,
部署更多的卡用于推理。
昇腾950pr这个自研的HI BL1.0是个国内创新出的非传统HBM的高带宽推理卡方案,
人家还没正式发布不适合公开讨论,
不过行业内的话估计应该猜到是啥了。
二、
降低服务器耗电
这周新闻已经提到了,
为了降低AI服务器的耗电量,
英伟达近期决定将服务器使用的内存从通常用于服务器的DDR5(第5代双倍数据速率同步动态随机存取内存),
改为LPDDR5X——也是许多旗舰手机采用的内存。
至于国内的AI芯片节电,
和高通一样,
搞得比英伟达还要激进很多,
人家还在CPU的存储上用lpddr节电,
咱们直接把算盘打到了GPU上的存储上,
不能再剧透了,
只能说你懂的。
此外就是服务器风冷换液冷,
这个自然不用说了,
散热嘛,
也是能耗重点。
总之,
产业内会发生很多结构性的转变这些环节依然是后续大机会所在。
存储,
这边这周也给干的很惨,
一个是流动性问题,
一个是所谓的内存大规模扩产。
首先海力士和三星真正新建的产能分别只有M15X和平泽 P4,
其他都是自家原有的老制程DDR4/LPDDR5产能转产的,
实际上不算啥新增产能,
标题一个大大的XX扩产8倍更多是文字游戏,
一是先进1C制程原来基数小,
二是你5成以上都是存量产能升级了一下制程,
实际总量增加值还比较有限。
而且这扩产起码26年下半年以后才能落地,
有的甚至是27-28年的期货,
装机完全可以跟着市场需求调整。
将DRAM价格维持在一个相对高位波动,
扩大销售满足需求,
才是存储原厂想干也是需要去做的的,
获得一个类似于hbm的长期的高毛利,
量价齐增,
由于DRAM一共就三星、
美光、
海力士三家主导,
据说韩厂两家桌面下是有些勾兑的。
此外,
需要注意的是,
大家看到的现货价,
原厂供货的是合约价,
远没有现货价这么高,
哪怕现货价格腰斩原厂价格依然要比现货价低50%。
从HBM扩展到通用存储,
使得Ai业务占比大幅提高,
存储原厂量价齐增的“光模块时刻”已经到来。
美国银行也发了个报告描述当下的尴尬,
买方内部的分歧很大,
买方研究员都看好存储,
但是基金经理怕成接盘侠,
通俗地讲就是懂行的都觉得没问题,
但是管钱的担心,
只能等二级市场见底后再冲了
**$TAO **$DAI $AIA
8.63万 热度
42.46万 热度
5.9万 热度
8624.42万 热度
20.03万 热度
当下,如何破解AI“泡沫”?-安全可靠加密数字货币交易所平台
最近AI相关的公司股票都因为美国各种循环融资,
看不到回报的高额度投入和全球市场流动性的缺失遭受重创。
CSP大厂改折旧,
现金流,
资本开支营收占比已经比较高了这点我去年中就提过了,
但当时市场无视了,
继续猛冲AI,
现在又被拿出来热议,
核心原因和当时完全一样,
还是没有看到与资本开支相匹配的盈利和爆款应用,
说白了市场认为的泡沫就是投入成本太高。
但当下大家也是不可能真不投入AI了,
与其去虚无缥缈的预测资本开支破裂和爆款应用的出现时间,
还不如去研究当前行业的发展趋势去破解AI的“泡沫”问题。
怎么破解呢,
答案就是降本,
任何一项技术的发展趋势必定是其单位成本的不断降低,
不然他就不可能普及。
从大哥大到小灵通再到智能手机,
从互联网到移动互联网都是这样走过来的。
那么当下AI最大的困境在哪里:资本开支高和缺电,
对应起来就是GPU太贵,
电力消耗过大,
那么怎么解决这个问题,
就下面两个路径:
一、
降算卡的系统成本
(1)自研芯片,
典型代表就是谷歌嘛,
并且谷歌和苹果一样属于现金充裕,
生态闭环,
软硬兼修的六边形战士,
理所当然地成为巴老爷子人生最后一笔投资。
从下面这张表也能看出来谷歌TPU7配置还是相当可以的,
两块能力基本对标B300,
但是从价格算,
买块B300估计能做四张TPU7。
因此26年TPU出货指引已经来到了四百万张,
都快赶上预测的26年Rubin 出货量了。
对产业影响就在于,
如果通用GPU和自研卡长期总市场达到1:1,
意味着同样的资本开支,
能实现大约原来1.5倍以上的算力和存储使用量。
对光模块这些配套产品同样是这个道理,
更多的卡意味着配套需求增加了。
(这段是我9月7号写的,
刚好这波存储爆发前,
详情可以翻一下当时的内容)
(2)将传统一款GPU拆分成推理+深层训练两种不同配置卡的形式,
采用高低搭配的内存方案,
英伟达的rubin+CPX组合以及昇腾系列芯片的950pr+950dr都是这个例子,
逻辑部分可以采用同样的芯片,
但是通过在内存上采用不同的配置降低成本。
像288G HBM4成本已经到了惊人的3万+人民币,
但是我用288G的GDDR7可能才1万5左右,
文本预处理轻量化可以显著降低我的推理卡成本,
部署更多的卡用于推理。
昇腾950pr这个自研的HI BL1.0是个国内创新出的非传统HBM的高带宽推理卡方案,
人家还没正式发布不适合公开讨论,
不过行业内的话估计应该猜到是啥了。
二、
降低服务器耗电
这周新闻已经提到了,
为了降低AI服务器的耗电量,
英伟达近期决定将服务器使用的内存从通常用于服务器的DDR5(第5代双倍数据速率同步动态随机存取内存),
改为LPDDR5X——也是许多旗舰手机采用的内存。
至于国内的AI芯片节电,
和高通一样,
搞得比英伟达还要激进很多,
人家还在CPU的存储上用lpddr节电,
咱们直接把算盘打到了GPU上的存储上,
不能再剧透了,
只能说你懂的。
此外就是服务器风冷换液冷,
这个自然不用说了,
散热嘛,
也是能耗重点。
总之,
产业内会发生很多结构性的转变这些环节依然是后续大机会所在。
存储,
这边这周也给干的很惨,
一个是流动性问题,
一个是所谓的内存大规模扩产。
首先海力士和三星真正新建的产能分别只有M15X和平泽 P4,
其他都是自家原有的老制程DDR4/LPDDR5产能转产的,
实际上不算啥新增产能,
标题一个大大的XX扩产8倍更多是文字游戏,
一是先进1C制程原来基数小,
二是你5成以上都是存量产能升级了一下制程,
实际总量增加值还比较有限。
而且这扩产起码26年下半年以后才能落地,
有的甚至是27-28年的期货,
装机完全可以跟着市场需求调整。
将DRAM价格维持在一个相对高位波动,
扩大销售满足需求,
才是存储原厂想干也是需要去做的的,
获得一个类似于hbm的长期的高毛利,
量价齐增,
由于DRAM一共就三星、
美光、
海力士三家主导,
据说韩厂两家桌面下是有些勾兑的。
此外,
需要注意的是,
大家看到的现货价,
原厂供货的是合约价,
远没有现货价这么高,
哪怕现货价格腰斩原厂价格依然要比现货价低50%。
从HBM扩展到通用存储,
使得Ai业务占比大幅提高,
存储原厂量价齐增的“光模块时刻”已经到来。
美国银行也发了个报告描述当下的尴尬,
买方内部的分歧很大,
买方研究员都看好存储,
但是基金经理怕成接盘侠,
通俗地讲就是懂行的都觉得没问题,
但是管钱的担心,
只能等二级市场见底后再冲了
**$TAO **$DAI $AIA