📢 Gate广场 #NERO发帖挑战# 秀观点赢大奖活动火热开启!
Gate NERO生态周来袭!发帖秀出NERO项目洞察和活动实用攻略,瓜分30,000NERO!
💰️ 15位优质发帖用户 * 2,000枚NERO每人
如何参与:
1️⃣ 调研NERO项目
对NERO的基本面、社区治理、发展目标、代币经济模型等方面进行研究,分享你对项目的深度研究。
2️⃣ 参与并分享真实体验
参与NERO生态周相关活动,并晒出你的参与截图、收益图或实用教程。可以是收益展示、简明易懂的新手攻略、小窍门,也可以是行情点位分析,内容详实优先。
3️⃣ 鼓励带新互动
如果你的帖子吸引到他人参与活动,或者有好友评论“已参与/已交易”,将大幅提升你的获奖概率!
NERO热门活动(帖文需附以下活动链接):
NERO Chain (NERO) 生态周:Gate 已上线 NERO 现货交易,为回馈平台用户,HODLer Airdrop、Launchpool、CandyDrop、余币宝已上线 NERO,邀您体验。参与攻略见公告:https://www.gate.com/announcements/article/46284
高质量帖子Tips:
教程越详细、图片越直观、互动量越高,获奖几率越大!
市场见解独到、真实参与经历、有带新互动者,评选将优先考虑。
帖子需原创,字数不少于250字,且需获得至少3条有效互动
AI百模大战背后:技术门槛降低 商业前景仍不明朗
AI领域百模大战正酣,但商业前景仍不明朗
上个月,AI界掀起了一场"动物之争"。一方是Meta的Llama模型,因其开源特性广受开发者欢迎。日本NEC公司研究Llama后迅速开发出日语版ChatGPT。另一方是名为Falcon的大模型,5月问世后力压Llama登顶开源LLM排行榜。
有趣的是,Falcon并非出自科技公司,而是阿联酋阿布扎比科技创新研究所开发。阿联酋官员表示,他们参与这个领域是为了"颠覆核心玩家"。Falcon 180B版本发布次日,阿联酋AI部长就入选了《时代周刊》"AI领域最具影响力的100人"。
如今AI领域已进入百家争鸣阶段,有实力的国家和企业都在打造自己的大模型。仅在海湾地区,沙特阿拉伯也刚为国内大学购入3000多块H100芯片用于LLM训练。
一位投资人曾在社交媒体吐槽:"当年看不起互联网的商业模式创新,觉得没有壁垒。没想到硬科技大模型创业,依然是百模大战..."
号称高门槛的硬科技,怎么变成了人人都能参与的角逐?
Transformer改变游戏规则
各国初创公司、科技巨头、石油大亨能够追逐大模型梦想,都要归功于2017年谷歌发表的《Attention Is All You Need》论文。该论文公开了Transformer算法,成为此轮AI热潮的导火索。当前各种大模型,无论国籍如何,包括轰动世界的GPT系列,都建立在Transformer基础之上。
此前,"教机器读书"一直是公认的学术难题。与图像识别不同,人类阅读时不仅关注当前词句,还会结合上下文理解。早期神经网络的输入相互独立,难以理解长文本甚至整篇文章,因此出现了将"开水间"翻译成"open water room"这类问题。
2014年,在谷歌工作后转投OpenAI的计算机科学家伊利亚·萨茨克弗(Ilya Sutskever)率先取得突破。他使用循环神经网络(RNN)处理自然语言,使谷歌翻译性能大幅领先竞品。RNN提出"循环设计",让每个神经元既接受当前时刻输入,也接受上一时刻输入,从而具备了"结合上下文"的能力。
RNN的出现点燃了学界研究热情,Transformer论文作者沙泽尔(Noam Shazeer)也曾沉迷其中。但开发者们很快发现RNN存在严重缺陷:该算法使用顺序计算,虽能解决上下文问题,但运行效率低下,难以处理大量参数。
RNN的繁琐设计让沙泽尔感到厌烦。2015年起,他和7位同好着手开发RNN替代品,最终成果就是Transformer。相比RNN,Transformer有两大创新:一是用位置编码取代循环设计,实现并行计算,大幅提升训练效率,使AI进入大模型时代;二是进一步增强了上下文理解能力。
Transformer一举解决了多项缺陷,逐渐成为NLP(自然语言处理)的主流方案。连伊利亚也抛弃了自己开创的RNN,转投Transformer阵营。可以说,Transformer是当今所有大模型的始祖,它将大模型从理论研究变成了纯粹的工程问题。
2019年,OpenAI基于Transformer开发出GPT-2,震惊学界。谷歌随即推出性能更强的AI模型Meena。与GPT-2相比,Meena没有算法革新,仅是增加了8.5倍训练参数和14倍算力。Transformer作者沙泽尔对这种"暴力堆砌"大为震撼,写下了"Meena吞噬世界"的备忘录。
Transformer问世后,学界底层算法创新速度大幅放缓。数据工程、算力规模、模型架构等工程因素,日益成为AI竞赛的关键。只要有一定技术能力的科技公司,都能开发出大模型。
计算机科学家吴恩达在斯坦福大学演讲时提出:"AI是一系列工具的集合,包括监督学习、无监督学习、强化学习以及现在的生成式人工智能。这些都是通用技术,类似于电力和互联网等其他通用技术。"
OpenAI固然仍是LLM领域的风向标,但半导体分析机构Semi Analysis认为,GPT-4的竞争力源于工程解决方案——如果开源,任何竞争对手都能迅速复制。该分析师预计,可能用不了多久,其他大型科技公司也能开发出与GPT-4性能相当的大模型。
护城河建立在何处?
目前,"百模大战"已不再是比喻,而是现实。据报告显示,截至今年7月,中国大模型数量已达130个,超过美国的114个,各种神话传说几乎不够国内科技公司取名用了。
除中美之外,其他富裕国家也初步实现了"一国一模":日本、阿联酋,还有印度政府主导的Bhashini、韩国互联网公司Naver开发的HyperClova X等。这种景象,仿佛回到了互联网泡沫时代,各方纷纷烧钱入场。
正如前文所述,Transformer让大模型变成纯工程问题,只要有资金和硬件,剩下就是参数调优。但入场门槛降低并不意味着人人都能成为AI时代的巨头。
开篇提到的"动物之争"就是典型案例:Falcon虽在排名上超越了Llama,但很难说对Meta造成多大冲击。众所周知,企业开源自身科研成果,既是为了分享科技红利,也希望调动社会智慧。随着各界不断使用、改进Llama,Meta可以将这些成果应用到自己的产品中。
对开源大模型而言,活跃的开发者社群才是核心竞争力。Meta早在2015年组建AI实验室时就确立了开源路线;扎克伯格凭借社交媒体起家,更懂得"维护群众关系"的重要性。
例如10月,Meta专门举办了"AI创作者激励"活动:使用Llama 2解决教育、环境等社会问题的开发者,有机会获得50万美元资助。如今,Meta的Llama系列已成为开源LLM的风向标。
截至10月初,某知名平台开源LLM排行榜前10名中,有8个基于Llama 2开发,均使用其开源协议。仅在该平台上,使用Llama 2开源协议的LLM已超过1500个。
提升性能固然可行,但目前大多数LLM与GPT-4仍有明显差距。例如近期,GPT-4以4.41分的成绩问鼎AgentBench测试榜首。AgentBench由清华大学与多所美国知名大学共同推出,用于评估LLM在多维度开放式生成环境中的推理能力和决策能力。
测试结果显示,第二名Claude仅获2.77分,差距仍较大。至于那些声势浩大的开源LLM,多数得分徘徊在1分左右,还不到GPT-4的四分之一。要知道,GPT-4发布于今年3月,这还是全球同行追赶大半年后的成绩。
造成这种差距的,是OpenAI高水平的科学家团队与长期研究LLM积累的经验,使其始终保持领先地位。换言之,大模型的核心能力不在于参数,而在于生态建设(开源)或纯粹的推理能力(闭源)。
随着开源社区日益活跃,各LLM性能可能趋同,因为大家都在使用相似的模型架构与数据集。另一个更直观的难题是:除了Midjourney,似乎还没有哪个大模型能实现盈利。
寻找价值锚点
今年8月,一篇题为"OpenAI可能会于2024年底破产"的文章引发关注。文章主旨几乎可用一句话概括:OpenAI的烧钱速度过快。
文中提到,自开发ChatGPT以来,OpenAI亏损迅速扩大,2022年就亏损约5.4亿美元,只能依靠微软投资支撑。这篇文章虽标题耸人听闻,却也道出了许多大模型提供商的现状:成本与收入严重失衡。
过高的成本导致目前靠AI真正赚大钱的只有英伟达,最多再加上博通。据咨询公司Omdia估计,英伟达今年二季度售出超30万块H100芯片。这是一款高效的AI芯片,全球科技公司和研究机构都在争相购买。如果将这30万块H100叠在一起,重量相当于4.5架波音747飞机。
英伟达业绩随之飙升,同比营收增长854%,令华尔街瞠目结舌。值得一提的是,H100在二手市场价格已被炒至4-5万美元,而其物料成本仅约3000美元。
高昂的算力成本在某种程度上已成为行业发展障碍。红杉资本曾估算:全球科技公司每年预计将花费2000亿美元用于大模型基础设施建设;相比之下,大模型每年最多只能产生750亿美元收入,存在至少1250亿美元缺口。
此外,除Midjourney等少数例外,多数软件公司在投入巨额成本后,还未找到盈利模式。即便是行业领头羊微软和Adobe也面临挑战。
微软与OpenAI合作开发的AI代码生成工具GitHub Copilot,虽每月收取10美元,但因设施成本,微软反而每月亏损20美元,重度用户甚至能让微软每月亏损80美元。由此推测,定价30美元的Microsoft 365 Copilot可能亏损更多。
同样,刚推出Firefly AI工具的Adobe也迅速上线了配套积分系统,防止用户过度使用导致公司亏损。一旦用户超出每月分配积分,Adobe就会降低服务速度。
值得注意的是,微软和Adobe已是业务场景明确、拥有大量付费用户的软件巨头。而大多数参数庞大的大模型,最主要应用场景仍是聊天。
不可否认,若没有OpenAI和ChatGPT横空出世,这场AI革命可能不会发生;但目前,训练大模型带来的价值还存在疑问。随着同质化竞争加剧和开源模型增多,单纯的大模型供应商可能面临更大挑战。
iPhone 4的成功不在于45nm制程的A4处理器,而在于它能玩植物大战僵尸和愤怒的小鸟这样的应用。