"SLM"的搜索结果
03:57
Cookie 上的项目以技术创新为核心,构建高效、安全的 Web3 生态,为下一代互联网奠定坚实基础。每个都在各自领域实现了突破性创新 @VeloraDEX (#Velora#) 前身 ParaSwap,使用意图驱动架构进行跨链交易。其多资产路径(MAP)路由从 160+ 协议和 9 条区块链聚合流动性,处理了 1200 亿美元的交易量。 通过求解器拍卖和 MEV 保护,Velora 优化执行路径,将失败率降低 22%,同时启用无 Gas、语音命令交换——向用户中心 DeFi 的范式转变。 @vooi_io (#VOOI) 通过链抽象余额(CAB)系统补充这一点,在链间统一流动性,通过智能路由算法。支持 23 条公链和 500+ 池,它提供 99.3% 的交易成功率和 37% 的 Gas 节省。 由 YZi Labs 驱动的 V2 主网引入永续合约和 RWA,在去中心化环境中抽象桥接,提供类似 CEX 的用户体验。 @Almanak__(#Almanak) 通过 AI 群和 ERC-7540 金库引入预测治理。其模块以 2.3% 的偏差准确率预测提案影响,将 DAO 效率提升 55%。 非托管执行和审计策略确保鲁棒性,将其定位为链上金融的性能层。 @OpenLedgerHQ(#OpenLedger) 作为数据层,利用 Optimism Stack 用于专用语言模型(SLM)。通过数据网启用证明归属和 ERC-8004 代理,它变现 20PB+ 数据集,产生 1470 万美元收入。 @antix_in (#antix) 通过 GPT-4o 集成开创 AIGE(AI 生成实体),为元宇宙创建灵魂绑定数字人类。NFT 增长 300%,由 822 万美元融资支持,其平台支持实时流媒体和情感计算,由区块链保护可验证身份。 @build_on_bob (#BuildOnBOB) 提供模块化 Rollup,融合比特币的安全性与以太坊的 EVM。支 持 127 种自定义方案,它在 DeFi 链中实现 8000 TPS,在游戏中 0.3 秒最终性,通过 BitVM 桥接——无需包装器解锁 BTC 流动性。 @RaylsLabs (#RaylsLabs) 采用双链混合:兼容 EVM 的公共 L2 带 KYC,以及 ZKP/同态加密的私有子网。 桥接 TradFi-DeFi,它在 CBDC 试点中处理每日 200 万交易,由 ParaFi 和 Framework 的 3800 万美元支持。 @recallnet (#Recall) 通过 AgentRank 提供链上内存,验证 AI 性能,使用不可变编辑历史。误信息检测准确率 98.7%,被媒体采用用于 zkML 推理,启用可组合知识单元。 @tenprotocol (#TenProtocol) 融合 TEE 和 ZKP 用于机密 Rollup,每秒处理 4500 笔加密 TPS,错误率 0.1%。兼容 EVM,它支持密封拍卖和私有金库,在保留数据控制的同时扩展以太坊。 @LABtrade_ (#LAB) 在 6 条链/12 个 DEX 上聚合 meme 流动性,将确认压缩到 1.2 秒,滑点 0.5%。其模块化引擎促进快速项目启动,推动高波动交易的效率。 @cookiedotfun |#COOKIE #SNAPS
COOKIE-7.68%
DEFI-4.2%
RWA21.26%
  • 2
  • 2
  • 1
16:18
这不仅仅是另一个AI项目,Nahhh.... @OpenledgerHQ 正在明确构建一个全新的去中心化人工智能基础设施。 不再有黑箱AI。 不再出现虚幻的答案。 不再有数据盗窃。 这就是它与众不同的地方 您的数据被归因于其来源,从而实现透明的环境。 记录在链上,因此没有不公平的余地,使人工智能负有责任。 如果一个人提供数据,他将在人工智能模型使用时获得合理的补偿。 这不是炒作。这是真正的开源 一个全球性的AI基础设施,任何来自世界各地的人都可以为每个人构建AI。 我们所知道的人工智能已经过时。 Openledger 是下一步。 赋能贡献者和SLM 利用区块链 所以真正的问题是 你还在使用通用智能吗… 或已经是未来的一部分? 好的,我的爱,保持 $OPEN ❤️
MORE-4.34%
BOX-17.2%
GET-5.45%
06:04
从前,山脚下的村民种桃,却要把果实全交给山顶庙里的祭司售卖。没人知道赚了多少钱,也没人拿到分红。祭司说:“你们只管种。” 后来,年轻人在山腰办集市,每棵树都标上名字,谁浇水、谁施肥都记清楚,卖桃的钱也自动分给每个人。人们终于说:“果子是我们种的,当然要一起分。” 今天的AI何尝不是另一个“山顶的庙”?数据我们产,价值却被大公司独占。而 @OpenledgerHQ 像那个山腰的集市——它用一条专为AI设计的链,让社区共建“数据网络”,训练医疗、金融等专用模型(SLM)。谁贡献,链上记录,靠“贡献证明”不被白嫖;模型赚钱后,收益自动分给参与者。 代币 OPEN 是燃料,用于支付和激励。生态越旺,越多人受益。它想做的,不是再建一个AI巨头,而是让每个人都能在AI时代分一杯羹。如果未来AI像水电一样重要,那它,或许就该是大家共建共享的公共设施。 #Openledger #Cookie #Kaito #ETH
COOKIE-7.68%
KAITO-4.37%
ETH-4.35%
  • 1
22:50
SLM
09:14
听到传言 @OpenledgerHQ 可能要上 Binance 现货! 不管传言真假,OpenLedger 都是值得重点关注的。 因为它正在重塑 AI 行业的价值分配机制,这是一个专注于 SLM(专用语言模型)赛道的区块链基础设施。 OpenLedger核心在于解决当前 AI 产业的三大痛点:数据剥削、中心化垄断和透明度缺失。 通过链上归因机制,OpenLedger 让数据贡献者获得应有的回报。 技术架构上,OpenLedger 基于 OP Stack 构建,包含四大创新层: 1⃣数据层(Datanets)实现数据 NFT 化确权; 2⃣ 归因层(PoA)采用 Infini-gram 算法实现 Token 级溯源; 3⃣模型层(Model Factory)支持无代码微调; 4⃣部署层(OpenLoRA)大幅降低推理成本。 而且整个架构都可以在 EVM 兼容环境下运行,所以开发者可以无缝接入现有的生态。 OpenLedger 这些技术架构亮点市场还是很认可的,而且从实际的测试网体验来看,确实解决了传统AI产业的不少痛点,我想这也是为什么市场如此认可的原因吧。 OpenLedger上币安我也觉得是顺其自然了,优质的项目总会得到市场端的认可。 #OpenledgerHQ #Snaptopus @cookiedotfun #Cookie
OP-5.21%
TOKEN-3.99%
COOKIE-7.68%
06:51
🔥 OpenLedger:Web3 × AI 的终极颠覆者,数据经济的未来已来! ✅ 真正的数据确权革命——POA 机制让每一份贡献都被链上记录,收益自动分配,彻底告别“用爱发电”的伪去中心化! ✅ 生态爆发式增长——2500 万+ 测试网交易、120 万+ 活跃钱包,这不是空投 farming,而是真实采用! ✅ 开发者天堂——文档友好到新手也能 10 分钟部署 AI 应用,15 万美元奖金池直接喂到嘴里! ✅ 商业级 AI 解决方案——SLM 模型专攻供应链优化,比通用 AI 更精准、更实用,企业级落地不是梦! 💡 创新到离谱,却靠谱到极致 活体章鱼团队顾问?看似行为艺术,实则硬核去中心化精神! 合作去中心化 GPU——训练成本砍半,小团队也能玩转 AI! Allora Network 战略联姻——智能代理决策能力直接拉满! 📈 财富、技术、生态三重爆发 这不是又一个“画大饼”项目,而是数据经济+AI+区块链的黄金三角,错过 DeFi Summer 的,这次别再错过 AI 新范式! 👉 现在上车还来得及吗? 当然!生态刚起飞,数据贡献者、开发者、早期参与者——每个人都能吃到红利。
BTC-1.3%
DEFI-4.2%
03:41
OpenLedgerHQ:当AI遇见区块链,一场公平革命的开始 🔍 核心优势:技术+公平的双重颠覆 ▸ 数据价值回归个体 你的数据,你做主。通过去中心化网络,每一份数据贡献都会被精准记录,并通过智能合约自动分配收益,终结“无偿剥削”时代。 ▸ 低成本AI开发革命 ▸ 透明可验证的AI经济 从数据来源到模型训练,所有环节上链存证。告别黑箱操作,每一份贡献都清晰可查,每一笔收益都公平分配。 💡 直击行业痛点,提供真实解决方案 问题OpenLedgerHQ的答案数据被无偿占用→ 通过 Datanets 量化贡献,按劳分配AI模型垄断→ 支持 细分领域SLM,打破通用模型霸权开发门槛过高→ OpenLoRA 降低99%训练成本 🚀 生态进展:蓄势待发的未来 资本认可:800万美元种子轮融资,顶级机构押注下一代AI基础设施。 早期红利:测试网参与或可获 $OPN 代币激励,共建者即受益者。 强强联合:与 等头部项目合作,生态扩展加速中。 🌐 这不是升级,而是一场重构 OpenLedgerHQ的目标很明确:让AI发展由“少数人掌控”变为“多数人共建”。在这里,技术是工具,公平是底色,而你我——才是未来的主角。
07:52
OpenLedger:去中心化AI与区块链融合的颠覆者 1. 核心技术与创新 Datanets(数据网络): 针对特定领域(如医疗、金融、游戏)收集高质量数据,贡献者可上传数据并获得链上记录。 区块链确保数据来源透明,防止篡改,并通过智能合约自动分配收益。 Proof of Attribution(归因证明): 追踪AI模型的输出,精确计算数据贡献者的影响比例,确保公平分成。 结合Infini-gram技术,即使在大模型中也能高效匹配数据来源,实现毫秒级查询。 Payable AI(可支付AI): AI模型的每次使用都会自动向数据贡献者和开发者支付费用,形成可持续的经济循环17。 2. 去中心化AI基础设施 OpenLoRA(低秩自适应模型框架): 允许单个GPU同时运行数千个微调模型,降低99%的部署成本。 支持动态适配器加载、实时模型融合,适用于高并发AI应用(如法律助手、交易AI等)。 与Aethir、 利用去中心化GPU网络,优化算力分配,实现高性能、低成本的AI训练与推理。 3. 行业痛点与OpenLedger的解决方案 行业痛点OpenLedger的应对数据被大公司无偿使用区块链确权+自动分成AI模型中心化垄断去中心化节点网络微调模型成本高昂OpenLoRA降低GPU需求小众领域AI发展滞后专用SLM+垂直Datanets 4. 生态发展与市场影响 融资与支持:获Polychain、HashKey等机构投资,总额超1120万美元。 测试网数据:110万+活跃用户,中国社区贡献显着。 应用场景:法律AI、医疗分析、游戏引擎、交易副驾等。
ATH-7.36%
04:56
举个最常见的例子,你拿 GPT 去做财务数据分析、工业设备监控、医疗文书归类,大部分输出的结果要么答非所问,要么全靠 prompt 拼命调,调到最后你都不知道它到底懂不懂你要的是什么。 当然很多人想说,难道AI模型不就是不断训练的一个过程。只要你给他喂足够多的数据,他一定会想你所想,给你所要。其实不然,对于个人而言最理想的方式当然是做一个你自己专属的 AI 模型,懂你的数据、适配你的业务。 但实际面临的问题接踵而至,做到这些的前提是你需要有海量的数据、训练模型的人、最重要的是要有跑模型的基础设施,基本上可以劝退 90% 的人。 1️⃣提示调用接口 可以直接通过 /v1/completions 接口调任何部署好的 SLM(Specialized Language Model)。 适配范围很广:AI bot、链上推理、甚至游戏脚本都能用。 2️⃣模型管理接口 通过 /v1/models,可以调出所有现成的模型,既有你自己训练的,也有别人共享出来的。 如果想看详细的信息?使用 /model/info 就能查价格、推理模式、访问权限组这些配置参数。甚至还支持 team_id 管理,兼容 OpenAI 工具,能按访问权限分组,非常适合团队协作和权限控制。 3️⃣费用与支出追踪 链上调用模型都不是免费的,但关键在于这笔钱去了哪? OpenLedger 给到了完全透明的追踪机制: 每次调用产生的费用,会自动分发给两类人:一个是提供数据的人,一个是训练并上线这个模型的人。 你还可以用 /spend/logs 来查具体是谁用了哪个模型、什么时候、付了多少钱。 可以按用户 ID、请求 ID、API key、时间段筛选,实现全流程链上透明。 个人认为这才是“AI 经济”的正确打开方式,在大模型时代光卷推理效果没用。对于体系来讲:能分账、能溯源、能开工、能玩转数据生产力,才是AI经济的核心。至少目前OpenLedger 走的路就是从“调模型”走向“建模型 + 收益分配 + 数据产权”的链上的经济活动。无论是用户还是开发者都能有所受益。
GPT-6.91%
PROMPT-5.6%
  • 8
  • 4
  • 2
00:57
【测试网 2000 万交互意味着什么?OpenLedger 的冷启动答卷】 截至 2025 年 7 月初,OpenLedger 测试网已录得超过 2218 万笔交易、123 万个独立地址、超过 683 万区块和 2 万个合约部署,每日平均新增约 1500 个合约。这些数字,在“测试网”阶段已然非常亮眼,但更关键的问题是:它们意味着什么?我们又能从中读出怎样的冷启动路径? 一、真实用户交互还是刷量假象? 面对这类高频交互的测试网数据,常见质疑往往聚焦在“这是不是脚本交互”“是不是内部运营账户驱动”,然而从目前公开的链上活动结构看,OpenLedger 的交互数据具有明显的产品闭环特征,主要包括: (1)合约部署和调用维度均衡,链上出现了可持续的 Prompt 执行记录与模型调用交易; (2)大量交互并非发生在极少数地址之间,而呈现出中长尾地址参与度高的结构; (3)结合 OpenChat、OpenTask 等模块的数据入口,部分交互来自实际任务执行与内容交互,具备业务来源支撑。 换言之,虽然不能排除早期运营激励,但 OpenLedger 的冷启动数据确实反映出一定的“真实使用”轨迹,这为其后续主网上线提供了关键的可验证基础。 二、“没有模型也能玩”的开发者冷启动策略 OpenLedger 的冷启动路径显然没有选择“等模型就绪再开放”,而是构建了一套以数据、任务、调用为主线的开发者体系。近期上线的新版 Dev Docs 中,重点介绍了提示接口(Prompting)、支出追踪(Spend Tracking)与模型管理(Model Management)三类基础 API。这三者共同构成了一套“可用、可算、可分润”的基本开发框架。 更重要的是,这套体系不依赖于 OpenLedger 自研的模型本体,而是允许任意 AI 模型上传、注册并进入调用流程。这意味着,即便还没有开放最终形态的链上模型部署,开发者已经可以围绕“Prompt + Attribution + Pay”三件事展开建设,并通过测试网参与积分激励。 三、SLM 基础设施的冷启动优先级:从数据到交互 OpenLedger 的定位并非“新一代 ChatGPT”,而是构建专用语言模型(SLM)的链上经济体系。在这个体系中,模型不是第一性原语,数据与调用才是。在测试网阶段,其设计路径更像是“让人们先用起来”,通过持续任务交互、模型调用与贡献归因,逐步建立起“供需双边”的真实数据生态。 这种优先级排序背后,是一个极其 Web3 的假设:去中心化 AI 的第一步,不是从零造一个模型,而是围绕交互和贡献机制建立一套经济秩序。而 OpenLedger,正在测试网阶段交出这份答卷。
PROMPT-5.6%
  • 1
00:39
【每一个人都能训练模型?OpenLedger 如何降低 AI 参与门槛】 在传统 AI 模型训练的语境下,训练一套高质量模型通常意味着需要庞大的数据资源、昂贵的算力基础设施以及专业的算法团队。这种高门槛排除了绝大多数普通个体的参与机会,也造成了模型训练主导权的高度集中。而 OpenLedger 所构建的去中心化 AI 数据网络,正试图打破这一旧格局,让“人人都能参与模型训练”不再是空谈。 一、数据贡献的去中心化机制 在 OpenLedger 的体系中,AI 模型的训练并不依赖于单一机构的数据收集,而是通过称为 Datanets 的数据网络进行多源协作。每一个用户、每一个节点,都可以基于开放任务(OpenTask)参与数据的收集、标注、过滤与验证。 这一过程通过两项机制保障可信与激励: (1)PoA(Proof of Attention)数据确权机制:确保数据的生产行为可以被记录、追溯与量化,真正做到“谁参与、谁贡献、谁确权”; (2)OpenTask 标准化任务协议:通过模块化描述任务要求,让不同背景的用户也能理解并参与其中,降低技术门槛。 简而言之,在 OpenLedger 中,一个 Web3 用户只需完成平台发起的任务,比如提供样本数据、参与验证、反馈模型表现,就已经成为了模型训练的一部分。 二、模型训练的轻量化与透明化路径 OpenLedger 不仅将数据来源外包给社区,也尝试通过轻量化模型架构,降低微调训练的硬件门槛。平台倾向引导模型使用专用小模型(SLM),这些模型通常只针对特定领域任务而非通用智能需求,因此所需的训练资源更可控。 与此同时,OpenLedger 通过链上记录训练流程的元数据,使得模型训练过程具备一定的可验证性与透明度。这对于非专业开发者尤为关键:他们不再需要理解底层算法细节,只需遵循平台提供的任务流程参与其中,即可贡献力量。 这种结构让我们看到一个清晰的方向:未来的 AI 训练将不再是大型研究院的专属,而是一种“由社区驱动的数据共建网络”。 三、激励系统如何绑定“训练参与者”角色? OpenLedger 的激励设计并不局限于模型调用端的分润,还延伸至训练过程中每一类关键角色: (1)数据贡献者:上传、筛选和整理数据; (3)微调协作者:通过 OpenTask 参与特定模型的训练优化; (4)评估节点:为训练完成的模型进行性能验证。 上述每一类角色都可通过积分系统获取贡献凭证,并映射到未来代币体系中。这套设计在保证去中心化参与的同时,激励了长期的协作网络形成。 在 OpenLedger 的设计中,模型训练的权力和收益将逐步回归社区。每一个用户都不只是消费者,而是构建者、训练者与验证者。这不仅是对传统 AI 体系的挑战,也是 Web3 参与逻辑在 AI 领域的自然延伸。
06:52
AI经济正在上链,OpenLedger实际上正在构建它。 他们刚刚对开发者文档进行了重大升级。 您现在可以: • 查询任何已部署的小型语言模型 (SLM) • 跟踪支出 + 执行流程 • 通过链上可编程逻辑增强代理能力 • 将数据、模型和行为连接成一个生动的系统 那是什么意思? 这意味着每个提示都成为分布式思想的一部分。 每个呼叫都会被记录、验证并嵌入到一种新型记忆中。 不仅仅是应用程序,代理也开始从代码中出现。 无论您是在实验代理、工具还是开放的人工智能系统 在这里,想法不再是静止的,而是开始变得生动。 文档已上线: 官方更新帖: Web3 x AI 不是未来。 这是逻辑、价值和自主权交汇的基础。
JST-1.78%
MAJOR-6.47%
FLOW-3.45%
13:35
OpenLedger 的核心价值到底在哪里? 我觉得这个问题值得深入聊聊。 很多人第一反应会说技术,确实,看看他们最近的 Dev Docs 更新: API 更清晰了,功能模块化做得很好。 特别是那个 Proof of Attribution 机制,让每次模型调用都能实时结算收益,数据提供者和开发者立即拿到分成。 这种「用一次分一次钱」的设计,在 AI 领域很少见。 但我觉得技术只是表层。 更关键的是他们建立的那套透明协作体系: 从模型管理接口到支出追踪功能,整个流程都在链上完成。 这意味着什么? 意味着贡献者不需要担心自己的功劳被埋没,也不用怕后期加入的人摘桃子。 真正的功劳归于长期建设者,这种价值观在当今 AI 圈太稀缺了。 再说说社区运营。 小章鱼最近在 @KaitoAI 和 @cookiedotfuncn 上砸钱这事,表面看是营销活动,其实反映了他们对早期贡献者的重视。 每周 Top100 瓜分奖池、直接给社区成员发放代币激励...这些都是在用实际行动回报社区。 对比某些只会喊口号的项目,高下立判。 最打动我的其实是他们的设计理念: 让 AI 基础设施变得可插拔、易扩展。 现在很多 AI 项目喜欢搞封闭生态,OpenLedger 却选择把 API 做得足够通用,不仅支持自家模型,还能接入整个网络的 SLM。 这种开放思维,才是构建长期价值的正确方式。 当然,品牌形象也很加分。 那个小章鱼的 IP 设计确实讨喜,让技术项目有了人情味。 但千万别被可爱的外表迷惑,底层架构的专业性才是关键。 最近更新的三大接口模块: 提示生成、预算追踪、模型管理,每块都解决了一个核心痛点。 说到底 @OpenledgerHQ 的价值在于建立了一个透明、公平的协作网络。 在这里,贡献者能获得应有的回报,开发者能快速构建应用,整个生态的成长红利会被合理分配。 这可能就是下一代 AI 基础设施该有的样子。 #OpenLedger #KaitoYappers #KaitoAI #Cookie
IP-29.48%
COOKIE-7.68%
12:33
今天,我分享了#OpenLedger开发文档的重大升级。 #OpenLedger的开发者文档最近经历了重大升级!此次更新不仅仅是小幅调整,而是推出了全新的API框架,旨在为人工智能和区块链经济铺平道路。该文档于2025年7月3日更新,恰好是两天前,真是"新鲜出炉!" 升级的核心是提供更强大的工具,使开发者更容易构建基于人工智能的应用,同时使整个生态系统更加透明和可持续。此次升级也反映了OpenLedger的进化方法——这不是一次性的努力,而是根据开发者的实际需求进行的持续迭代。 三大API的详细说明 此次升级带来了3个全新的API,每个API为开发者解锁了新的游戏玩法,例如“超级武器:” 完成情况 - 功能:通过 /v1/completions 端点,开发者可以向任何部署的 SLM (小型语言模型) 发送提示,以获得智能生成的输出。 预算与支出跟踪 - 功能:开发者可以通过 /spend/logs 端点实时跟踪 AI 模型的使用成本。 - 亮点:您可以通过用户ID、请求ID、API密钥或时间段查看消费详情。更酷的是,费用直接分配给数据贡献者和模型开发者,达成一种公平的“使用越多赚得越多”的机制。这就像一个透明的“账本”,清楚地显示了谁在贡献,谁在赚取! 模型管理 - 功能:通过/v1/models和/model/info端点,开发者可以浏览所有可用模型(包括他们自己创建的或社区贡献的)并获取详细的元数据(如定价、推理模式、访问组等)。 - 亮点:支持团队范围过滤,并与OpenAI工具兼容,为开发者提供了巨大的灵活性。这就像一个“模型超市”,您可以轻松挑选任何模型或查看任何细节! 这些升级对开发者有什么好处? 这些API的推出使开发者能够创建更智能、更公平和更无忧的AI应用程序。 - 控制升级:开发者可以精细管理模型选择和访问权限,就像掌控全局一样。 - 成本效率翻倍:实时预算跟踪避免了“烧钱黑洞”,使资源分配更加精确,从而节省资金和担忧。 - 透明性和公平性:通过区块链技术,数据贡献者和模型开发者可以直接受益,从而创造一个“有回报”的生态系统。用户也可以看到AI背后的一切,体验更大的安心感。 - 开发体验优化:这些工具简化了复杂的流程,使开发者能够专注于创造力,而不是被技术细节所困扰。这就像给开发者的“超能力”添加了一个增益!
NOT-6.03%
JST-1.78%
CORE-3.92%
  • 1
12:31
今天,我分享了#OpenLedger开发文档的重大升级。 #OpenLedger的开发者文档最近经历了重大升级!此次更新不仅仅是小幅调整,而是推出了全新的API框架,旨在为人工智能和区块链经济铺平道路。该文档于2025年7月3日更新,恰好是两天前,真是"新鲜出炉!" 升级的核心是提供更强大的工具,使开发者更容易构建基于人工智能的应用,同时使整个生态系统更加透明和可持续。此次升级也反映了OpenLedger的进化方法——这不是一次性的努力,而是根据开发者的实际需求进行的持续迭代。 三大API的详细说明 此次升级带来了3个全新的API,每个API为开发者解锁了新的游戏玩法,例如“超级武器:” 完成情况 - 功能:通过 /v1/completions 端点,开发者可以向任何部署的 SLM (小型语言模型) 发送提示,以获得智能生成的输出。 预算与支出跟踪 - 功能:开发者可以通过 /spend/logs 端点实时跟踪 AI 模型的使用成本。 - 亮点:您可以通过用户ID、请求ID、API密钥或时间段查看消费详情。更酷的是,费用直接分配给数据贡献者和模型开发者,达成一种公平的“使用越多赚得越多”的机制。这就像一个透明的“账本”,清楚地显示了谁在贡献,谁在赚取! 模型管理 - 功能:通过/v1/models和/model/info端点,开发者可以浏览所有可用模型(包括他们自己创建的或社区贡献的)并获取详细的元数据(如定价、推理模式、访问组等)。 - 亮点:支持团队范围过滤,并与OpenAI工具兼容,为开发者提供了巨大的灵活性。这就像一个“模型超市”,您可以轻松挑选任何模型或查看任何细节! 这些升级对开发者有什么好处? 这些API的推出使开发者能够创建更智能、更公平和更无忧的AI应用程序。 - 控制升级:开发者可以精细管理模型选择和访问权限,就像掌控全局一样。 - 成本效率翻倍:实时预算跟踪避免了“烧钱黑洞”,使资源分配更加精确,从而节省资金和担忧。 - 透明性和公平性:通过区块链技术,数据贡献者和模型开发者可以直接受益,从而创造一个“有回报”的生态系统。用户也可以看到AI背后的一切,体验更大的安心感。 - 开发体验优化:这些工具简化了复杂的流程,使开发者能够专注于创造力,而不是被技术细节所困扰。这就像给开发者的“超能力”添加了一个增益!
NOT-6.03%
JST-1.78%
CORE-3.92%
00:38
【SLM vs LLM:下一代 AI 的战场在“专用模型”?】 在大多数人的认知中,AI 模型的发展就是一场“更大、更通用”的竞赛,从 GPT-2 到 GPT-4,从千亿参数到万亿模型规模,仿佛只有更强大的 LLM(大语言模型)才能主导未来。然而,在这个狂奔的主流路径之外,一股“专用模型 SLM(Specialized Language Models)”的暗流正在涌动,OpenLedger 正是这一新范式的坚定实践者。 一、SLM 是应对 AI 碎片化需求的合理路径 (1)大模型面临的最大问题并不只是成本,而是“通用性惰性”导致的效率瓶颈。它们虽然什么都会,但往往什么都不够精,尤其是在垂直场景中无法提供真正定制化响应。 (2)SLM 的优势在于“小而专”:参数更小、响应更快,能在交易策略、社交运营、风控分析等具体任务中迅速部署,并随数据微调快速迭代。 (3)OpenLedger 的 SLM 思路不是围绕模型本身展开,而是以“数据任务网络”为底座,为每一个可被结构化的场景训练出高效的小模型。其核心,不在模型之“大”,而在数据之“专”。 二、OpenLedger 如何定义“模型生态”? (1)从 Datanets 提取训练数据:每个 Datanet 聚焦一个任务领域,从用户互动中采集原始数据,再通过 PoA 系统打分与确权。 (2)通过 OpenStream 训练与迭代模型:多模态数据流入 OpenStream 网络,形成模型训练数据集,支持微调与持续更新。 (3)上线为 Payable AI 模型:训练好的 SLM 可以部署在 OpenLedger 网络上,作为可调用、可支付、可分润的 AI 模型参与实际业务场景。 三、SLM 不只是技术路线,更是权力结构的重构 OpenLedger 所代表的,不只是模型体积的缩小,而是一种“去中心化 AI 创作”的新范式。相比 OpenAI 的封闭架构,OpenLedger 赋予每一个数据贡献者与开发者参与模型演化的权利,并在数据、训练与应用层都建立了利益分配机制。模型不再是巨头的专属资产,而是可共享、可协作的网络资产。 换句话说:SLM 是 LLM 的“解构力量”,不是要取代,而是要打破封闭垄断的模型架构,构建更加民主化的 AI 创作生态。
GPT-6.91%
03:49
今天分享一下 #OpenLedger Dev Docs 的重大升级 #OpenLedger 的开发者文档,最近迎来了一次“大手笔”升级!这次更新不是小修小改,而是直接推出了全新的 API 框架,目标是为 AI 和区块链经济铺路。这份文档更新于 2025 年 7 月 3 日,距离现在刚好两天,堪称“热乎乎”的新鲜出炉!升级的核心在于提供了更强大的工具,让开发者能更轻松地构建 AI 驱动的应用,同时让整个生态系统更加透明和可持续。这次升级还体现了 OpenLedger 的进化思路——不是一蹴而就,而是根据开发者的实际需求不断迭代。 三大 API 详解 这次升级带来了 3 个全新 API ,每个都像“超级武器”一样为开发者解锁新玩法: Completions(完成端点) - 作用:通过 /v1/completions 端点,开发者可以向任何部署的 SLM(小型语言模型)发送提示(prompt),获取智能生成的输出。 Budget & Spend Tracking(预算与支出跟踪) - 作用:通过 /spend/logs 端点,开发者可以实时追踪 AI 模型的使用成本。 - 亮点:能按用户 ID、请求 ID、API 密钥或时间段查看花费详情。更酷的是,费用直接分配给数据贡献者和模型开发者,实现了“用多少,赚多少”的公平机制。就像一个透明的“账本”,谁贡献谁赚钱一目了然! Model Management(模型管理) - 作用:通过 /v1/models 和 /model/info 端点,开发者可以浏览所有可用模型(包括自己创建或社区贡献的),获取详细元数据(如定价、推理模式、访问组等)。 - 亮点:支持团队范围过滤和 OpenAI 工具兼容性,给了开发者超强的灵活性。就像一个“模型超市”,想挑啥模型、查啥细节,随手可得! 这些升级如何造福开发者 这些 API 的推出让开发者能打造更智能、更公平、也更省心的 AI 应用: - 控制力升级:开发者可以精细管理模型选择和访问权限,像是自己当家做主,掌控全局。 - 成本效率翻倍:实时预算跟踪避免了“烧钱黑洞”,让资源分配更精准,省钱又省心。 - 透明与公平:通过区块链技术,数据贡献者和模型开发者能直接获益,打造一个“有回报”的生态。用户也能看到 AI 背后的一切,体验更安心。 - 开发体验优化:这些工具简化了复杂流程,开发者可以专注创意,而不是被技术细节拖后腿。就像给开发者的“超能力”加了 buff!
PROMPT-5.6%
02:27
🎉 #OpenLedger 开发文档重磅升级! 怎么实现?把这几个 API 整得简单易懂: ▫️ 提示生成:一句话,AI 秒懂! ▫️ 支出追踪:花多少,清清楚楚! ▫️ 模型管理:模型随便挑,超顺手! 🖥️ 想用 SLM(专用语言模型)点一下,全搞定! 超适合: ✅ AI 小助手,随时待命 ✅ 智能合约,稳得一批 ✅ dApp 开发,实时推理、语言生成随便玩 如何使用? 丢个提示,立马给你聪明、靠谱、可查的回答,简单到飞起! 数据: 公开透明,无门槛,谁都能用! 预算 & 支出:花钱透明,赚得公平! 💰 用 SLM,实时结算,绝不含糊! 每次有人用模型,钱自动到账,数据贡献者、模型开发者一人一份,链上分得明明白白。 归属证明(Proof of Attribution),让每一分钱都公开公正! 你的数据,你做主! 酷不酷? 模型管理:想要的模型,一网打尽! 📦 /v1/models 端点:点开就看到所有 SLM,啥风格都有! 可以做什么? ⚙️ 你自己搞的模型 🌐 网络上大佬们的贡献 更爽的是:想找什么模型?按属性一筛,立马找到!还能无缝接入大 AI 生态,开发效率直接拉满! 基础设施:透明、模块化、随便扩展! OpenLedger🟠 让你轻松玩转 AI 区块链,开发从此不费脑!
DAPP-9.7%
  • 1
04:42
这不是另一个“AI 加链”,OpenLedger 是真的想把模型搬上链用的 最近很多“AI + 区块链”的项目,说得都挺唬人,但真跑起来的不多。 1. 用链来跑小语言模型(SLM), 2. 谁贡献了数据、算力、代码,都能链上记录、自动分钱, 3. 最后模型还能像合约一样组合、调用,不是跑完一次就丢。 4. 它不是搞“AI 平替”,是做一层真正给 Agent 用的链。 你为 AI 训练贡献了数据、模型、算力,凭什么最后收益跟你没关系? 🌿核心定位也很清晰: 🔹做的是“给小模型跑的链”,不是炒大模型概念 🔹模型可以像智能合约一样被组合、复用、调用 🔹不只跑推理,训练、部署、数据打标签,每一步都有价值记录 🔹参与门槛不高,一张显卡、一个脚本,或者一组数据都能进系统 换句话说,这是一个真正为 AI Agent 准备的链上执行环境,不是来发图玩 API 的那种项目。 技术上他们用了 OpenLoRA,能压缩模型部署成本,一台普通机器就能跑 用的还是 EVM 兼容架构,不需要你重新学习一套东西。 目前测试网已经上线,跑节点、做任务、积积分这些都开放了, 未来也会释放 $OPN 激励,算是能提前参与的窗口期。 提前进场总没错的 😎
AGENT-7.39%
04:31
这不是另一个“AI 加链”,OpenLedger 是真的想把模型搬上链用的 最近很多“AI + 区块链”的项目,说得都挺唬人,但真跑起来的不多。 ◾️◽️用链来跑小语言模型(SLM), 谁贡献了数据、算力、代码,都能链上记录、自动分钱, ◾️◽️最后模型还能像合约一样组合、调用,不是跑完一次就丢。 ◾️◽️它不是搞“AI 平替”,是做一层真正给 Agent 用的链。 你为 AI 训练贡献了数据、模型、算力,凭什么最后收益跟你没关系? 🔲核心定位也很清晰: ◾️◽️ 做的是“给小模型跑的链”,不是炒大模型概念 ◾️◽️ 模型可以像智能合约一样被组合、复用、调用 ◾️◽️ 不只跑推理,训练、部署、数据打标签,每一步都有价值记录 ◾️◽️ 参与门槛不高,一张显卡、一个脚本,或者一组数据都能进系统 换句话说,这是一个真正为 AI Agent 准备的链上执行环境,不是来发图玩 API 的那种项目。 技术上他们用了 OpenLoRA,能压缩模型部署成本,一台普通机器就能跑; 用的还是 EVM 兼容架构,不需要你重新学习一套东西。 目前测试网已经上线,跑节点、做任务、积积分这些都开放了, 未来也会释放 $OPN 激励,算是能提前参与的窗口期。 提前进场总没错的 😎
AGENT-7.39%
00:46
【AI 不透明?从 Datanets 看数据如何变得“可溯源”】 在过去一年的 AI 爆发浪潮中,大模型一次次刷新技术上限,却也暴露出一个始终未解的问题——数据来源的黑箱问题。我们无从得知一个模型是基于怎样的语料训练的,谁提供了关键数据,也无法判断模型输出是否侵犯了谁的内容权益。这种“不透明”,正在成为 AI 进一步规模化落地的障碍。 而 OpenLedger 的切入点,正是这一深层结构性问题的破局——从数据侧重构 AI 的透明度与激励逻辑,其核心抓手便是:Datanets。 一、什么是 Datanets?一套为 AI 而生的数据网络架构 Datanets 是 OpenLedger 构建的核心系统,目标是让 AI 模型所用数据“有迹可循”“可计量激励”。它不是简单的数据库或众包平台,而是一个结合链上确权、任务管理与经济激励的模块化网络系统,可以将数据的提供、加工与消费过程结构化组织起来。 每一个 Datanet 都是一个具体的数据收集与任务协作空间,围绕某一垂直领域展开,如 DeFi 指标、NFT 项目介绍、AI 对话语料等。这个设计体现出 OpenLedger 对“专用语言模型(SLM)”生态的理解:不是获取越多数据越好,而是获取越高质量、越领域专用的数据。 二、机制核心:PoA、Infini-gram 与数据协作新范式 OpenLedger 在 Datanets 中引入了两个关键机制,重构了传统“数据提供 → 模型训练”的流程: (1)Proof of Attribution(PoA):一种用于记录数据贡献者与 AI 产出之间联系的机制。它可以让模型的每一次输出都能部分“溯源”到参与训练的数据,从而实现激励的可追踪分配。 (2)Infini-gram 模型单元:OpenLedger 使用一种更灵活的模型微模块设计,将模型拆分为更细粒度的组件,每个组件可以绑定其对应的数据来源。这种设计不仅提升了模型可组合性,也让“按数据追责”成为可能。 Datanets 并非孤立存在,而是通过模块化接口与 Agents、Payable AI 模型打通,构建出“任务 – 数据 – 模型 – 应用”的完整流动链路。这也意味着:未来你不仅可以提供数据,还能参与训练任务、使用模型并获得反馈与收益。 三、对比传统众包与数据标注平台,Datanets 解决了什么? 过去我们见过很多 Web2 众包数据平台,如 Amazon Mechanical Turk、Scale AI 等,它们在规模上取得了一定成果,但普遍存在两个问题: (1)数据无归属:参与者提供的数据最终都归平台所有,且一旦被 AI 使用,难以进行后续跟踪或收益分成。 (2)任务零散、重复无激励:许多任务缺乏长期目标或结构化协作,导致重复劳动、数据质量难以保障。 而 Datanets 的目标则是——把“数据任务”变成一种长期协作资产,不再是平台的一次性剥削行为,而是建立一种持续关系。你提供的数据是链上资产,你参与的任务是可组合模块,你的贡献可以被后续任何模型调用并获得返利。 四、小结:Datanets 是专属 AI 时代的数据基础设施 OpenLedger 并不试图成为下一个 ChatGPT,而是要解决一个 ChatGPT 无法解决的根本问题:AI 的数据生产逻辑如何被重构? Datanets 的提出与实践表明,OpenLedger 把“透明、协作、可计量”作为数据系统的核心原则,这是 Web3 语境下对 AI 最本质的一种回应。未来 AI 模型是否值得信任,或许不看参数规模,而看它是否“能说清楚用的是什么数据”。
DEFI-4.2%
06:01
【不是另一个 ChatGPT:OpenLedger 如何重塑 AI 模型范式?】 一、ChatGPT 打开 AI 普及时代,但也暴露了通用模型的局限 从 2022 年底开始,ChatGPT 带动了整个人工智能的“全民化”浪潮,但这场浪潮同时也暴露出一个问题:通用大模型,并不是所有行业的最优解。 尽管 GPT 系列具备强大的语言生成与泛化能力,但它依赖海量公开数据训练,在面对专业、高敏感、高结构化领域(如法律、医疗、金融等)时,模型经常“自信地胡说八道”。此外,通用模型的训练过程不透明、数据来源无法追踪,使得模型公平性、责任追溯、商业分润等问题长期无法解决。 这也正是 OpenLedger 切入 AI 世界的起点:不是做另一个 ChatGPT,而是重新定义一种 更小而精、更专业、更透明 的 AI 模型范式。 二、OpenLedger 的出发点:让 AI 贴近需求、扎根数据 OpenLedger 不是在重复“用大模型圈地”这条路线,而是选择反其道而行之,从数据侧和需求侧切入,构建垂直领域的 AI 能力。 他们提出的核心概念是 SLM(Specialized Language Models,专用语言模型),区别于 ChatGPT 所代表的通用模型(GLM)。SLM 聚焦在特定行业或任务场景下进行优化,目标是实现更高的准确率、更小的模型负担,以及更强的数据可控性。 而在 SLM 背后,OpenLedger 所强调的真正护城河,是一整套基于区块链与 DePIN(去中心化物理基础设施网络)的数据机制: (1)通过 Datanets 网络,以社区方式组织特定数据采集、标注与确权; (2)使用 可支付 AI 模型(Payable AI Models) 机制,为数据贡献者和模型开发者提供收入回报通道; (3)借助 数据可溯源机制(如 Proof of Attribution),确保每一段训练数据都能被追踪、验证、问责。 在这些机制支撑下,OpenLedger 构建的 AI 并不是“黑箱”,而是一个具备链上责任链条的协作网络。 三、“专用模型 + 可溯源数据”:OpenLedger 的新范式组合 OpenLedger 实际构建的是一个面向 AI 未来的“分布式协同开发平台”: (1)模型侧:SLM 可被多方调用、组合、训练,强调模型的灵活性和定制性; (2)数据侧:通过去中心化数据采集和标注组织(Datanets),为模型提供持续的优质燃料; (3)商业化机制侧:通过链上记录与支付机制,实现数据提供者、节点运行者、模型开发者的“多边分润”; (4)参与路径侧:借助轻量级的 Chrome 插件节点和 Android 节点,让更多非专业开发者也能“挖数为金”,进入 AI 的建设工厂。 这种组合,不只是构建了一个 AI 项目,而是打造了一个围绕 高质量数据流转与应用场景部署 的分布式生态系统。AI,不再只是“训练完即部署”的单边过程,而是一场由数据社区驱动的持续协同。 四、为什么这不是“又一个 AI 项目”? OpenLedger 没有试图去“对标 ChatGPT”,而是在刻意规避“只能对话”的幻觉。 他们不是在造下一个超级大脑,而是想做一万个“专业大脑”的操作系统;不是打造新的 AI 神话,而是在回答一个现实问题:如何让 AI 服务真实世界的真实需求? OpenLedger,可能不是最亮眼的 AI 项目,但它正在塑造 AI 世界里最需要的那一部分底座。
GPT-6.91%
GLM-3.27%
08:53
SLM
15:03
【OpenLedger 是什么?AI 区块链的新起点】 在 OpenLedger 看来,AI 模型的未来并不在于一个超级大脑,而是成千上万面向不同领域的“特化智能”。为了让这些模型拥有高质量的“原材料”——数据,OpenLedger 引入了 Datanets 机制,结合链上确权与激励机制,鼓励社区协同构建领域专属数据集,并追踪其溯源、使用与收益分配过程。 二、为什么要做“SLM(专用语言模型)”?对抗通用 AI 的新范式 大模型擅长的是“泛化理解”,但在医疗、法律、科研、金融等高精度场景中,错误代价极高,数据质量要求极高,通用模型无法满足深度理解与专业化表达的要求。 OpenLedger 的 SLM 理念,即 Specialized Language Model,主张围绕垂直场景训练专用模型,并且支持“链上可计量”的数据贡献追踪机制,真正实现“谁提供数据,谁分享价值”。 在这个逻辑下,OpenLedger 不只是数据平台,更是一个面向开发者、数据提供者、AI 应用构建者的开放生态,试图重构数据-模型-激励之间的价值闭环。 三、模块化架构:Datanets、Payable AI、Agents 三位一体 OpenLedger 的系统由三个核心模块组成: (1) Datanets:即去中心化数据网络,每一个 Datanet 对应一个细分领域的数据集(如医疗影像、金融文书、游戏语料等),其中文件上传、清洗、审核与使用均可在链上追溯。 (2) Payable AI Models:所有模型调用都与数据溯源绑定,调用成本可定价,贡献数据或训练资源的用户可获得对应回报,形成公平的收入分配体系。 (3) AI Agents:构建在 Payable AI 基础之上的应用端,包括智能助手、交易系统、搜索引擎、游戏 NPC 等,打通“从数据到应用”的完整链路。 这种设计体现了 OpenLedger 的野心:不仅仅是一个数据平台,而是一个“数据→模型→应用”的全栈式 AI Web3 网络。 四、数据确权与激励机制:区块链技术的真正用武之地 OpenLedger 引入名为 PoA(Proof of Attribution)的机制,用于追踪每一份数据的归属、用途与价值路径。结合 Infini-gram 与 Gradient-Based Attribution 等机制,可以实现细粒度的数据贡献计量。 这种方式比传统“上传即共享”的方案更具可扩展性——数据不是匿名共享资源,而是带有身份、价值与激励路径的资产。这为 AI 的公平与合规性提供了底层保障。 此外,节点运行、积分任务、空投激励等机制进一步丰富了激励手段,也为 Web2 用户进入 Web3 AI 世界提供了轻量级的参与路径。 五、从视觉到社区:一只章鱼的品牌叙事实验 如果你留意 OpenLedger 的品牌设计,不难发现它试图打破 AI 项目一贯的冷峻气质——项目吉祥物是一只穿着宇航服的橙色章鱼,时而在墙上涂鸦“AI Blockchain”,时而举办 AMA 做主持,时而在杭州的粉色云海中舞动着扇子。 这并非纯粹的卡通化营销,而是其核心愿景的一种外化表达:构建一个可亲近、可参与、共建共享的 AI 数据世界。 在这个世界里,每一个人都是数据的生产者、使用者与治理者,而不再是被动的输入方或“模型的燃料”。 ~~~~~~ 如果说 OpenAI 是 AI 世界的“中心化工厂”,那么 OpenLedger 想做的,是一座由数万个协作节点构成的“分布式智力社区”。
NPC-0.74%
23:43
SLM
03:48
SLM
21:08
SLM
14:08
#LLMs were the start, but #AI代理是下一个前沿。不仅仅是更智能的应用,而是自主的、专门化的链上工具,可以思考、行动和适应。 问题是,今天的大多数代理都臃肿、通用,并且几乎无法使用。你不能用黄油刀来切牛排。 他们正在为 #Web3 构建一个完整的 AI 堆栈,包含三个核心部分: ▪️ 通过 OpenLoRA 进行计算,您可以在单个 #GPU 上运行数千个模型 ▪️ 通过 #ModelFactory 模型,无需编码即可从真实数据集进行微调 ▪️ 通过 #DATANETs 获取的数据,这些数据由社区策划、经过许可且可追溯 在此之上是作为智能链上应用的代理,它们由垂直化的SLM驱动,您实际上可以对其进行微调和部署,而无需庞大的预算或博士学位。 专为交易、质押、研究、辅助等多种用途而构建。与臃肿的通用大型语言模型不同,它们是基于您的数据为您的用例进行训练的。 这就是Ram所指的元宇宙转变。代理基本上是应用程序的臃肿版本,只是更智能。 链上真实AI基础设施的竞争才刚刚开始。 $OPN
NOT-6.03%
JST-1.78%
ACT-5.51%
18:52
SLM
04:20
1)为什么FLock要在Bittensor上构建子网?Bittensor作为一个专为机器学习设计的去中心化网络,其子网相当于一套专业化分工的AI服务体系,每个子网可以专注于特定的AI任务,通过 $TAO 代币的激励协调全球算力和数据资源,以更快效率践行一些复杂的训练和微调等工程实现。 FLock 作为一个新锐的DeAI训练平台,其主打亮点就是"联邦学习",其本质上是一种分布式的机器学习方法,要解决分布式验证机制、经济机制设计等等问题。 而Bittensor有着成熟的去中心化算力服务架构,Flock通过部署子网FLock OFF可以充分发挥Bittensor平台已经累积下来的资源优势。这样做可以避免"重复造轮子"的基础设施成本,相当于"租用了"一套现成的去中心化技术设施,能更专注于联邦学习相关的算法优化和应用有关开发。这种专业化的分工协作,让双方都能各自专注于核心竞争力,强强联合互补。 这样一来,Bittensor处理底层research-based的基础架构需求,而FLock则专注于application-based的联邦学习优化。Subnet 96的核心目标直指联邦学习的关键痛点:如何将大型领域数据集压缩成密度更高的高效形态。在这个子网中,矿工负责为预训练SLM创建训练数据,验证者则使用大型语料库评估模型质量,共同打造适合边缘设备的高性能小型语言模型基础。 这一机制为FLock构建了坚实的技术基座,使其联邦训练网络具备承载下一代边缘AI的能力。 2)从技术路径看,FLock利用Bittensor子网实现了三层突破: 2、原生数据隐私保障:联邦学习的核心优势是数据不出本地,Bittensor的子网架构进一步强化了这一特性,通过零知识证明等密码学技术,确保参与者只共享模型更新而非原始数据; 3)最后,值得一提的是,这次子网的推出背后站着数字货币集团(DCG)巨头的身影,DCG通过子公司Yuma Group推动了对此次子网的孵化和支持,而DCG又是Grayscale灰度的母公司。
FLOCK-6.3%
TAO-3.89%
DEAI-6.43%
  • 1
07:40
GM! 大科技公司持续展示他们巨大的 #LLMs,仿佛规模就是一切。但在现实世界中,大多数用例并不需要一个在整个互联网训练的175B参数的超大模型。 想象一下大规模语言模型(LLMs)就像全球巨大的咖啡连锁店。它们试图为每个人提供所有东西,但你常常得到的却是一些通用的、价格过高且臃肿的产品。 🦑 #OpenLedger 上的 SLM 是您当地的特色咖啡馆。量身定制的菜单,更快的服务,无论您是在构建 Web3 聊天机器人、交易助手、医学研究工具,还是其他小众项目,都是您所需要的。 → 这些模型更小、更清晰、更智能,适用于特定的工作。而最棒的是,你可以在没有巨额预算或机器学习博士学位的情况下对它们进行微调。 得益于OpenLoRA和ModelFactory,您可以在单个#GPU上训练数千个SLM。实时,仅限GUI,且没有让您的钱包哭泣的云账单。 #OpenLedger 正在开启一个时代,在这个时代,人工智能不再仅仅是集中化的大型科技知识产权。它是你可以构建、拥有和变现的东西。
GM-1.65%
DON-2.69%
02:40

一文读懂Polychain领投的Open Ledger:专用AI语言模型SLM的区块链网络

项目名称:Open Ledger 项目定位:专用AI语言模型SLM的区块链网络 项目亮点:在专用语言模型赛道,巧妙地使用区块链技术解决AI数据抓取和确权以及激励等问题。真正意义上发挥了区块链的价值。 融资情况:种子轮融资800万美金,Polychain等机构领投 参与方式:尚未TGE,当前可使用电脑参与测试网络挖矿激励 以下是项目详解: 一. OpenLedger 是什么? 简单来说,@OpenledgerHQ 是一个结合了AI和 区块链技术 的去中心化网络。它的核心目标是打造一个去中心化的 AI 生态系统,让大家可以公平地贡献数据、开发 AI 模型,并且还能从中赚钱。 这里
展开
23:42
SLM
23:36
SLM
04:01

一文读懂Polychain领投的Open Ledger:专用AI语言模型SLM的区块链网络

作者:ABC Alpha研究员 项目名称:Open Ledger 项目定位:专用AI语言模型SLM的区块链网络 项目亮点:在专用语言模型赛道,巧妙地使用区块链技术解决AI数据抓取和确权以及激励等问题。真正意义上发挥了区块链的价值。 融资情况:种子轮融资800万美金,Polychain等机构领投 参与方式:尚未TGE,当前可使用电脑参与测试网络挖矿激励 以下是项目详解: 一. OpenLedger 是什么? 简单来说,@OpenledgerHQ 是一个结合了AI和 区块链技术 的去中心化网络。它的核心目标是打造一个去中心化的 AI 生态系统,让大家可以公平地贡献数据、开发 AI
展开
12:19
Hey小伙伴们,重大消息来啦!Project Ailey(ALE),那个超炫酷的人工智能初级代理,终于要在 #Gate 首发它的Launchpool啦! Project Ailey,游戏、电影、元宇宙的全能ACE!她不仅是艾莉宇宙中独一无二的居民,更是拥有自我个性的超个性化服务提供者。SLM技术让她在你的设备上活灵活现。 活动时间:2025年4月8日14:00至4月18日14:00(UTC+8) 参与步骤,登录 🔥《Tappy Tappy Ailey》和《VR Secretary》已经让我们看到了Ailey的无限可能,更多精彩即将解锁。 #ProjectAiley #ALE #Launchpool #Gate首发 #元宇宙探索
ALE-0.85%
ACE-3.13%
  • 2
13:27
并且它有巨大的潜力降低 ➜ 容易完成 ➜ 适合每个人 ➜ 完全免费 ➜ OpenLedger 筹集了800万美元 SLM通过下一代区块链改变游戏规则 我爱上了 #OpenLedger
AIRDROP0.09%
04:06

ALE代币:ALE(Project Ailey)人工智能驱动的元宇宙革新

ALE代币是Project Ailey生态系统的核心,通过SLM技术重塑了用户与艾莉宇宙的互动方式,提供个性化体验。艾莉作为AI驱动的虚拟明星展示了虚拟偶像行业的潜力。SLM技术为用户定制互动内容,使艾莉宇宙成为元宇宙领域的佼佼者。ALE代币推动了Project Ailey的应用,并提醒投资者加密货币市场波动风险。
展开
ALE-0.85%
14:33
今天在我国家是一个传统假期... 当我喝茶沉思时,我不禁对专门模型的真正才华感到惊叹,那些真正的专家以无与伦比的精确度深入他们的工艺。 通用大型语言模型了解一些所有的知识,但专业模型才是真正的专家。 一条线 [1] #openledger #AI #Blockchain #deAI #SLM
DEEP-7.57%
CRAFT-7.36%
21:09
SLM。。。。。。。。。。。。。。。。。。。。。。 ...
04:15
SLM
20:15
SLM
12:40
#PETOSHI#slm没有人知道这里的人性是什么,这个加密货币已经结束了我,请支持我一点,我的家正在分崩离析,我正在考虑自杀,即使是三张床,如果你支持我会很高兴
00:53
SLM
20:19
SLM
12:08
SLM 给所有人
00:11
SLM
11:05
SLM
21:45
我观察了SLM BBRP Moon,在任何硬币上 评论的只是帐户” 你是机器人吗? 专门设计来诱骗受害者的吗,,,,?? 😅😅
  • 1
加载更多
交易,随时随地
qrCode
扫码下载 Gate App
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)