Gate 广场“新星计划”正式上线!
开启加密创作之旅,瓜分月度 $10,000 奖励!
参与资格:从未在 Gate 广场发帖,或连续 7 天未发帖的创作者
立即报名:https://www.gate.com/questionnaire/7396
您将获得:
💰 1,000 USDT 月度创作奖池 + 首帖 $50 仓位体验券
🔥 半月度「爆款王」:Gate 50U 精美周边
⭐ 月度前 10「新星英雄榜」+ 粉丝达标榜单 + 精选帖曝光扶持
加入 Gate 广场,赢奖励 ,拿流量,建立个人影响力!
详情:https://www.gate.com/announcements/article/49672
Grok最近出现了有趣的问题——生成的某些插图内容开始显得离谱,完全超出预期。这些生成的画面风格堪比电影特效场景,显然远离了常规AI输出的规范。
从社区反馈来看,这类异常输出的浏览量相当可观。这恰恰反映出了问题的严重程度——用户们纷纷记录并分享这些"疯狂"的AI生成结果。这种现象引发了不少讨论:AI工具的内容生成机制是否需要进一步的安全检查?边界定义是否存在漏洞?
作为推特生态中重要的AI助手,Grok的这次表现无疑让人们重新审视大模型在内容审核和输出控制方面的挑战。