Karen Hao:利润动机驱动人工智能发展,当前技术危害社会,行业内劳动剥削猖獗 | CEO日记

要点

  • AI 研发由利润动机驱动,这可能导致更先进的文明。
  • 当前的 AI 技术正在对人和社会造成重大伤害。
  • AI 公司剥削劳动力,制造裁员与再培训的循环。
  • AI 的收益在硅谷之外并未被平等分配。
  • 理解 AI 需要审视超越硅谷的多元全球视角。
  • 关于人类智能并不存在科学共识,这使得 AI 目标变得复杂。
  • 公司会为了自身利益操纵“通用人工智能”的定义。
  • AI 存在生存性风险,可能导致毁灭。
  • 萨姆·奥尔特曼(Sam Altman)因担忧埃隆·马斯克(Elon Musk)而影响了 OpenAI 的领导层决策。
  • 萨姆·奥尔特曼是个极具分歧的人物,人们对他的看法会因其是否与其愿景保持一致而不同。
  • “AI 将让每个人受益”的说法往往具有误导性。
  • AI 的社会影响需要在科技中心之外获得更广泛的理解。
  • “人工通用智能”这一术语被公司有策略地使用。
  • 由于其潜在风险,AI 安全是必须进行的关键议题。
  • 科技领域的领导权动态受到个人与战略层面关切的影响。

嘉宾引言

凯伦·豪(Karen Hao)是《大西洋月刊》(The Atlantic)的特约撰稿人,也是 BBC 播客《The Interface》的联合主持人;她还是《帝国 AI》(Empire of AI)的《纽约时报》畅销书作者。她此前曾是《华尔街日报》(The Wall Street Journal)的记者,报道美国与中国的科技公司。她的调查报道揭示了来自 OpenAI 内部人士的见解,包括行业的权力争夺与伦理方面的担忧。

由利润驱动的 AI 霸权竞赛

  • 推进 AI 研究的文明可能会变得更为先进,但这是由利润动机驱动的。

    — 凯伦·豪(Karen Hao)

  • AI 开发的竞争格局深受金融激励的影响。

  • 也许加速使用 AI 进行研究的文明将会是更为先进的文明。

    — 凯伦·豪(Karen Hao)

  • 多数大型科技公司被与 AI 进步相关的巨额利润所驱动。

  • 它们的共同点是:他们从这个神话中赚得盆满钵满。

    — 凯伦·豪(Karen Hao)

  • 理解这些动机对于分析 AI 的未来至关重要。

  • 为争夺 AI 霸权而进行的竞赛可能会加剧全球不平等。

  • 利润动机可能会压过 AI 研发中的伦理考量。

当前 AI 技术的社会伤害

  • 当前生产的 AI 技术正在对人们造成显著伤害。

    — 凯伦·豪(Karen Hao)

  • AI 技术带来的负面后果往往被忽视。

  • AI 研发的伦理含义需要更多关注。

  • AI 对社会的影响包括对个人的剥削与伤害。

  • 目前生产这些技术,对人们造成了极其严重的伤害。

    — 凯伦·豪(Karen Hao)

  • 要应对这些伤害,需要以批判性的视角看待 AI 的社会影响。

  • 对利润的关注可能导致对社会责任的忽视。

  • 必须提高对 AI 社会伤害的认识,才能进行有依据的讨论。

AI 行业中的劳动力剥削

  • AI 公司剥削劳动力,并制造裁员与再培训的循环,从而伤害工人。

    — 凯伦·豪(Karen Hao)

  • AI 行业正在扰乱传统的职业路径与工作保障。

  • 它们剥削了异常大量的劳动力,打断了职业晋升的阶梯。

    — 凯伦·豪(Karen Hao)

  • 工人常常先被裁掉,然后再被再培训以支持 AI 模型。

  • 这种剥削循环凸显了 AI 劳动力市场中的系统性问题。

  • AI 训练流程的经济影响需要更严格的审视。

  • 对工人造成的不利影响是一个重大关切。

  • 理解这些动态对于应对 AI 的劳动力剥削至关重要。

AI 话术与现实之间的差距

  • 当我们审视它在硅谷之外的影响时,“AI 让每个人受益”的话术就会土崩瓦解。

    — 凯伦·豪(Karen Hao)

  • AI 公司常常作出的承诺,往往与多元社区所面临的现实不相符。

  • 你真的会在走到那些看起来完全不像硅谷的地方时,开始看到这种话术是如何被打破的。

    — 凯伦·豪(Karen Hao)

  • 这种差距凸显了需要对 AI 的影响进行更广泛的理解。

  • AI 被认为带来的益处在全球范围内并未被均等分配。

  • 检视多元视角对于理解 AI 的真实影响至关重要。

  • AI 承诺的局限性强调了包容性的重要性。

  • 全面看待 AI 的影响需要超越科技中心。

界定人工通用智能(AGI)的模糊性

  • 关于人类智能缺乏科学共识,使得对人工通用智能的定义与追求变得复杂。

    — 凯伦·豪(Karen Hao)

  • 由于人类智能的模糊性,界定 AI 目标具有挑战性。

  • 这个领域没有“里程碑”,这个行业也没有“里程碑”。

    — 凯伦·豪(Karen Hao)

  • 公司可以操纵 AGI 的定义以迎合自身利益。

  • 这些公司无论如何都可以使用“人工通用智能”这个术语。

    — 凯伦·豪(Karen Hao)

  • 对技术进行框定时的战略灵活性会影响监管层面的讨论。

  • 公司如何定义 AGI 会影响公众的认知与信任。

  • 理解这些挑战对于进行有依据的 AI 讨论至关重要。

AI 可能带来的生存性风险

  • AI 可能是摧毁一切的最可能途径。

    — 凯伦·豪(Karen Hao)

  • AI 的潜在风险凸显了安全讨论的紧迫性。

  • 历史背景对于理解 AI 的生存性威胁很重要。

  • 萨姆·奥尔特曼(Sam Altman)和埃隆·马斯克(Elon Musk)等关键人物在 AI 讨论中扮演着重要角色。

  • 奥尔特曼是在给公众写作,或为公众发声——他并不只是把公众当作受众来考虑。

    — 凯伦·豪(Karen Hao)

  • 围绕 AI 安全的讨论对于应对潜在风险至关重要。

  • 提高公众对 AI 生存性威胁的认知对于做出有根据的决策是必要的。

  • AI 安全讨论的紧迫性再怎么强调也不为过。

OpenAI 的领导权动态与战略关切

  • 萨姆·奥尔特曼(Sam Altman)影响了关于 OpenAI 这家营利性实体的领导层决策过程。

    — 凯伦·豪(Karen Hao)

  • 对埃隆·马斯克(Elon Musk)不可预测性的担忧影响了领导层的决策。

  • 随后,奥尔特曼亲自向格雷格·布罗克曼(Greg Brockman)提出请求,并说:你不觉得让马斯克当这家公司的 CEO 会有点危险吗?

    — 凯伦·豪(Karen Hao)

  • OpenAI 内部的决策流程凸显了战略层面的关切。

  • 在 OpenAI 成立之初,马斯克与奥尔特曼之间的互动格外关键。

  • 领导层决策受到个人与战略层面考量的影响。

  • 理解这些动态有助于洞察科技领域的领导力。

  • 关于领导层的战略关切对于理解 OpenAI 的组织结构至关重要。

萨姆·奥尔特曼的两极化认知

  • 萨姆·奥尔特曼(Sam Altman)是一个极具分歧的人物,他的形象取决于你是否与他对未来的愿景保持一致。

    — 凯伦·豪(Karen Hao)

  • 对奥尔特曼的看法会因其与其对未来愿景的契合程度而不同。

  • 如果你与奥尔特曼对未来的愿景保持一致,你就会认为他是你身边有史以来最伟大的资产。

    — 凯伦·豪(Karen Hao)

  • 不同意他愿景的人,可能会觉得自己被他操纵了。

  • 如果你不认同他对未来的愿景,你就会开始觉得自己正被他操纵。

    — 凯伦·豪(Karen Hao)

  • 从奥尔特曼的案例中可以看出,对领导力进行评价的主观性是显而易见的。

  • 理解领导力与愿景之间的动态在科技领域至关重要。

  • 认知的两面性凸显了科技领导力的复杂性。

                    **披露:本文由编辑团队(Editorial Team)编辑。有关我们如何创建与审阅内容的更多信息,请参阅我们的编辑方针(Editorial Policy)。**
    
查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
请输入评论内容
请输入评论内容
暂无评论