Anthropic指控Deepseek、Moonshot、MiniMax蒸馏Claude

我觉得这个值得一个单独的topic。太有意思了。

Anthropic居然没有指控GLM。

4 Likes

这操作也太离谱了,24000个假账号,1600万次对话…这是把Claude当免费API用啊。工业级蒸馏攻击这个词用得挺准确的,就是大规模工业化窃取别人模型的输出。

1 Like

现在各种厂商之间互相蒸馏,众所周知(
之前sonnet4.6还会说自己是deepseek。
要是anthropic只是指控蒸馏,那其实没啥。但是他还说,中国厂商会用蒸馏的数据于军事什么的,威胁美国国家安全。有点搞笑。

3 Likes



我要笑死了

5 Likes
7 Likes

哈哈,Anthropic指控别人蒸馏,结果自己也被扒出来大规模窃取训练数据。五十步笑百步了属于是。

1 Like
2 Likes

一地雞毛…

4 Likes

我头一次见到这么多人反对Anthropic(

1 Like

AI 领域再起波澜。Anthropic 近期发布公开声明,指责多家中国领先的 AI 实验室对其旗舰模型 Claude 进行了大规模的“蒸馏攻击”(Distillation Attacks)。Anthropic 声称,这种行为旨在通过非法手段提取 Claude 的核心能力,以强化竞争对手自己的模型。

:bar_chart: 攻击详情:规模惊人的数据“抽干”

根据 Anthropic 的监测数据,这场攻击的规模达到了工业级别。这些实验室通过创建虚假账号,绕过限制,进行了数千万次的交互。

● 被点名实验室: DeepSeek(深度求索)、Moonshot AI(月之暗面)、MiniMax
● 虚假账号数量: 超过 24,000 个
● 交互次数: 超过 1,600 万次
● 核心目的: 提取 Claude 的逻辑、推理及其他核心能力以训练自家模型

:warning: 技术合法性与国家安全担忧

Anthropic 在声明中区分了“合法蒸馏”与“非法窃取”。他们指出,虽然 AI 实验室通常会利用大模型蒸馏出更小、更便宜的模型服务客户,但此次针对美国模型的非法蒸馏行为性质恶劣。

Anthropic 特别强调,当这些技术流向海外实验室时,原有的安全护栏可能会被移除。他们担心这些从美国模型中获取的能力,最终会被用于军事、情报及监控系统,从而对国家安全构成潜在威胁。

:rofl: 马斯克开启毒舌模式:讽刺 Anthropic “贼喊捉贼”

就在 Anthropic 试图占据道德高点时,特斯拉 CEO 埃隆·马斯克(Elon Musk)在社交媒体上的一番评论让画风突变。针对相关新闻的转载,马斯克毫不留情地揭了 Anthropic 的老底。

马斯克的观点如下:

Anthropic 同样犯有大规模窃取训练数据的罪行,并为此支付了数十亿美元的赔偿金。这是一个事实。这回真是神回复(Banger):rofl::rofl:

他们怎么敢‘偷’ Anthropic 从人类程序员那里偷来的东西呢??

马斯克的言论直指 Anthropic 在初始训练阶段也曾未经授权使用大量互联网代码和人类创作内容,以此嘲讽其现在的指控极具讽刺意味。


转自类脑
类脑上似乎没啥人讨论这事

4 Likes

就我看到的,Anthropic的指控中,给出的三家刷的量。MiniMax是DeepSeek的100倍。ds的量其实很少。但Anthropic把DeepSeek放在最前面,明显是对ds有意见,而不只是说蒸馏的问题。

我本来以为,这种诋毁中国公司的言论会受到大家支持,结果X上几乎都是嘲讽Anthropic的。大家的观点主要是:

  1. 认为Anthropic窃取了互联网/书,无权指责中国。
  2. 认为中国模型开源、便宜,就是好,Anthropic太封闭了还贵。
  3. 认为Anthropic只是想狙击DeepSeekV4。
  4. 认为Anthropic只是急眼了(因为中国公司损失了利益)
12 Likes

主要这Anthropic自己就是个小丑

2 Likes

和这个topic没什么关系,但很好玩:

4 Likes

这事之前是A社和美军闹矛盾,美军背后的华尔街表示DS真不错。

先把结论放前面说清楚:

  1. “美国军方最近和 Anthropic 产生冲突,他们不支持美军用 AI 打委内瑞拉”
    → 有真实背景,但中文表述有严重夸张和误导。
    真实情况是:
    • 媒体报道美军在抓捕委内瑞拉总统马杜罗的行动中使用了 Anthropic 的 Claude 模型,引发 Anthropic 与五角大楼在“能否用于军事行动、特别是武器和战场管理”上的激烈争议。
    • Anthropic 并没有“公开反对美军用 AI 打委内瑞拉”,而是强调任何使用都要遵守其使用政策,禁止用于武器设计、监控和“战场管理”等场景。
    • 五角大楼高层则批评 Anthropic 试图“在国会之上再设一套政策”,称这种限制“不民主”。
  2. “华尔街表示很欢迎 DeepSeek V4”
    → 这句话严重失真。
    • 目前可以查到的主流报道显示,华尔街对 DeepSeek V4 的情绪是“担忧、谨慎、甚至有点紧张”,而不是“欢迎”。
    • 野村证券等机构确实在研究报告中肯定 V4 的“成本效率”和架构创新,但这属于技术分析,不等于“华尔街欢迎”。
    • DeepSeek V4 在 2026 年 2 月中下旬仍被普遍描述为“即将发布 / 发布在即”,市场担心的是它会不会像 2025 年的 R1 那样再次冲击美股 AI 和芯片股。
      下面分点展开说明。
总结

一、关于“Anthropic 和美军冲突”“不支持用 AI 打委内瑞拉”

1. 确有其事:围绕“马杜罗突袭”的争议

多家权威媒体报道:

  • Breaking Defense 报道:
    五角大楼首席技术官 Emil Michael 公开表示,不会让任何一家公司在国会通过的法律之上再制定一套政策,批评 Anthropic 限制军方使用 Claude 是“不民主”的。
  • Wired 的长文详细说明:
    • Anthropic 是首家获得美国涉密许可、可为军方提供定制 Claude Gov 模型的大模型公司。
    • 公司内部政策明确反对将 Claude 用于“自主武器”和“政府监控”,担心的是“致命性武力”和大规模监控。
    • 五角大楼则希望 AI 公司在军方“合法任务”范围内不要设限,包括应对无人机群等场景。
  • Middle East Monitor 引述《华尔街日报》:
    报道称美军在抓捕委内瑞拉总统马杜罗的行动中使用了 Anthropic 的 Claude 模型,这是已知首例大模型被用于涉密军事行动。
  • Georgetown 大学 CSET 的文章也提到:
    Anthropic 与五角大楼在“如何在军事行动中使用 Claude”问题上出现紧张关系,其中一个关键触发点就是关于其在针对委内瑞拉突袭中的使用。

2. Anthropic 的立场:不是“反战”,而是“有红线”

从现有公开信息看,Anthropic 的核心立场是:

  • 反对将 Claude 用于:
    • 设计或制造武器;
    • 用于“战场管理”(例如实时指挥打击);
    • 大规模监控、追踪个人位置、情绪状态等。
  • 支持在“合规、符合安全政策”的前提下,为美国国家安全用户提供定制版本(Claude Gov)。
    Breaking Defense 援引 Anthropic 使用政策:
  • 禁止用 Claude “生产、修改、设计或非法获取武器”;
  • 禁止用于“战场管理应用”。
    因此,更准确的表述是:
  • Anthropic 不是公开反对“美军在委内瑞拉行动”本身,而是强调任何使用都必须遵守其禁止武器和战场管理的使用政策
  • 五角大楼内部有人认为,这实际上限制了军方在某些场景下的使用,因此与 Anthropic 产生“政策层面的冲突”。

3. 中文说法的问题在哪里?

你看到的中文表述——“不支持美军用 AI 打委内瑞拉”——有几个问题:

  1. 简化成“反对打委内瑞拉”
    实际上 Anthropic 从未公开以“反对这场战争”的政治姿态出现,而是以“技术安全与使用政策”为框架谈红线。
  2. 暗示 Anthropic 站在“反战”一边
    事实上 Anthropic 本身是国防承包商之一,拥有涉密合同,只是希望给军事用途设限。
  3. 模糊了真正冲突点
    真正的冲突在于:
    • 谁有权定义“合法军事用途”的边界?
    • AI 公司能否在政府/军方法律框架之上,再叠加自己的“红线”?
      所以,这条消息的“前半句”有事实基础,但被严重政治化、夸张化。

二、关于“华尔街表示很欢迎 DeepSeek V4”

1. DeepSeek V4 是什么,目前处于什么阶段?

综合多方信息:

  • DeepSeek 是中国 AI 实验室,2025 年初发布的 R1/V3 曾被认为在编程和推理能力上追赶甚至超越部分顶尖模型,并引发美股 AI 和芯片股剧烈波动。
  • 关于 V4:
    • 多个技术博客和资讯站都预计 V4 在 2026 年 2 月中下旬发布,重点强化编程能力。
    • 有中文报道甚至称其“编程能力超越 Claude、GPT 等顶尖模型”。
    • 但截至 2026 年 2 月上中旬,主流英文媒体更多还是在讨论“即将发布 / 预期影响”,而不是“已经发布并全面商用”。

2. 华尔街的真实情绪:更多是“紧张”,不是“欢迎”

与中文说法“华尔街很欢迎”相反,英文报道普遍呈现的是谨慎甚至紧张:

  • 一篇专门分析 V4 对市场影响的文章写道:
    • 中国 DeepSeek 准备推出 V4,美股市场已经表现出“焦虑”;
    • 华尔街对 V4 的态度是“谨慎”,担心会重演 2025 年 R1 导致 AI 和芯片股暴跌的一幕。
    • 文章明确用“Wall Street’s caution around the V4 release”来描述,而不是“welcome”。
  • 野村证券的研究报告(通过 BigGo Finance 转述):
    • 强调 V4 在架构上的“成本效率”和优化训练/推理成本;
    • 认为它有助于缓解算力和内存瓶颈,加速 AI 商业化。
    • 这是技术层面的正面评价,但不等同于“华尔街整体欢迎 DeepSeek V4”。
  • 另一类文章(例如分析“AI 股如何应对 DeepSeek V4”)则强调:
    • V4 可能进一步削弱“只有大厂才能烧钱做顶级大模型”的逻辑,对英伟达等芯片股估值形成压力。
      总结一下:
  • 有券商(如野村)从技术和产业角度肯定 V4 的“成本效率”;
  • 但整体市场情绪被描述为“担忧”“谨慎”“不确定性”,而不是“欢迎”;
  • 中文“华尔街表示很欢迎”明显夸大,而且混淆了“个别券商的正面技术评价”和“整体市场情绪”。

三、综合判断:这条“消息”的真实程度

如果把原话拆成三部分来看:

  1. “美国军方最近和 Anthropic 产生了冲突”
    • 基本属实。
    • 触发点是美军在抓捕马杜罗的行动中疑似使用了 Claude,以及 Anthropic 与五角大楼在“能否用于武器和战场管理”上的政策分歧。
  2. “他们不支持美军用 AI 打委内瑞拉”
    • 有事实基础,但表述严重走样。
    • Anthropic 并不是公开“反战”,而是强调其 AI 不能用于武器设计、战场管理和大规模监控,任何使用都要符合其使用政策。
  3. “华尔街表示很欢迎 DeepSeek V4”
    • 这部分明显失实。
    • 华尔街主流报道对 V4 的情绪是“担忧、谨慎、不确定性”,个别券商从技术角度肯定其成本效率,但远不能概括为“华尔街欢迎”。
      整体评价:
      这条消息属于“半真半假、关键信息被夸张和扭曲”的典型网络二手转述。如果你要对外转发或引用,建议:
  • 不要说“Anthropic 反对美军用 AI 打委内瑞拉”,
    改成“Anthropic 与五角大楼因 Claude 在军事行动中的使用边界问题产生争议”。
  • 不要说“华尔街欢迎 DeepSeek V4”,
    改成“部分券商认为 V4 的架构有利于降低成本,但市场整体对其对美股 AI 板块的影响持谨慎态度”。

难绷真有这事啊
打仗用llm也是无敌了

2 Likes

不过这种表述说明华尔街确实是认可DS了,其实本质还是内部闹矛盾的衍生。

5 Likes

Anthropic反对开源模型其实不无道理:


OpenRouter排行榜,最近一个星期一直都是中国开源模型霸榜

2 Likes

这算抢饭碗吗(

1 Like

Kimi、MiniMax、GLM都在卷coding,之前coding可完全是Anthropic的市场。当然现在GPT、Grok、Gemini也开始卷coding,对Anthropic肯定有影响。

我看很多老外现在开始买Kimi、MiniMax、GLM的coding plan了,Kimi说国外的收益已经超过国内。要是没有这几个中国模型,这些人不说全去买claude,至少有不少

5 Likes