Anthropic 和美国政府之间的矛盾越来越大,已经开始给这家 AI 公司之外的领域带来麻烦。起初只是围绕 AI 模型军事用途的争执,现在却演变成了软件公司的业务风险,尤其是那些跟联邦机构打交道的公司。
Figma 最近向投资者发出警告,如果 Anthropic 继续被美国当局列为“供应链风险”,可能会严重影响自家在政府部门的业务。问题关键在于,Figma 正使用 Anthropic 的 Claude 模型,为联邦客户提供 AI 功能。
事情要从今年二月说起,当时特朗普政府因在 AI 系统军事用途上存在分歧,打算将 Anthropic 列入某些政府工作的黑名单。Anthropic 随后起诉国防部,认为这些限制不公平,而且带有政治动机。
这个事件真正值得关注的是它的连锁反应。那些已经把 Claude 集成到企业产品里的公司,现在才意识到可能需要准备备用 AI 供应商。可这不是说换就换的事:替换基础 AI 模型往往意味着要重新训练工作流、重建集成、重新测试安全控制,还得重写合规文档。
不止 Figma 一家。网络安全公司 Tenable 和物流平台 Freightos 也披露了因依赖 Anthropic 而产生的担忧。
更大的问题是,AI 供应商如今已经深深嵌入企业软件栈里。很多 SaaS 公司都宣称自家有 AI 工具,但底层模型往往来自 Anthropic、OpenAI 或 Google 这样少数几家供应商。如果其中一家遇到监管麻烦,下游客户也会跟着受影响。
对投资者来说,这又多了一层 IPO 和企业风险分析维度。现在不能只问一家公司有没有 AI 功能,监管机构、采购团队和股东越来越关心这些功能背后用的到底是谁家的 AI 模型。

已注销
全部评论0