Figma 突然开始担心 Anthropic 的美国麻烦,这才是原因

Figma 突然开始担心 Anthropic 的美国麻烦,这才是原因

Anthropic 和美国政府之间的矛盾越来越大,已经开始给这家 AI 公司之外的领域带来麻烦。起初只是围绕 AI 模型军事用途的争执,现在却演变成了软件公司的业务风险,尤其是那些跟联邦机构打交道的公司。

Figma 最近向投资者发出警告,如果 Anthropic 继续被美国当局列为“供应链风险”,可能会严重影响自家在政府部门的业务。问题关键在于,Figma 正使用 Anthropic 的 Claude 模型,为联邦客户提供 AI 功能。

事情要从今年二月说起,当时特朗普政府因在 AI 系统军事用途上存在分歧,打算将 Anthropic 列入某些政府工作的黑名单。Anthropic 随后起诉国防部,认为这些限制不公平,而且带有政治动机。

这个事件真正值得关注的是它的连锁反应。那些已经把 Claude 集成到企业产品里的公司,现在才意识到可能需要准备备用 AI 供应商。可这不是说换就换的事:替换基础 AI 模型往往意味着要重新训练工作流、重建集成、重新测试安全控制,还得重写合规文档。

不止 Figma 一家。网络安全公司 Tenable 和物流平台 Freightos 也披露了因依赖 Anthropic 而产生的担忧。

更大的问题是,AI 供应商如今已经深深嵌入企业软件栈里。很多 SaaS 公司都宣称自家有 AI 工具,但底层模型往往来自 Anthropic、OpenAI 或 Google 这样少数几家供应商。如果其中一家遇到监管麻烦,下游客户也会跟着受影响。

对投资者来说,这又多了一层 IPO 和企业风险分析维度。现在不能只问一家公司有没有 AI 功能,监管机构、采购团队和股东越来越关心这些功能背后用的到底是谁家的 AI 模型。

全部评论0

没有了

到底了

查看更多

发表评论

评分:
显示验证码 验证码