谷歌表示,人们在未经允许的情况下复制其人工智能,就像它在未曾请求创建人工智能的情况下抓取了所有人的数据一样

02/14/26 11:51 | 来源: 未来主义 | 已有(0)点评| |

谷歌依赖大量未经许可的材料来训练其Gemini AI模型。该公司与众多人工智能领域的竞争对手一样,肆无选择地在互联网上爬取内容,却未向权利人提供赔偿,期间引发了许多版权侵权诉讼

但当涉及到自家技术被抄袭时,谷歌毫不犹豫地指责别人。本周,该公司指控商业动机的参与者试图克隆其Gemini AI

在周四的一份报告中,谷歌抱怨其已遭受蒸馏攻击,代理多达10万次查询Gemini提取底层模型——这在人工智能行业中相当于复制某人的作业。

谷歌称这些攻击是违反谷歌服务条款的知识产权盗窃手段”——说实话,这显然是个明显的双重标准,因为谷歌对无偿抓取其他知识产权的态度冷酷无情。

谷歌对肇事者身份保持模糊,仅指出私营部门实体研究人员试图克隆专有逻辑

随着企业持续投入数百亿美元投入人工智能基础设施,以增强模型功能,风险极大。难怪谷歌害怕失去竞争优势,因为各大产品开始汇聚在领先集团。一个开创性模型的产出几乎与另一个无法区分,迫使公司试图区分其产品。

这远非模型提炼这一话题首次引发争议。中国初创公司DeepSeek2025年初展示了一款更便宜、更高效的AI模型,震撼了硅谷。当时,OpenAI暗示DeepSeek可能违反了其服务条款,将AI模型提炼出来。

ChatGPT开发者在评论后迅速成为广泛嘲笑的对象,网友们指责该公司虚伪,指出OpenAI多年来一直无差别地剽窃他人的作品。

谷歌最新的麻烦很可能不会是我们最后一次听到小型参与者试图通过提炼提取主流AI模型的消息。

谷歌威胁情报组首席分析师约翰·赫尔特奎斯特告诉NBC新闻我们将成为更多事件的金丝雀。

但他们是否能在未来几个月和几年内自卫仍不确定。由于人工智能公司模型已公开使用,仍然面临重大风险。

谷歌的报告写道:历史上,试图窃取高科技能力的对手会利用传统的计算机入侵行动来破坏组织并窃取包含商业机密的数据。”“对于许多以LLM作为服务提供的人工智能技术来说,这种方法已不再必要;参与者可以使用合法的API访问,尝试'克隆'部分AI模型能力。

谷歌列出了一个案例研究,发现攻击者使用了超过10万个提示词,暗示他们试图在各种任务中复制Gemini的推理能力,涵盖非英语目标语言。

然而,该公司的系统实时识别了这次攻击,降低了此次攻击的风险。

这是一个特别脆弱的时期,因为人工智能公司正拼命寻找通过各种收入驱动因素(从昂贵的订阅模式到广告)实现技术变现的方法。由于前期成本大幅降低,完全有可能出现更小规模的实体,就像我们在2025年初看到的DeepSeek那样

关键词: 谷歌、人工智能、数据、侵权
已有(0)条评论

过去24小时新闻

过去24小时与48小时之间新闻

热门专题链接