速递|谷歌正在使用Anthropic的Claude来改进其Gemini AI

全文1166字,阅读约需4分钟,帮我划重点

划重点

01谷歌正在使用Anthropic的Claude模型来改进其Gemini AI。

02承包商将谷歌和Anthropic的模型输出进行比较,以评估Gemini的性能。

03根据内部通信,承包商注意到Claude的回应似乎比Gemini更强调安全性。

04然而,谷歌表示并未在Anthropic模型上训练Gemini,只是比较模型输出作为评估过程的一部分。

以上内容由腾讯混元大模型生成,仅供参考

图片

图片来源:Claude

根据 TechCrunch 看到的内部通信,正在努力改进谷歌 Gemini AI 的承包商正在将其答案与 Anthropic 竞争对手模型 Claude 产生的输出进行比较。

谷歌在被 TechCrunch 联系以获取评论时未透露是否获得了在与 Gemini 测试中使用 Claude 的许可。

随着科技公司竞相构建更好的人工智能模型,这些模型的性能通常是与竞争对手进行评估的,通常是通过将他们的 自己的模型通过行业基准测试 而不是让承包商费力地评估竞争对手的人工智能响应。

负责评估 Gemini 模型输出准确性的承包商必须根据多个标准(如真实性和冗长性)对他们看到的每个响应进行评分。根据 TechCrunch 的报道,承包商每个提示最多有 30 分钟的时间来判断哪个答案更好,Gemini 的还是 Claude 的。

承包商最近开始注意到在他们用来将 Gemini 与其他未命名的 AI 模型进行比较的内部 Google 平台上出现了对 Anthropic 的 Claude 的引用,相关信件显示。至少有一个呈现给 Gemini 承包商的输出,TechCrunch 看到,明确表示:“我是 Claude,由 Anthropic 创建。”

一段内部聊天显示,承包商注意到 Claude 的回应似乎比 Gemini 更强调安全性。“Claude 的安全设置是所有 AI 模型中最严格的,”一位承包商写道。在某些情况下,Claude 不会回应它认为不安全的提示,例如角色扮演不同的 AI 助手。在另一个情况下,Claude 避免回答一个提示,而 Gemini 的回应因包含“裸体和禁令”而被标记为“重大安全违规”。

Anthropic 的商业服务条款禁止客户在未经 Anthropic 批准的情况下访问 Claude“以构建竞争产品或服务”或“训练竞争 AI 模型”。谷歌是 Anthropic 的主要投资者。

Shira McNamara,谷歌 DeepMind 的发言人,该公司运营 Gemini,在被 TechCrunch 问及谷歌是否获得了 Anthropic 的批准以访问 Claude 时未作回应。在出版前联系时,Anthropic 的一位发言人未在截止时间前发表评论。

麦克纳马拉表示,DeepMind 确实会“比较模型输出”以进行评估,但它并没有在 Anthropic 模型上训练 Gemini。

“当然,按照行业标准做法,在某些情况下,我们会将模型输出进行比较,作为评估过程的一部分,”麦克纳马拉说。“然而,任何关于我们使用 Anthropic 模型来训练 Gemini 的说法都是不准确的。”

上周,TechCrunch 独家报道,谷歌的承包商在公司的 AI 产品上工作,现在被要求在他们的专业领域之外对 Gemini 的 AI 响应进行评分。内部通信表达了承包商的担忧,认为 Gemini 可能会在医疗等高度敏感的话题上生成不准确的信息。
本文翻译自:TechCrunch,https://techcrunch.com/2024/12/24/google-is-using-anthropics-claude-to-improve-its-gemini-ai/
编译:ChatGPT