谷歌的BERT语言模型是什么
BERT 是 Google 在 Bard 之前开发的 AI 语言模型。它有不同的用途,并且在 OpenAI 推出 ChatGPT 之前几年就已投入使用。谷歌是人工智能领域的领导者,将人工智能构建到 Android、Nest 智能音箱等产品中。每次您访问 Google Assistant 时,都会有 AI 应答。
BERT 代表什么?
BERT 代表 Tranormers 的双向编码器表示。除非您熟悉人工智能术语,否则全名并没有多大帮助。解释它的最简单方法就是一次分解一个术语。
双向 意味着该过程在两个方向上进行。当扫描句子时,BERT 会寻找左侧和右侧的单词关联。当我们从左到右阅读时,我们知道相关的单词可以存在于两侧。BERT 也知道这一点。
编码器 是一种以紧凑且有用的方式封装信息的方法。BERT 以对其独特目的有意义的方式对数据进行编码。
BERT 使用语言的内部表示 来简化和加速处理。谷歌翻译在一百多种自然语言之间进行翻译时使用类似的过程。人工智能创建了一种内部语言来促进这一过程。
变形金刚 是一个极其重要的人工智能概念。它是一个由两层组成的神经网络。注意力层通过为最相关的数据分配权重来确定要关注的内容。前馈层提前传递数据以学习复杂的模式。
BERT 与 Bard 有何不同?
谷歌已经使用人工智能很多年了,但 BERT 是继 OpenAI 的 GPT-1 之后最早作为开源发布的语言模型之一。OpenAI 的生成式预训练 Tranormer 1 使用了 Google 2017 年的 AI Tranormer 概念。BERT 不接受用户输入。它在幕后工作以改善 Google 搜索结果。
Bard 是谷歌最新的人工智能,一个可以回答问题并遵循用户命令的聊天机器人。它是一个类似于 OpenAI 的 GPT-4 或微软的 Bing 的大型语言模型。Google 于 2023 年 2 月推出了 Bard。与 BERT 不同,Bard 不是一个开源项目。如果您想了解有关 Google Bard 及其工作原理的更多信息,我们有一篇文章解释了 Bard 的功能。
BERT 是如何训练的?
Google根据维基百科文章和 Toronto BookCorpus(免费在线图书集合)对 BERT 进行训练。这种类型的数据被称为无标签文本,BERT 使用无监督学习。人工智能以原始形式查看文本,无需人工输入或有关含义或结构的提示。谷歌对自然语言处理(NLP)模型进行了微调,例如回答问题、理解情绪以及识别人员和组织。
谷歌在 2018 年发布 BERT 时,大幅超越了之前的模型。谷歌于 2019 年 10 月对 BERT 进行了重大更新,并开始使用它来改进搜索结果。
谷歌如何使用BERT?
Google 现在使用在 Google Cloud TPU 上运行的 BERT 来提高 Google 搜索理解您的查询并提供最相关的搜索结果的能力。由于 BERT 的双向理解考虑了周围单词的影响,Google 搜索可以理解包含“for”和“to”等介词的长对话问题。
Google 搜索从数十亿个不同网站收集数据并建立索引。理解语言、上下文和主题对于查找相关列表和显示最重要的细节至关重要。谷歌在其博客文章中给出了一个关于将 BERT 集成到搜索中的绝佳示例。
免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。