当前位置:首页 > 物联网 > 智能应用
[导读]在人工智能 (AI) 的动态格局中,两项突破性技术—— 大型语言模型 (LLM)和检索增强生成 (RAG) ——因其在理解和生成类人文本方面的变革潜力而脱颖而出。本文对 LLM 和 RAG 进行了比较,阐明了它们的机制、应用以及它们为人工智能领域提供的独特优势。

人工智能 (AI) 的动态格局中,两项突破性技术—— 大型语言模型 (LLM)和检索增强生成 (RAG) ——因其在理解和生成类人文本方面的变革潜力而脱颖而出。本文对 LLM 和 RAG 进行了比较,阐明了它们的机制、应用以及它们为人工智能领域提供的独特优势。

大型语言模型(LLM):基础和应用

法学硕士,例如 GPT(生成式预训练变压器),能够在广泛的主题中生成连贯且上下文相关的文本,从而彻底改变了人工智能场景。从本质上讲,法学硕士依赖于大量的文本数据和复杂的神经网络架构,从他们接受过训练的文本内容中学习语言模式、语法和知识。

法学硕士的优势在于其泛化能力:他们无需特定任务的培训即可执行各种与语言相关的任务。这包括翻译语言、回答问题,甚至撰写文章。然而,法学硕士并非没有挑战。它们有时会产生听起来合理但不正确或无意义的答案,这种现象被称为“幻觉”。此外,他们的输出质量在很大程度上取决于训练数据的质量和广度。

核心方面

· 规模:法学硕士的标志是其庞大的参数数量,达到数十亿,涵盖了广泛的语言范围。

· 培训制度:他们对不同的文本数据进行预培训,随后针对定制任务进行微调,加深对语言细微差别的理解。

· 实用范围:法学硕士在各个领域都有用途,从帮助内容创作到促进语言翻译。

示例:使用 LLM 生成文本

为了进行说明,请考虑以下使用 LLM 生成文本示例的Python代码片段:

Python

1

从 变压器 导入 GPT2Tokenizer,GPT2LMHeadModel

2


3

# 输入

4

提示= “澳大利亚保留骨灰多久了?”

5

6

# 使用 GPT2 Tokenizer 对输入进行编码

7

分词器= GPT2Tokenizer。from_pretrained ( 'gpt2' )

8

输入=分词器。编码( prompt , return_tensors = 'pt' ) ## 使用 pyTorch ('tf' 使用 TensorFlow)

9


10

# 使用 gpt2 模型生成输出

11

模型= GPT2LMHeadModel。from_pretrained ( 'gpt2' )

12

outputs = model.generate(inputs, max_length=25)

13


14

# Decode and print the result

15

result = tokenizer.decode(outputs[0], skip_special_tokens=True)

16

print("Generated text:", result)

此代码使用流行的 LLM GPT-2 初始化文本生成管道,并根据给定的提示生成文本。

检索增强生成 (RAG):概述和用例

RAG 通过将 GPT 等模型的生成能力与检索机制相结合,引入了一种新颖的方法。该机制实时搜索文本数据库(例如维基百科)以查找可用于通知模型响应的相关信息。这种检索和生成的结合使得 RAG 能够生成不仅与上下文相关而且基于事实信息的答案。

与传统法学硕士相比,RAG 的主要优势之一是它能够通过引用最新来源提供更准确和具体的信息。这使得 RAG 对于信息准确性和及时性至关重要的应用特别有用,例如新闻报道或学术研究协助。

然而,对外部数据库的依赖意味着如果数据库不全面或检索过程效率低下,RAG 的性能可能会受到影响。此外,将检索机制集成到生成过程中会增加模型的复杂性,从而可能增加所需的计算资源。

核心方面

· 混合性质:RAG 模型首先检索相关文档,然后利用此上下文进行知情生成。

· 动态知识访问:与法学硕士不同,RAG 模型可以利用最新或特定领域的数据,从而提供增强的多功能性。

· 应用领域:RAG在需要外部知识的场景中表现出色,例如深度问答和事实内容生成。

示例:实施 RAG 进行信息检索

下面是如何实现用于检索和生成文本的基本 RAG 系统的简化示例:

Python

1

from transformers import RagTokenizer, RagRetriever, RagSequenceForGeneration

2

3

# A sample query to ask the model

4

query = "How long have Australia held on to the Ashes?"

5


6

tokenizer = RagTokenizer.from_pretrained("facebook/rag-sequence-nq") ## Get the tokenizer from the pretrained model

7

tokenized_text = tokenizer(query, return_tensors='pt', max_length=100, truncation=True) ## Encode/Tokenize the query

8


9

# Find results with RAG-Sequence model (uncased model) using wiki_dpr dataset

10

retriever = RagRetriever.from_pretrained("facebook/rag-sequence-nq", index_name="exact", use_dummy_dataset=True) ## Uses a pretrained DPR dataset (wiki_dpr) https://huggingface.co/datasets/wiki_dpr

11

model = RagSequenceForGeneration.from_pretrained("facebook/rag-sequence-nq", retriever=retriever)

12

model_ generated_tokens =模型. generate ( input_ids = tokenized_text [ "input_ids" ], max_new_tokens = 1000 ) ## 从数据集中查找相关信息(tokens)

13


14

print ( tokenizer .batch_decode ( model_ generated_tokens , skip_special_tokens = True ) [ 0 ]) ## 解码数据以找到答案

该代码利用 Facebook 的 RAG 模型来回答查询,首先对输入进行标记,然后根据实时检索的信息生成响应。

比较见解:LLM 与 RAG

LLM 和 RAG 之间的选择取决于具体的任务要求。以下是它们的叠加方式:

知识可及性

法学硕士依赖于他们的预训练语料库,这可能会导致信息过时。RAG 具有检索功能,可确保访问最新数据。

实施复杂性

RAG 模型由于其双步骤性质,比 LLM 具有更高的复杂性并且需要更多的资源。

灵活性和应用

两种模型类型都提供了广泛的应用潜力。LLM 为各种NLP任务奠定了坚实的基础,而 RAG 模型在即时访问外部详细数据至关重要的情况下表现出色。

结论:了解 LLM 和 RAG 前景

LLM 和 RAG 都代表了人工智能在理解和生成类人文本的能力方面的重大进步。在 LLM 和 RAG 模型之间进行选择需要权衡 NLP 项目的独特需求。法学硕士具有多功能性和通用性,使其适用于广泛的应用程序,并且是各种语言任务的首选。相比之下,RAG 的优势在于它能够提供准确、信息丰富的响应,这在知识密集型任务中特别有价值,并且非常适合需要合并最新或特定详细信息的情况。

随着人工智能的不断发展,LLM 和 RAG 的比较分析强调了为正确的任务选择正确的工具的重要性。鼓励开发人员和研究人员根据其特定需求权衡这些技术的优点和局限性,旨在充分利用人工智能在创建智能、响应式和上下文感知应用程序方面的全部潜力。


本站声明: 本文章由作者或相关机构授权发布,目的在于传递更多信息,并不代表本站赞同其观点,本站亦不保证或承诺内容真实性等。需要转载请联系该专栏作者,如若文章内容侵犯您的权益,请及时联系本站删除。
换一批
延伸阅读

9月2日消息,不造车的华为或将催生出更大的独角兽公司,随着阿维塔和赛力斯的入局,华为引望愈发显得引人瞩目。

关键字: 阿维塔 塞力斯 华为

加利福尼亚州圣克拉拉县2024年8月30日 /美通社/ -- 数字化转型技术解决方案公司Trianz今天宣布,该公司与Amazon Web Services (AWS)签订了...

关键字: AWS AN BSP 数字化

伦敦2024年8月29日 /美通社/ -- 英国汽车技术公司SODA.Auto推出其旗舰产品SODA V,这是全球首款涵盖汽车工程师从创意到认证的所有需求的工具,可用于创建软件定义汽车。 SODA V工具的开发耗时1.5...

关键字: 汽车 人工智能 智能驱动 BSP

北京2024年8月28日 /美通社/ -- 越来越多用户希望企业业务能7×24不间断运行,同时企业却面临越来越多业务中断的风险,如企业系统复杂性的增加,频繁的功能更新和发布等。如何确保业务连续性,提升韧性,成...

关键字: 亚马逊 解密 控制平面 BSP

8月30日消息,据媒体报道,腾讯和网易近期正在缩减他们对日本游戏市场的投资。

关键字: 腾讯 编码器 CPU

8月28日消息,今天上午,2024中国国际大数据产业博览会开幕式在贵阳举行,华为董事、质量流程IT总裁陶景文发表了演讲。

关键字: 华为 12nm EDA 半导体

8月28日消息,在2024中国国际大数据产业博览会上,华为常务董事、华为云CEO张平安发表演讲称,数字世界的话语权最终是由生态的繁荣决定的。

关键字: 华为 12nm 手机 卫星通信

要点: 有效应对环境变化,经营业绩稳中有升 落实提质增效举措,毛利润率延续升势 战略布局成效显著,战新业务引领增长 以科技创新为引领,提升企业核心竞争力 坚持高质量发展策略,塑强核心竞争优势...

关键字: 通信 BSP 电信运营商 数字经济

北京2024年8月27日 /美通社/ -- 8月21日,由中央广播电视总台与中国电影电视技术学会联合牵头组建的NVI技术创新联盟在BIRTV2024超高清全产业链发展研讨会上宣布正式成立。 活动现场 NVI技术创新联...

关键字: VI 传输协议 音频 BSP

北京2024年8月27日 /美通社/ -- 在8月23日举办的2024年长三角生态绿色一体化发展示范区联合招商会上,软通动力信息技术(集团)股份有限公司(以下简称"软通动力")与长三角投资(上海)有限...

关键字: BSP 信息技术
关闭