《离语》转载请注明来源:晨曦小说(www.chenxixsw.com)
23检索增强生成技术
rag(retrevl-agentedgen)技术是一种结合了信息检索(retrevl)和文本生
成(gen)的自然语言处理(nlp)方法。核心思想是将传统的检索技术与现代的自然语言
生成技术相结合,以提高文本生成的准确性和相关性。它旨在通过从外部知识库中检索相关信息来
辅助大型语言模型(如gpt系列)生成更准确、可靠的回答。
在rag技术中,整个过程主要分为三个步骤如图22所示:索引(indeng)、检索
(retrevl)和生成(gen)。首先,索引步骤是将大量的文档或数据集合进行预处理,将
其分割成较的块(k)并进行编码,然后存储在向量数据库中。这个过程的关键在于将非结
构化的文本数据转化为结构化的向量表示,以便于后续的检索和生成步骤。接下来是检索步骤,它
根据输入的查询或问题,从向量数据库中检索出与查询最相关的前k个k。这一步依赖于高效
的语义相似度计算方法,以确保检索到的k与查询具有高度的相关性。最后是生成步骤,它将
原始查询和检索到的k一起输入到预训练的trnfrer模型(如gpt或bert)中,生成最
终的答案或文本。这个模型结合了原始查询的语义信息和检索到的相关上下文,以生成准确、连贯
且相关的文本。
rag的概念和初步实现是由dwekel、ptrklew和etnperez等人在2020年首次
提出的。他们在论文retrevl-gentedgenfrknwledge-ntek
中详细介绍了rag的原理和应用,随后谷歌等搜索引擎公司已经开始探索如何将rag技术应用到搜
索结果的生成中,以提高搜索结果的准确性和相关性。在医疗领域,rag技术可以帮助医生快速检
索医学知识,生成准确的诊断建议和治疗方案。
24文本相似度计算
文本相似度计算是自然语言处理(nlp)领域的一个重要研究方向,它旨在衡量两个或多个文
本之间的相似程度。文本相似度计算的原理基于两个主要概念:共性和差异。共性指的是两个文本
之间共同拥有的信息或特征,而差异则是指它们之间的不同之处。当两个文本的共性越大、差异越
,它们之间的相似度就越高。
文本相似度计算可以根据不同的分类标准进行分类。首先基于统计的方法分类,这种方法主要
关注文本中词语的出现频率和分布,通过统计信息来计算文本之间的相似度。常见的基于统计的方
法有余弦相似度、jrd相似度等。其次是基于语义的方法分类,这种方法试图理解文本的含义
和上下文,通过比较文本的语义信息来计算相似度。常见的基于语义的方法有基于词向量的方法
(如wrd2ve、glve等)和基于主题模型的方法(如lda、plsa等)。最后是基于器学习的方
法分类,这种方法利用器学习算法来训练模型,通过模型来预测文本之间的相似度。常见的基于
器学习的方法有支持向量(sv)、神经络等。
目前,在国内外,文本相似度计算已经取得了丰富的成果。国内方面,清华大学等构的研究
者提出了基于深度学习的文本相似度计算方法,利用神经络模型来捕捉文本的深层语义信息,实
现了较高的相似度计算精度。江苏师范大学的研究者提出了利用新华字典构建向量空间来做中
文文本语义相似度分析的方法,该方法在中文文本相似度计算方面取得了显着的效果。放眼国外,
ggle的研究者提出了wrd2ve算法,该算法将词语表示为高维向量空间中的点,通过计算点之
间的距离来衡量词语之间的相似度。wrd2ve算法在文本相似度计算领域具有广泛的影响。斯坦
福大学等构的研究者提出了bert模型,该模型通过大量的无监督学习来捕捉文本的上下文信
息,可以实现高精度的文本相似度计算。bert模型在多项自然语言处理任务中均取得了优异的表
现。
25本章结
本章主要介绍了本项目中使用的四种关键技术与模型。这些技术主要基于大型语言模型,并且
依赖于rag技术的原理。介绍了知识抽取技术,它利用先进的自然语言处理技术从文本中提取有意
义的信息和知识,随后讨论了文本处理中所使用的rag技术,该技术可以显着提高大型语言模型在
专业领域的性能,增强信息检索的准确性和效率。最后探讨了在文本比对过程中所需的相似度计算
方法,这对于评估文本之间的相似程度至关重要。
了解清楚数据获取来源后,进行数据采集,数据采集的方法包括自动化和动两种方式:
自动化采集:利用编写的pytn脚本通过api接口自动从上述数据库和期刊中下载文献和元
数据,部分代码如图32所示。这种方法的优点是效率高,可以大量快速地收集数据。使用
betflsp和reqet库从开放获取的期刊站爬取数据。
动采集:通过访问图书馆、研究构以及联系文章作者等方式获取不易自动下载的资源。虽
然此方法更费时,但有助于获取更全面的数据集,特别是一些最新或尚未公开的研究成果。
将两种方法采集到的文献数据进行汇总,最大范围的将有关电力领域的英文文献进行汇
总,共获得50篇。
最后是将各个途径获取到的文献数据和元数据汇总,进行数据预处理。
采集到的数据需经过清洗和预处理,才能用于后续的分析。
数据预处理的步骤包括:
数据清洗:删除重复的记录,校正错误的数据格式,填补缺失值。
数据整合:将来自不同来源的数据整合到一个统一的格式和数据库中,如表3所示,以便进
行进一步的分析。
为了使后续知识库生成更加准确与完善,对文献具体内容进行筛选。例如部分文献中并未提到
所用数据,而是指出所用数据库链接,如图33所示,在对该篇文献进行解析后,数据部分就是欠
缺的,最终构建的知识库就不完整,在调用大模型回答相关问题时,极大概率产生幻觉。因此为了
构建更为准确的专业模型,对爬取下来的50篇文献进行筛选,选择包括流程图(yte
bndre)、各单元过程或生产环节的投入(npt),产出(tpt),数据(lfeyle
ry),以及数据的时间、地点、获取方法、技术细节的文献作为最后应用的数据。核对内容
后的文献数据集共9篇英文文献。
文文本语义相似度分析的方法,该方法在中文文本相似度计算方面取得了显着的效果。放眼国外,
ggle的研究者提出了wrd2ve算法,该算法将词语表示为高维向量空间中的点,通过计算点之
间的距离来衡量词语之间的相似度。wrd2ve算法在文本相似度计算领域具有广泛的影响。斯坦
福大学等构的研究者提出了bert模型,该模型通过大量的无监督学习来捕捉文本的上下文信
息,可以实现高精度的文本相似度计算。bert模型在多项自然语言处理任务中均取得了优异的表
现。
25本章结
本章主要介绍了本项目中使用的四种关键技术与模型。这些技术主要基于大型语言模型,并且
依赖于rag技术的原理。介绍了知识抽取技术,它利用先进的自然语言处理技术从文本中提取有意
义的信息和知识,随后讨论了文本处理中所使用的rag技术,该技术可以显着提高大型语言模型在
专业领域的性能,增强信息检索的准确性和效率。最后探讨了在文本比对过程中所需的相似度计算
方法,这对于评估文本之间的相似程度至关重要。
了解清楚数据获取来源后,进行数据采集,数据采集的方法包括自动化和动两种方式:
自动化采集:利用编写的pytn脚本通过api接口自动从上述数据库和期刊中下载文献和元
数据,部分代码如图32所示。这种方法的优点是效率高,可以大量快速地收集数据。使用
betflsp和reqet库从开放获取的期刊站爬取数据。
动采集:通过访问图书馆、研究构以及联系文章作者等方式获取不易自动下载的资源。虽
然此方法更费时,但有助于获取更全面的数据集,特别是一些最新或尚未公开的研究成果。
将两种方法采集到的文献数据进行汇总,最大范围的将有关电力领域的英文文献进行汇
总,共获得50篇。
最后是将各个途径获取到的文献数据和元数据汇总,进行数据预处理。
采集到的数据需经过清洗和预处理,才能用于后续的分析。
数据预处理的步骤包括:
数据清洗:删除重复的记录,校正错误的数据格式,填补缺失值。
数据整合:将来自不同来源的数据整合到一个统一的格式和数据库中,如表3所示,以便进
行进一步的分析。
为了使后续知识库生成更加准确与完善,对文献具体内容进行筛选。例如部分文献中并未提到
所用数据,而是指出所用数据库链接,如图33所示,在对该篇文献进行解析后,数据部分就是欠
缺的,最终构建的知识库就不完整,在调用大模型回答相关问题时,极大概率产生幻觉。因此为了
构建更为准确的专业模型,对爬取下来的50篇文献进行筛选,选择包括流程图(yte
bndre)、各单元过程或生产环节的投入(npt),产出(tpt),数据(lfeyle
ry),以及数据的时间、地点、获取方法、技术细节的文献作为最后应用的数据。核对内容
后的文献数据集共9篇英文文献。
文文本语义相似度分析的方法,该方法在中文文本相似度计算方面取得了显着的效果。放眼国外,
ggle的研究者提出了wrd2ve算法,该算法将词语表示为高维向量空间中的点,通过计算点之
间的距离来衡量词语之间的相似度。wrd2ve算法在文本相似度计算领域具有广泛的影响。斯坦
福大学等构的研究者提出了bert模型,该模型通过大量的无监督学习来捕捉文本的上下文信
息,可以实现高精度的文本相似度计算。bert模型在多项自然语言处理任务中均取得了优异的表
现。
25本章结
本章主要介绍了本项目中使用的四种关键技术与模型。这些技术主要基于大型语言模型,并且
依赖于rag技术的原理。介绍了知识抽取技术,它利用先进的自然语言处理技术从文本中提取有意
义的信息和知识,随后讨论了文本处理中所使用的rag技术,该技术可以显着提高大型语言模型在
专业领域的性能,增强信息检索的准确性和效率。最后探讨了在文本比对过程中所需的相似度计算
方法,这对于评估文本之间的相似程度至关重要。
了解清楚数据获取来源后,进行数据采集,数据采集的方法包括自动化和动两种方式:
自动化采集:利用编写的pytn脚本通过api接口自动从上述数据库和期刊中下载文献和元
数据,部分代码如图32所示。这种方法的优点是效率高,可以大量快速地收集数据。使用
betflsp和reqet库从开放获取的期刊站爬取数据。
动采集:通过访问图书馆、研究构以及联系文章作者等方式获取不易自动下载的资源。虽
然此方法更费时,但有助于获取更全面的数据集,特别是一些最新或尚未公开的研究成果。
将两种方法采集到的文献数据进行汇总,最大范围的将有关电力领域的英文文献进行汇
总,共获得50篇。
最后是将各个途径获取到的文献数据和元数据汇总,进行数据预处理。
采集到的数据需经过清洗和预处理,才能用于后续的分析。
数据预处理的步骤包括:
数据清洗:删除重复的记录,校正错误的数据格式,填补缺失值。
数据整合:将来自不同来源的数据整合到一个统一的格式和数据库中,如表3所示,以便进
行进一步的分析。
为了使后续知识库生成更加准确与完善,对文献具体内容进行筛选。例如部分文献中并未提到
所用数据,而是指出所用数据库链接,如图33所示,在对该篇文献进行解析后,数据部分就是欠
缺的,最终构建的知识库就不完整,在调用大模型回答相关问题时,极大概率产生幻觉。因此为了
构建更为准确的专业模型,对爬取下来的50篇文献进行筛选,选择包括流程图(yte
bndre)、各单元过程或生产环节的投入(npt),产出(tpt),数据(lfeyle
ry),以及数据的时间、地点、获取方法、技术细节的文献作为最后应用的数据。核对内容
后的文献数据集共9篇英文文献。
文文本语义相似度分析的方法,该方法在中文文本相似度计算方面取得了显着的效果。放眼国外,
ggle的研究者提出了wrd2ve算法,该算法将词语表示为高维向量空间中的点,通过计算点之
间的距离来衡量词语之间的相似度。wrd2ve算法在文本相似度计算领域具有广泛的影响。斯坦
福大学等构的研究者提出了bert模型,该模型通过大量的无监督学习来捕捉文本的上下文信
息,可以实现高精度的文本相似度计算。bert模型在多项自然语言处理任务中均取得了优异的表
现。
25本章结
本章主要介绍了本项目中使用的四种关键技术与模型。这些技术主要基于大型语言模型,并且
依赖于rag技术的原理。介绍了知识抽取技术,它利用先进的自然语言处理技术从文本中提取有意
义的信息和知识,随后讨论了文本处理中所使用的rag技术,该技术可以显着提高大型语言模型在
专业领域的性能,增强信息检索的准确性和效率。最后探讨了在文本比对过程中所需的相似度计算
方法,这对于评估文本之间的相似程度至关重要。
了解清楚数据获取来源后,进行数据采集,数据采集的方法包括自动化和动两种方式:
自动化采集:利用编写的pytn脚本通过api接口自动从上述数据库和期刊中下载文献和元
数据,部分代码如图32所示。这种方法的优点是效率高,可以大量快速地收集数据。使用
betflsp和reqet库从开放获取的期刊站爬取数据。
动采集:通过访问图书馆、研究构以及联系文章作者等方式获取不易自动下载的资源。虽
然此方法更费时,但有助于获取更全面的数据集,特别是一些最新或尚未公开的研究成果。
将两种方法采集到的文献数据进行汇总,最大范围的将有关电力领域的英文文献进行汇
总,共获得50篇。
最后是将各个途径获取到的文献数据和元数据汇总,进行数据预处理。
采集到的数据需经过清洗和预处理,才能用于后续的分析。
数据预处理的步骤包括:
数据清洗:删除重复的记录,校正错误的数据格式,填补缺失值。
数据整合:将来自不同来源的数据整合到一个统一的格式和数据库中,如表3所示,以便进
行进一步的分析。
为了使后续知识库生成更加准确与完善,对文献具体内容进行筛选。例如部分文献中并未提到
所用数据,而是指出所用数据库链接,如图33所示,在对该篇文献进行解析后,数据部分就是欠
缺的,最终构建的知识库就不完整,在调用大模型回答相关问题时,极大概率产生幻觉。因此为了
构建更为准确的专业模型,对爬取下来的50篇文献进行筛选,选择包括流程图(yte
bndre)、各单元过程或生产环节的投入(npt),产出(tpt),数据(lfeyle
ry),以及数据的时间、地点、获取方法、技术细节的文献作为最后应用的数据。核对内容
后的文献数据集共9篇英文文献。
文文本语义相似度分析的方法,该方法在中文文本相似度计算方面取得了显着的效果。放眼国外,
ggle的研究者提出了wrd2ve算法,该算法将词语表示为高维向量空间中的点,通过计算点之
间的距离来衡量词语之间的相似度。wrd2ve算法在文本相似度计算领域具有广泛的影响。斯坦
福大学等构的研究者提出了bert模型,该模型通过大量的无监督学习来捕捉文本的上下文信
息,可以实现高精度的文本相似度计算。bert模型在多项自然语言处理任务中均取得了优异的表
现。
25本章结
本章主要介绍了本项目中使用的四种关键技术与模型。这些技术主要基于大型语言模型,并且
依赖于rag技术的原理。介绍了知识抽取技术,它利用先进的自然语言处理技术从文本中提取有意
义的信息和知识,随后讨论了文本处理中所使用的rag技术,该技术可以显着提高大型语言模型在
专业领域的性能,增强信息检索的准确性和效率。最后探讨了在文本比对过程中所需的相似度计算
方法,这对于评估文本之间的相似程度至关重要。
了解清楚数据获取来源后,进行数据采集,数据采集的方法包括自动化和动两种方式:
自动化采集:利用编写的pytn脚本通过api接口自动从上述数据库和期刊中下载文献和元
数据,部分代码如图32所示。这种方法的优点是效率高,可以大量快速地收集数据。使用
betflsp和reqet库从开放获取的期刊站爬取数据。
动采集:通过访问图书馆、研究构以及联系文章作者等方式获取不易自动下载的资源。虽
然此方法更费时,但有助于获取更全面的数据集,特别是一些最新或尚未公开的研究成果。
将两种方法采集到的文献数据进行汇总,最大范围的将有关电力领域的英文文献进行汇
总,共获得50篇。
最后是将各个途径获取到的文献数据和元数据汇总,进行数据预处理。
采集到的数据需经过清洗和预处理,才能用于后续的分析。
数据预处理的步骤包括:
数据清洗:删除重复的记录,校正错误的数据格式,填补缺失值。
数据整合:将来自不同来源的数据整合到一个统一的格式和数据库中,如表3所示,以便进
行进一步的分析。
为了使后续知识库生成更加准确与完善,对文献具体内容进行筛选。例如部分文献中并未提到
所用数据,而是指出所用数据库链接,如图33所示,在对该篇文献进行解析后,数据部分就是欠
缺的,最终构建的知识库就不完整,在调用大模型回答相关问题时,极大概率产生幻觉。因此为了
构建更为准确的专业模型,对爬取下来的50篇文献进行筛选,选择包括流程图(yte
bndre)、各单元过程或生产环节的投入(npt),产出(tpt),数据(lfeyle
ry),以及数据的时间、地点、获取方法、技术细节的文献作为最后应用的数据。核对内容
后的文献数据集共9篇英文文献。
文文本语义相似度分析的方法,该方法在中文文本相似度计算方面取得了显着的效果。放眼国外,
ggle的研究者提出了wrd2ve算法,该算法将词语表示为高维向量空间中的点,通过计算点之
间的距离来衡量词语之间的相似度。wrd2ve算法在文本相似度计算领域具有广泛的影响。斯坦
福大学等构的研究者提出了bert模型,该模型通过大量的无监督学习来捕捉文本的上下文信
息,可以实现高精度的文本相似度计算。bert模型在多项自然语言处理任务中均取得了优异的表
现。
25本章结
本章主要介绍了本项目中使用的四种关键技术与模型。这些技术主要基于大型语言模型,并且
依赖于rag技术的原理。介绍了知识抽取技术,它利用先进的自然语言处理技术从文本中提取有意
义的信息和知识,随后讨论了文本处理中所使用的rag技术,该技术可以显着提高大型语言模型在
专业领域的性能,增强信息检索的准确性和效率。最后探讨了在文本比对过程中所需的相似度计算
方法,这对于评估文本之间的相似程度至关重要。
了解清楚数据获取来源后,进行数据采集,数据采集的方法包括自动化和动两种方式:
自动化采集:利用编写的pytn脚本通过api接口自动从上述数据库和期刊中下载文献和元
数据,部分代码如图32所示。这种方法的优点是效率高,可以大量快速地收集数据。使用
betflsp和reqet库从开放获取的期刊站爬取数据。
动采集:通过访问图书馆、研究构以及联系文章作者等方式获取不易自动下载的资源。虽
然此方法更费时,但有助于获取更全面的数据集,特别是一些最新或尚未公开的研究成果。
将两种方法采集到的文献数据进行汇总,最大范围的将有关电力领域的英文文献进行汇
总,共获得50篇。
最后是将各个途径获取到的文献数据和元数据汇总,进行数据预处理。
采集到的数据需经过清洗和预处理,才能用于后续的分析。
数据预处理的步骤包括:
数据清洗:删除重复的记录,校正错误的数据格式,填补缺失值。
数据整合:将来自不同来源的数据整合到一个统一的格式和数据库中,如表3所示,以便进
行进一步的分析。
为了使后续知识库生成更加准确与完善,对文献具体内容进行筛选。例如部分文献中并未提到
所用数据,而是指出所用数据库链接,如图33所示,在对该篇文献进行解析后,数据部分就是欠
缺的,最终构建的知识库就不完整,在调用大模型回答相关问题时,极大概率产生幻觉。因此为了
构建更为准确的专业模型,对爬取下来的50篇文献进行筛选,选择包括流程图(yte
bndre)、各单元过程或生产环节的投入(npt),产出(tpt),数据(lfeyle
ry),以及数据的时间、地点、获取方法、技术细节的文献作为最后应用的数据。核对内容
后的文献数据集共9篇英文文献。
文文本语义相似度分析的方法,该方法在中文文本相似度计算方面取得了显着的效果。放眼国外,
ggle的研究者提出了wrd2ve算法,该算法将词语表示为高维向量空间中的点,通过计算点之
间的距离来衡量词语之间的相似度。wrd2ve算法在文本相似度计算领域具有广泛的影响。斯坦
福大学等构的研究者提出了bert模型,该模型通过大量的无监督学习来捕捉文本的上下文信
息,可以实现高精度的文本相似度计算。bert模型在多项自然语言处理任务中均取得了优异的表
现。
25本章结
本章主要介绍了本项目中使用的四种关键技术与模型。这些技术主要基于大型语言模型,并且
依赖于rag技术的原理。介绍了知识抽取技术,它利用先进的自然语言处理技术从文本中提取有意
义的信息和知识,随后讨论了文本处理中所使用的rag技术,该技术可以显着提高大型语言模型在
专业领域的性能,增强信息检索的准确性和效率。最后探讨了在文本比对过程中所需的相似度计算
方法,这对于评估文本之间的相似程度至关重要。
了解清楚数据获取来源后,进行数据采集,数据采集的方法包括自动化和动两种方式:
自动化采集:利用编写的pytn脚本通过api接口自动从上述数据库和期刊中下载文献和元
数据,部分代码如图32所示。这种方法的优点是效率高,可以大量快速地收集数据。使用
betflsp和reqet库从开放获取的期刊站爬取数据。
动采集:通过访问图书馆、研究构以及联系文章作者等方式获取不易自动下载的资源。虽
然此方法更费时,但有助于获取更全面的数据集,特别是一些最新或尚未公开的研究成果。
将两种方法采集到的文献数据进行汇总,最大范围的将有关电力领域的英文文献进行汇
总,共获得50篇。
最后是将各个途径获取到的文献数据和元数据汇总,进行数据预处理。
采集到的数据需经过清洗和预处理,才能用于后续的分析。
数据预处理的步骤包括:
数据清洗:删除重复的记录,校正错误的数据格式,填补缺失值。
数据整合:将来自不同来源的数据整合到一个统一的格式和数据库中,如表3所示,以便进
行进一步的分析。
为了使后续知识库生成更加准确与完善,对文献具体内容进行筛选。例如部分文献中并未提到
所用数据,而是指出所用数据库链接,如图33所示,在对该篇文献进行解析后,数据部分就是欠
缺的,最终构建的知识库就不完整,在调用大模型回答相关问题时,极大概率产生幻觉。因此为了
构建更为准确的专业模型,对爬取下来的50篇文献进行筛选,选择包括流程图(yte
bndre)、各单元过程或生产环节的投入(npt),产出(tpt),数据(lfeyle
ry),以及数据的时间、地点、获取方法、技术细节的文献作为最后应用的数据。核对内容
后的文献数据集共9篇英文文献。
文文本语义相似度分析的方法,该方法在中文文本相似度计算方面取得了显着的效果。放眼国外,
ggle的研究者提出了wrd2ve算法,该算法将词语表示为高维向量空间中的点,通过计算点之
间的距离来衡量词语之间的相似度。wrd2ve算法在文本相似度计算领域具有广泛的影响。斯坦
福大学等构的研究者提出了bert模型,该模型通过大量的无监督学习来捕捉文本的上下文信
息,可以实现高精度的文本相似度计算。bert模型在多项自然语言处理任务中均取得了优异的表
现。
25本章结
本章主要介绍了本项目中使用的四种关键技术与模型。这些技术主要基于大型语言模型,并且
依赖于rag技术的原理。介绍了知识抽取技术,它利用先进的自然语言处理技术从文本中提取有意
义的信息和知识,随后讨论了文本处理中所使用的rag技术,该技术可以显着提高大型语言模型在
专业领域的性能,增强信息检索的准确性和效率。最后探讨了在文本比对过程中所需的相似度计算
方法,这对于评估文本之间的相似程度至关重要。
了解清楚数据获取来源后,进行数据采集,数据采集的方法包括自动化和动两种方式:
自动化采集:利用编写的pytn脚本通过api接口自动从上述数据库和期刊中下载文献和元
数据,部分代码如图32所示。这种方法的优点是效率高,可以大量快速地收集数据。使用
betflsp和reqet库从开放获取的期刊站爬取数据。
动采集:通过访问图书馆、研究构以及联系文章作者等方式获取不易自动下载的资源。虽
然此方法更费时,但有助于获取更全面的数据集,特别是一些最新或尚未公开的研究成果。
将两种方法采集到的文献数据进行汇总,最大范围的将有关电力领域的英文文献进行汇
总,共获得50篇。
最后是将各个途径获取到的文献数据和元数据汇总,进行数据预处理。
采集到的数据需经过清洗和预处理,才能用于后续的分析。
数据预处理的步骤包括:
数据清洗:删除重复的记录,校正错误的数据格式,填补缺失值。
数据整合:将来自不同来源的数据整合到一个统一的格式和数据库中,如表3所示,以便进
行进一步的分析。
为了使后续知识库生成更加准确与完善,对文献具体内容进行筛选。例如部分文献中并未提到
所用数据,而是指出所用数据库链接,如图33所示,在对该篇文献进行解析后,数据部分就是欠
缺的,最终构建的知识库就不完整,在调用大模型回答相关问题时,极大概率产生幻觉。因此为了
构建更为准确的专业模型,对爬取下来的50篇文献进行筛选,选择包括流程图(yte
bndre)、各单元过程或生产环节的投入(npt),产出(tpt),数据(lfeyle
ry),以及数据的时间、地点、获取方法、技术细节的文献作为最后应用的数据。核对内容
后的文献数据集共9篇英文文献。
姜辰穿越大梁国十六皇子的替身,为了模仿加深人设,姜辰只能含泪日日勾栏听曲。姜辰一心只想逃离京城,外出就藩。奈何天不遂人愿。打了兄弟,梁皇直夸打得好。接了解决流民重任,天天摆烂,结果惨遭身边人背刺,梁皇直夸有本事。正逢大梁北面匈奴来犯。满朝文武无一人敢战。为了被外派,姜辰不惜得罪所有人,直言:“此殿内,凡是擅议和谈者,当斩!”激进派以为自己已经够激进了,但没想到跟姜辰比,自己竟是保守派。最终姜辰还
其他 97万字 1天前
简介:关于仙武大明,开局成为鬼修锦衣卫:“你有听说过‘百鬼夜行‘的故事吗?”锦衣昼出,阴兵借道。永乐一朝,当你走在京城街上的时候,总会有人会问你这个问题。九十九只恶鬼,数以计万的鬼灵。走在他们最前方的那道身影代表的就是一个传说。一个关于“百鬼夜行”的传说。“从那之后,大明就再也没有鬼了。”(男主锦衣卫+鬼修+有一丢丢疯批,不喜慎入。)(不严格卡境界,人物强弱看战力和表现力。)(无系统,有金手指,
其他 282万字 4个月前
简介:关于被迫分家后,我带百亿物资去流放:别人开局流放薅空皇宫,她则是初来乍到业务不熟薅了个寂寞。一路被追杀好不容易活着到流放地,没过上几天母慈子孝的安稳日子,又开始战乱,逃荒,瘟疫,灾荒!别慌!人家过得生不如死,她人美路子野,有灵泉空间,有神兽加持,有徒弟守护,有秘密武器,一路还顺走狗皇帝金山银山富可敌国。狗皇帝不愿做人,她就只能拿出空间神器,来个回首掏,掏空皇宫自立门户……
耽美 606万字 4个月前
简介:关于鉴宝圣瞳:刚和女友分手,宋岳就觉醒了特殊能力。他的双眼居然可以透视了!从此人生逆袭,改变一切。跟我分手?你别后悔!我只想低调发财!等等……为什么这透视眼总不听话,喜欢自己乱看?
都市 175万字 4个月前
五年前,林惊羽得到一块九龙神玉,却无法承受住神玉中的九龙之力,只能自行封印修为与神智,成了一个傻子。问鼎青州的林家一夜间遭遇灭顶之灾,留下七个绝色嫂子,然而,这七个嫂子却要一起嫁给林惊羽。林惊羽惊呆了,这么多嫂子,自己的雨露,够嫂子们均沾吗?
其他 110万字 4个月前
简介:关于这福气,我要了:一觉醒来,苏四儿(苏月眠)发现自己躺在古代的茅草屋,下午就要卖身为奴,这日子还能过下去?给肉吃,给衣穿,给钱花,古代的人口中介也太好了,这是卖身为奴的人配有的待遇吗?后来她才发现大衍朝的等级秩序与“福气”有关。人说,物极必反,一路走来,她充分体验到福气的背后尽是秘密,世界的运转与芸芸众生相互牵引,她自以为的正义这一刻瓦解了,但她是一个做实事的人。人的一生会遇到很多人,但
耽美 173万字 4个月前