网站制作学习网AI→正文:LLM 大语言模型的问题
字体:

LLM 大语言模型的问题

AI 2024/3/14 9:07:58  点击:不统计

学习www.网for站asp制.cn作
 我们在使用GPT时会遇到大预言的3个问题,我们逐一说明。

 
1. 首先时偏见或者错误
因为我们训练模型采用的数据时互联网的数据或者其他哪里的知识,由于数据是海量数据。
在实际训练计算中,计算机不会分辨那内容是否有问题。
比如,种族歧视、(不同地域)法律法规等。
 
2.幻想 
因为大预言模型基于概率计算,我们去选择最优的结果,并不能按照人性的情况理解。
按照概率出结果,有可能会出现前言不搭后语,或者有时胡编乱造的情况。
 
3.信息及时性差或者是无效信息
因为在计算机计算模型数据时,它拿到的数据时有时间点的,而且训练时需要时间的,并不能及时更新最新信息的。

解决方案
 
目前针对上述三个问题,引入了RAG 辅助的信息检索增强生成(Retrive Augment Generate)提供外部知识源的概念,这使它们能够生成准确且符合上下文的答案,并解决上述三个问题。

·上一篇:autogen function calling >>    ·下一篇:claude2 接口调用案例 >>
推荐文章
最新文章