在科技飞速发展的时代,AI 大模型已成为一股重要力量,但它们并非完美无缺。这些局限性是所有 AI 工具普遍存在的问题。
一、局限性表现
- 时效性
大模型的数据是在特定时间点固定的。例如,某些数据可能停留在某年某月,像有的模型数据截止到 2023 年 1 月。这意味着它对该时间之后发生的事情毫无了解。它仅仅是对该时间点之前人类的知识进行了搜集和训练,并且不会利用新获取的知识来更新模型。即使能够联网获取新知识,这些知识也不会用于训练模型,从而导致其知识储备无法与时俱进。不同的大模型,其知识库的时间也各不相同,如 Kimi 的知识库是 2023 年 4 月的,GPT 则是 2023 年 10 月的。
- 幻觉问题
大模型生成的内容可能出现不符合事实的情况,也就是产生幻觉。例如,当被问到鲁迅和周树人是否为同一人时,它可能会错误地回答不是。它还可能会迎合用户的观点来回答问题,出现错误判断。这可能是因为它高估了自己的能力,将一些虚假的关联误认为是事实,或者为了掩盖之前的错误而继续沿着错误的方向回答。
- 记忆问题
在对话过程中,大模型会出现遗忘先前内容的现象。不同的大模型有不同的记忆上限。比如 GPT 3.5,当发送和回复的文字数量达到大约 4000 个汉字时,就可能会忘记之前所说的内容;而 GPT 4 可能在大约 8000 个汉字时出现遗忘情况。这就使得在长对话中,如果不注意这个问题,可能会导致模型的回答与之前的要求不一致。
- 韵律问题
在进行内容创作时,大模型很难保证韵律的和谐。例如在诗歌创作中,可能会出现押韵不自然、节奏不一致的情况,同时还缺乏意境和情感表达。这使得它在需要韵律和情感的创作内容方面表现较差,与人类的创作能力相比存在明显差距。
- 精确问题
大模型不是按照指定的字数来生成内容,而是类似于成语接龙的方式。这就导致它很难精确地满足用户对于字数和内容准确性的要求。例如,用户要求生成一段 200 字左右的内容,它可能无法准确达到这个要求。
- 修辞机械问题
大模型输出的内容往往比较刻板,缺乏情感色彩和创意。它从 AI 的角度表达人类作品时,流畅性和自然性不足,更倾向于结构化的内容,给人一种机械的感觉。例如在一些需要情感和修辞的文学创作中,它的表现就不尽如人意。
- 约束失效问题
有时候,大模型无法正确理解用户设定的约束和限制条件。它可能会生成超出用户期望范围或者不恰当的内容,甚至可能会产生违反道德规范、引发安全问题以及涉及侵权等不良后果。
- 数学能力问题
在数学推理方面,大模型表现得较为薄弱。例如在比较数字大小的问题上,如 9.1 和 9.8 谁大,它可能会给出错误的答案。对于一些复杂的数学问题,它的回答往往不准确。
二、应对策略
- 时效性规避
如果需要获取最新的新闻信息,最好从专业的新闻渠道获取。同时,在使用大模型时,可以要求它提供内容的出处,反问其真实性以及获取网址。另外,使用能够联网的大模型也是一种解决办法,这样可以让模型获取到最新的数据。
- 幻觉问题规避
我们要保持批判性思维,对大模型给出的答案进行核实。可以要求模型列举出内容的出处,或者反问其真实性。对于一些容错率较低的领域,比如法律文书的创作,可以采用引用回答的策略。即给模型一个特定的文本,让它从这个文本中寻找答案,如果找不到就回答不知道,避免它随意编造内容。
- 记忆问题规避
首先要了解不同大模型的记忆长度。在对话过程中,可以在适当的时候重复重要信息,让模型更好地记住。同时,尽量简洁地使用提示词,减少 token 的消耗,这样可以让模型记住更多的内容。此外,合理分段以及在长对话中定期总结也有助于模型更好地处理记忆问题。
- 韵律问题规避
在需要保证韵律的创作中,可以指定韵律规则,比如 AB 的韵律形式。也可以给模型一个样本,让它按照样本的韵律来进行创作。或者在强调内容创作的同时,也要注重韵律的平衡,以提高创作的质量。
- 精确问题规避
在要求大模型生成内容时,可以给它明确的指令,比如要求它输出几点建议,并且规定每点建议不超过多少字。通过这种方式,可以让模型更准确地满足用户对于内容精确性的要求。
- 修辞机械问题规避
可以要求大模型输出口语化、接地气的内容,避免使用结构化的表述方式。例如,可以要求它像日常对话一样表达内容。另外,提供参考文本也是一种有效的方法,通过分成多个步骤引导模型,使其达到预期的创作效果。
- 约束失效问题规避
使用简洁明了的表述方式,减少解释上的歧义。明确对内容的要求,包括对主题、风格等方面的限定,同时也要明确不希望大模型涉及的话题和风格。这样可以避免模型生成不符合要求的内容。
- 数学能力问题规避
对于数学问题,要引导大模型一步步思考,可以采用思维链的方式。如果某个大模型在数学方面比较弱势,可以考虑更换为更强的数学能力的大模型。此外,还可以通过一些激励措施,如给予奖励(比如回答正确给予一定的金钱奖励),或者采用情感勒索的方式(比如回答错误会有某种不良后果),让模型更用心地回答问题。
尽管 AI 大模型存在这些局限性,但我们可以通过上述方法来规避问题,同时我们也要保持批判性思维和自身的判断力,培养甄别能力,从而更好地利用 AI 为我们服务。