如何看待陆奇说“知识图谱真的不行”?
发布时间:
2023-08-24 12:28
阅读量:
12
陆奇老师说的是从应用角度吧。
从应用角度上来考量,ChatGPT为首的一众大模型基本上从ToC和ToB端都展现出来非常惊艳的性能。
虽然它有很多的不足,比如乱说话,胡编乱造,但是它在圈定好的范畴的问题上表现是没有问题的,比如说给它提供足够多的前置知识,或者严格限定它的输出,以及让它严格按照思维链的方式思考。
它是可以表现的很优秀的。
再者就是它表现出了非常棒的泛化性能,比如把一个内容以各种不同的形式表现出来,代码形式,伪代码形式,latex格式,甚至说古文,各种形式只要你能想得到的,它都可以做的到,并且做的还不赖。
技术 | 优点 | 缺点 |
---|---|---|
知识图谱 | 1. 结构化:每个实体和关系都被清晰定义。2. 易于更新和维护:可以直接在知识图谱中添加或更新信息。3. 可解释性:由于知识图谱的结构化特性,我们可以明确地理解和解释其输出。 | 1. 扩展性:添加新的知识和数据需要大量的人工工作。2. 缺乏灵活性:知识图谱通常不擅长处理模糊的、不确定的或开放式的问题。3. 不断变化的数据:对于需要频繁更新的数据,知识图谱可能不是最佳选择。 |
大型语言模型 (如 GPT-4) | 1. 灵活性:这些模型能够处理各种各样的任务。2. 理解和生成自然语言:这些模型通过学习大量的文本数据,理解并生成自然语言。3. 自适应:模型可以从未标记的数据中学习,这意味着它可以适应各种类型的输入。 | 1. 可解释性差:大型语言模型的工作原理是黑盒操作。2. 数据更新:如果训练数据有更新或变更,通常需要重新训练整个模型。3. 可能产生偏见:如果训练数据中包含任何形式的偏见,模型也可能学习并复制这些偏见。 |
知识图谱当然也没什么问题,他最大的优势就是稳定以及确定,因为每一条输出都是确定的,在一些特定的领域,知识图谱肯定是有用的。
但是它的问题就是需要大量的输入以及定义,这需要大量的人力物力以及时间。
我觉得单独大模型肯定不行,因为它不够稳定,有些关键问题胡编乱造会出问题;单独知识图谱也不行,因为人类的知识浩瀚如海,很难都去包容并蓄。
只有大模型+知识图谱才是正道,大模型负责大量内容的消化以及展现泛化能力,而知识图谱负责关键性的确定性内容。
其实OpenAI做的alignment就是类似的工作,就是把ChatGPT的输出尽量跟人类的输出进行对齐,尽可能的避免胡编乱造。
ChatGPT走的是一条先野蛮发展,再有序规范的路子。
好处就是大力出了奇迹。
END