大语言模型没法帮助我们思考,除非我们能自己训练它。
我现在闲着没事就和在线deepseek探讨一下我的一些想法和思考,感觉它还是挺有条理的,能做出一些复杂的思考。
但我很快我就意识到,这东西缺陷还挺大的。因为它存在太多太多的迷信和刻板印象,这种迷信就和人很像。很多人都这么说,没经过思考就全盘接纳了。我一旦用有条理的依据反驳它,它就会很快认错。倒不会像网上一些人和你辩论的时候,即使发现自己的问题,还自尊心作祟继续胡搅蛮缠满地打滚。
而它说“我以后会注意你给我提出的批评”,但是大模型没有记忆,你开启一段新对话。前面说的什么都清空了,模型本身并不会有所更新。除非你不断的去用显卡训练微调它,不说像大人教导小孩一样,也一定要共同成长,才能成为自己的得力助手。现在这样的大模型还真不行,按我小时候老师经常说的话就是:左耳朵听,右耳朵冒。
本帖最后由 FruitsNeverLie 于 25-6-20 12:14 编辑