对各个大模型的使用报告
本次调查了deeppseek,豆包,kimi这3个大模型。根据用户的使用体验来说,深度思考的话deepseek一般比较慢,需要等比较久,豆包的速度比较快,kimi的就中等。3个大模型的理解能力都差不多,但是豆包好像在手机上不会显示出比较简单的东西,比如问矩阵求解,他只是会给出一段代码,而deepseek和kimi则是会显示出图片。所以一般解题不推荐使用豆包。对于使用它们的技巧来说,我发现首先要做到表达清晰,输入摸棱两可的指令是会对指令有误解,再者有时候大模型也会出现有错误的情况,需要自己看一下再进行使用。以上便是我对3个大模型进行的分析读书报告