我感觉还是chatgpt写代码更强一些,执行的时候报错少,可用性高,deepseek也可以用,2者差别不是特别大。 ...</blockquote></div><br />
我感觉grok强。可能是因为我基本只用c# AI幻觉呗。 自己不也说了吗,蒸馏的,只是降低了使用成本并开源 这是蒸馏的大模型 之前openai还发文说过ds使用其模型训练自己的模型 目前 DeepSeek Chat 并没有直接蒸馏(distill)OpenAI 的模型(如 GPT-4)。我们的模型是由 深度求索(DeepSeek) 自主研发的,基于大规模高质量数据训练而成,并采用了前沿的大模型技术,包括可能涉及 Transformer 架构优化、高效训练策略等。<br />
<br />
不过,知识蒸馏(Knowledge Distillation) 是一种常见的模型优化方法,通常用于将大模型(教师模型)的知识迁移到小模型(学生模型)上,以提高小模型的推理效率。如果未来有相关技术应用,我们会遵循合规的研究方式。<br />
<br />
如果你是想问 DeepSeek Chat 是否基于 OpenAI 的技术,答案是否定的——我们是独立训练的。但如果你对模型训练细节感兴趣,可以告诉我,我会尽量解答!
页:
1
[2]