主机论坛

 找回密码
 立即注册
搜索
热搜: 活动 交友 discuz
12
返回列表 发新帖
楼主: 绿岛小夜曲

deepseek使用的是OpenAI的使用政策?

[复制链接]

7

主题

1630

回帖

4527

积分

论坛元老

Rank: 8Rank: 8

积分
4527
发表于 2025-3-28 06:40:54 | 显示全部楼层
正义猫头哥 发表于 2025-3-28 00:10
我感觉还是chatgpt写代码更强一些,执行的时候报错少,可用性高,deepseek也可以用,2者差别不是特别大。 ...

我感觉grok强。可能是因为我基本只用c#
回复

使用道具 举报

0

主题

91

回帖

288

积分

中级会员

Rank: 3Rank: 3

积分
288
发表于 2025-3-28 08:12:48 | 显示全部楼层
AI幻觉呗。
回复

使用道具 举报

0

主题

2049

回帖

4326

积分

论坛元老

Rank: 8Rank: 8

积分
4326
发表于 2025-3-28 09:53:45 | 显示全部楼层
自己不也说了吗,蒸馏的,只是降低了使用成本并开源
回复

使用道具 举报

0

主题

789

回帖

2244

积分

金牌会员

Rank: 6Rank: 6

积分
2244
发表于 2025-3-28 00:10:00 | 显示全部楼层
这是蒸馏的大模型
回复

使用道具 举报

24

主题

75

回帖

318

积分

中级会员

Rank: 3Rank: 3

积分
318
发表于 2025-3-28 10:00:15 | 显示全部楼层
之前openai还发文说过ds使用其模型训练自己的模型
回复

使用道具 举报

3

主题

447

回帖

1393

积分

金牌会员

Rank: 6Rank: 6

积分
1393
发表于 2025-3-28 10:40:17 | 显示全部楼层
目前 DeepSeek Chat 并没有直接蒸馏(distill)OpenAI 的模型(如 GPT-4)。我们的模型是由 深度求索(DeepSeek) 自主研发的,基于大规模高质量数据训练而成,并采用了前沿的大模型技术,包括可能涉及 Transformer 架构优化、高效训练策略等。

不过,知识蒸馏(Knowledge Distillation) 是一种常见的模型优化方法,通常用于将大模型(教师模型)的知识迁移到小模型(学生模型)上,以提高小模型的推理效率。如果未来有相关技术应用,我们会遵循合规的研究方式。

如果你是想问 DeepSeek Chat 是否基于 OpenAI 的技术,答案是否定的——我们是独立训练的。但如果你对模型训练细节感兴趣,可以告诉我,我会尽量解答!
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|Archiver|手机版|小黑屋|主机论坛

GMT+8, 2025-4-21 08:50 , Processed in 0.077069 second(s), 16 queries .

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表