deepseek吧 关注:72,049贴子:103,233
  • 1回复贴,共1

训练蒸馏openai数据实锤了

只看楼主收藏回复



IP属地:湖南来自Android客户端1楼2025-01-30 09:40回复
    蒸馏模型跟是否开源没任何关系。knowledge distillation本质上是通过问其他模型(ChatGPT)海量问题,并用得到的回复做为数据来训练自己的模型(deepseek)


    IP属地:中国香港来自iPhone客户端2楼2025-01-30 10:10
    回复