下载地址链接:https://pan.baidu.com/s/1moKiEEHsG1G3oUGrcHcx7A 提取码:eicq
https://github.com/binary-husky/chatgpt_academic
企业如何构建自己的ChatGPT中文LLM大模型和微调方法推荐
开源GPT加上自己的知识库比ChatGTP更精准更专业
教大家本地部署清华开源的大语言模型,亲测很好用。可以不用麻烦访问chatGPT了
可以本地化部署的大语言模型 ChatGLM,62亿基于General Language Model (GLM)架构,具有 62 亿参数。结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4 量化级别下最低只需 6GB 显存)。 ChatGLM-6B 使用了和 ChatGPT 相似的技术,针对中文问答和对话进行了优化。
ChatGLM和ChatGPT都是非常优秀的语言模型。前者规模较小,但是能在消费级显卡(RTX4090级别)流畅运行,而后者不开源。ChatGLM虽然规模较小,但是保持了非常出色的效果,足以在某些情景上和ChatGPT媲美。然而ChatGLM逻辑能力非常弱,远不及ChatGPT,上下文理解较弱,同时经常输出完全错误的内容。很期待ChatGLM的千亿参数模型
项目地址:https://github.com/THUDM/ChatGLM-6B期待已久的中文离线ChatGPT终于来了,快来领取你的专属猫娘!最低只需要6G显存就可以跑!