AI工具集AI对话工具

ColossalChat

Colossal-AI推出的免费开源版ChatGPT聊天机器人替代品

标签:

ColossalChat是由HPC-AI Tech开源的一款聊天机器人大模型,其基础模型源自Meta开源的LLaMA。

Colossal人工智能是由加州大学伯克利分校的杰出教授James Demmel和新加坡国立大学总统青年教授Yang You的专业知识开发的。自开源以来,Colossal AI已多次成为GitHub Trending上的第一名,拥有约20000名GitHub stars,并成功成为SC、AAAI、PPoPP、CVPR和ISC等国际人工智能和HPC顶级会议的官方教程。

ColossalChat

ColossalChat的特点包括:

1、提供免费且无需注册的在线演示网站。
2、训练代码完全开源,是全球首个公开RLHF训练代码的模型,包括70亿参数和130亿参数的预训练结果。
3、公开了包含10.4万条中英文数据的数据集。
4、运行4-bit量化的70亿参数模型仅需4GB的GPU显存。

ColossalChat是第一个基于LLaMA预训练模型实现的开源RLHF pipeline,包括有监督数据收集、有监督微调、奖励模型训练和强化学习微调。用户可以在1.6GB GPU内存下复制ChatGPT训练过程,并在训练中体验7.73倍的加速。

该项目包括:

在线Demo:提供交互式演示,用户可以在无需注册或等待名单的情况下在线尝试。
训练代码:完整的RLHF训练代码,适用于7B和13B的模型。
数据集:开源的104K中英文双语数据集。
推理:仅需要4GB GPU内存的70亿参数模型的4位量化推理。
模型权重:可以在单个服务器上以较小计算成本快速复制。
ColossalChat不到100亿个参数就能通过RLHF微调达到中英文双语水平,达到与ChatGPT和GPT-3.5相当的效果。

Meta已经开源了LLaMA模型,提供了70亿至650亿的参数大小。在大多数基准测试中,130亿参数的模型可以优于1750亿的GPT-3模型。然而,由于缺乏指令调优阶段,实际生成的结果可能不尽如人意。

Alpaca通过调用OpenAI的API自学生成训练数据。该轻量级模型只有70亿个参数,可以以较小的成本进行微调,实现与GPT-3.5相似的大型语言模型的会话性能。

然而,现有的开源解决方案只涉及到RLHF的第一阶段,即监督微调模型,而未执行后续的调整和微调阶段。此外,Alpaca的训练数据集仅限于英语,这在一定程度上限制了模型的性能。

ChatGPT和GPT-4的卓越效果归功于在训练过程中引入的RLHF,增加了生成内容与人类价值观的一致性。

数据评估

ColossalChat浏览人数已经达到111,如你需要查询该站的相关权重信息,可以点击"5118数据""爱站数据""Chinaz数据"进入;以目前的网站数据参考,建议大家请以爱站数据为准,更多网站价值评估因素如:ColossalChat的访问速度、搜索引擎收录以及索引量、用户体验等;当然要评估一个站的价值,最主要还是需要根据您自身的需求以及需要,一些确切的数据则需要找ColossalChat的站长进行洽谈提供。如该站的IP、PV、跳出率等!

关于ColossalChat特别声明

本站TD导航网提供的ColossalChat都来源于网络,不保证外部链接的准确性和完整性,同时,对于该外部链接的指向,不由TD导航网实际控制,在2023年11月16日 下午6:08收录时,该网页上的内容,都属于合规合法,后期网页的内容如出现违规,可以直接联系网站管理员进行删除,TD导航网不承担任何责任。

相关导航