先说程序员有多快。第一个开源的ChatGPT项目已经出现了!
基于谷歌语言模型的PaLM架构和从人类反馈中加强学习的方法,中国弟弟Phillip Wang复制了一个ChatGPT。
项目GitHub star已经超过1.7k,而且还在飙升。
可是,一反常态,网友们看到开源ChatGPT并没有抢,反而都提出了问题:
这......有人能跑。
开源,但不完全开放。
项目的核心内容是在PaLM架构上实现基于人类反馈的强化学习。
其中PaLM是谷歌在今年4月发布的5400亿参数全能机型基于通路系统的训练,伯特之父雅各布·德夫林是主要贡献者之一
PaLM可以完成写代码,聊天,语言理解等任务,在大多数任务中实现了小样本的SOTA学习性能
另一个核心点是RLHF的来自人类反馈的强化学习。
OpenAI在提出InstructGPT的时候就使用了这种方法,可以让AI的回答更加符合情境要求,减少危害性。
它分为三个步骤:
第一步是找一些人写下示范答案,以微调GPT—3模型并训练监督模型基线。
第二步,收集一个问题的几组不同的输出数据,由人类对几组答案进行排序,在这个数据集上训练奖励模型。
再次,采用RM作为奖励函数,近端策略优化算法对GPT—3策略进行微调,加强学习方法,使奖励最大化。
ChatGPT使用的GPT—3.5,其中text—davinci—002是在code—davinci—002的基础上使用InstructGPT训练方法改进的。
大致有三个步骤:
我们先训练一下PaLM,就像其他自回归变压器一样。
第二...
等等,练掌你确定这不是开玩笑吗
现在我明白为什么大家都觉得这个开源项目根本跑不起来了...
打个不恰当的比方,这就好比你想吃熊肉,你得先自己给熊头上。
项目里只有PaLM架构和代码,没有预训练的权重。
所以完成第一步后,大概效果是...
说到这里,继续往下看...
然后,用强化学习对之前训练好的模型和奖励模型进行微调。
经过这三步,你就可以得到一个开源版本的ChatGPT了。
中间的问题包括巨大的计算量,庞大的模型和难以收集的文本...所以有些人不禁要问:
没有可能,也没用。
不过,也有网友认为这本质上是好事。
AI的一个关键区别是,每一次重大突破,都会很快出现一个开源版本。
而LAION也推出了类似的项目Open Assistant,将通过众筹脑力联合开发一款开源聊天AI。
稳定扩散使用的开放数据集就是这个组织做的。
感兴趣的童鞋不妨试试~
PaLM—rlhf—pytorch主页:
打开助手主页:
参考链接:
郑重声明:此文内容为本网站转载企业宣传资讯,目的在于传播更多信息,与本站立场无关。仅供读者参考,并请自行核实相关内容。