Chatgpt的前世今生
微wx笑 2023-04-02【人工智能】 0 0关键字: ChatGPT
Chatgpt的火热已经有段时间了,今天趁着周末有空,聊下人工智能这些年的发展历程。聊天机器人最早可以追溯到1950年,当时计算机人工智能之父艾伦·麦席森·图灵,发表了一篇具有划
Chatgpt的火热已经有段时间了,今天趁着周末有空,聊下人工智能这些年的发展历程。
聊天机器人最早可以追溯到1950年,当时计算机人工智能之父艾伦·麦席森·图灵,发表了一篇具有划时代意义的论文,他提出了一个很有哲理的模仿游戏,也就是我们现在常被提及的图灵测试:
测试者与被测试者在隔开的情况下,通过键盘向被测试者随意提问,进行多次测试后,如果机器让平均每个参与者做出超过30%的误判,那么这台机器就通过了测试,并被认为具有人类智能。
这个测试简单易懂又具体,吸引了许多计算机方面的科学家向它发起冲锋挑战,在最开始的时候都是一些非常简单的指令代码,设计者通过一些语言技巧来尽量让你感觉到你是在跟一个人在对话。
在1966年,MIT实验室里用代码写了个聊天机器人,开发者很聪明,他给这个机器人设定是个心理治疗师。
这种咨询师一般都是少说话多倾听,说的少就错的少,所以它大部分都是询问,比如问:你有没有什么想法?对面就吧啦吧啦说一大堆,他又问你最近休息的怎么样?对面又吧嗒一大堆,少说就让人误以为他在倾听,然后跟你沟通,而其实这机器人背后就是一些非常简单的if和and的代码。
它接受到mother妈妈这个词,他就会跟你说:跟我说说你的家庭吧,类似这种的关键词大概有200多个。
到了30年之后,也就是1995年这个机器人经过数代的更新,已经进化的很强大了,日常那些对话已经都可以应付了,不过本质上它的原理都是基于模式匹配。
其实现在的一些购物网站、银行的在线机器人,都是基于的还是这种模式,你跟他聊天说到退货,他就发给你一个退货流程,说到ATM,它就发个附近ATM的地图。
这种匹配模式虽然称不上智能,但确确实实减少了大量人力机械性的重复回答,但从智能的角度讲,这种限定规则的机器人,就算规则写的再多再复杂,也不可能穷尽所有的答案,它更不可能去创造新的答案。
所以这种模式匹配的底层理念是很难通过图灵测试,想要变成真正的智能,更是不可能实现,于是出现了一个新的流派。
这个是人工智能里边非常重要的一部分叫:机器学习。
它的基本理念就是让机器去学习,设计者不会规定一些规则和回答,而是给程序一大堆现成的例子,让程序自己去学习找规律。
基于这个理念,在2001年有个叫smarter child的机器人火了,它学习了当时比较先进的模型,让聊天变得更自然,而且在2000年,当时出现了一大批的聊天软件
smarter child接入了所有主流的聊天软件,让全世界好几亿人跟他对话,不管你问他什么,它都能跟你聊上几句,这应该算是chatgpt的前身了。
随后它快速风靡全球,每天接收的信息超过10亿条,到了2007年,它被微软收购了,虽然它已经很能聊了,但是离通过图灵测试还有很长的距离,你跟他聊两句就知道他就是个机器。
到了2010年,机器学习里边的一个领域创造出了新的天地,它就是人工神经网络artificial neural network。
我们的大脑靠超过100亿个神经元,通过网状链接来判断传递信息,虽然每个神经元都很简单,但是他们组合起来就可以判断非常复杂的信息,所以这个人工神经网络,其实就是模拟人脑的这种形式,在输入信息之后,会经过若干个隐藏神经节点的判断,然后给你输出答案。
结果发现这个模式特别适合解决一看就知道的事,比如你一看到一张脸,就能迅速知道他是谁,而之前要是让电脑判断出这个人是谁,太难了,但是用这个神经网络后,机器学习就能慢慢摸索出规律,现在它的应用已经非常广了。
不光是人脸识别像、声音识别和自动驾驶,前几年特别火的AlphaGo就是这样训练出来的,第一个击败人类职业围棋选手,也是第一个战胜围棋世界冠军的人工智能机器人。
这个神经网络在许多领域都可以大展宏图,但回到文字领域他发展就不太顺,因为机器学习一般都是用一种做循环神经网络来处理文字,问题是它没法同时进行大量的学习,并且句子也不能太长,要不然学到后面的时候,前面那些都忘了。
直到2017年,谷歌出了一篇论文,提出来了一个新的学习框架,叫做Transformer,
具体的机制比较复杂,简单来说就是一个利用注意力机制来提高模型训练速度的模型,可以说是完全基于自注意力机制的一个深度学习模型。因为它适用于并行化计算,再加上它本身模型的复杂程度,导致它在精度和性能上都要高于之前流行的RNN循环神经网络。
他可以让机器同时学习大量的文字,训练速度大大提高,现在很多自然语言处理模型,其实都是建立在他的基础架构之上。
在2015年,马斯克等几个大佬一起注资了10亿美金,成立了一家非盈利组织,也就是Chatgpt的母公司来进行AI方面的研究,因为是非盈利组织,所以他的研究成果包括专利都是对外公开的。
2018年这个组织发表了一篇论文,介绍了一个新的语言学习模型:Generatis pretrain transformer,简称GPT。
之前的语言学习模型,基本都是需要人去监督,或者人为设定一些标签,但GPT不需要了,只要把一堆数据放进去,它就可以自我学习。
在2018年6月,这个组织推出了第一代GPT,接着在2019年11月,增加了推出了GPT2。
这种机器学习,它其实主要拼两件事,一个是模型,二是参数量。模型决定了机器怎么学,参数量则是需要大量的计算,简单来说就是砸钱,模型再好也得靠砸钱去训练和验证,两者啊缺一不可。
迫于资金压力这个组织在2019年从非盈利组织转型成了一个收益封顶的盈利组织,就是说任何投资人的投资回报都不能超过100倍,超过100倍的部分投资人拿不到。
性质改变后大量的机构开始入场,其中微软就注资10亿美元,在得到了资金的支持后,GPT快速升级迭代,半年就推出了GPT3,参数更是直接上升了100倍,变成了1,750亿个。
效果也是非常好,问他什么他都能给你答出来,当时在业内已经掀起了一波轰动,不过这个纯机器训练出来的GPT3有个问题,有的时候回答的很好,有的时候就差那么点意思。
而且最大的问题在于,不管再怎么加大参数量,他的提升和改善都非常有限,这是因为他在训练的时候,没有一个非常好的反馈机制,也就是没有人告诉他怎样的回答是对的,怎样的回答是不好的。
训练下围棋,赢了就是好的,主要是训练让自己赢,但是聊天就很难判断,怎么才能知道聊的是好的还是不好,没有反馈机制,只能反复学习。
为了解决这个问题,后来就在训练的时候,加入了一个人工反馈的机制,就是聊天时,告诉你你聊的是好还是不好,专业术语就叫人工反馈的强化学习。
加入了这个人工反馈的强化学习之后,不管是训练的效率还是效果都得到了大大的提升,在2022年3月推出了GPT3.5,之后又对对话进行了优化,在2022年11月推出了Chatgpt。
你无论问它什么,它都能给你吧啦吧啦回答一通,感觉说的还很有道理,当然这里边会有一些问题,但你粗略的一看,他真的是什么都能聊,而且语言表达上也真是那么回事,反正他确确实实颠覆了大多数人对聊天机器人的认知。
在短短的两个月内,Chatgpt的月活量就突破了1亿人,扩张速度肯定是史上最快的,各种数据怎么吹都不为过。
不过说实话它本身给人们带来那个震撼,已经远远超过那些数据.
不管在什么领域,他都能聊,由于学习的内容足够多,在上千亿的参数和文字,通过复杂模型找规律之后,他自己已经形成了一个非常庞大的神经网络,你完全不需要告诉他什么叫编程,什么是视频脚本,他自己看多了他就知道编程是这么写代码,视频脚本应该是这样。
后面智能会发展到哪一步不得而知,但是它发展的速度远远超过了我们的预期,它是否会随着自我学习的提升而具有自我意识,这更是让人感觉恐怖的地方。
.......
由于最近事情的事情太多,很多都没有头绪,所以更新速度暂时放缓,从原来的每天一更调整为每周一更,大概五月份之后,会重新回复更新频率。
市场今年会被注入更多的资金这事毋庸置疑的事实,放水正在悄悄的进行:经济面临太多的难题,外需疲软,内需不振,房地产已经拉不动了,目前只能靠基建继续给经济打强行针。
市场今年也一定会有好的表现。
本文为转载文章,版权归原作者所有,不代表本站立场和观点。