2015年看过的这篇知乎长文:https://zhuanlan.zhihu.com/p/19950456 ,8年后仍然记忆犹新,文章提出人工智能到达1个点(奇点)后,会加速发展,直到人类不能理解。
这个时候人类的命运可能有2个,灭绝或者永生,二者都是吸引态。
文章提到,2013年的时候,Bostrom做了个问卷调查,涵盖了数百位人工智能专家,问卷的内容是“你预测人类级别的强人工智能什么时候会实现”,并且让回答者给出一个乐观估计(强人工智能有10%的可能在这一年达成),正常估计(有50%的可能达成),和悲观估计(有90%可能达成)。当把大家的回答统计后,得出了下面的结果:
乐观估计中位年(强人工智能有10%的可能在这一年达成):2022年 正常估计中位年(强人工智能有50%的可能在这一年达成):2040年 悲观估计中位年(强人工智能有90%的可能在这一年达成):2075年
2022年11月,ChatGPT发布。
2023年2月14日,我体验了GPT3.5,发了朋友圈,其实这个时候我测试发现GPT很多时候会胡编乱造,我觉得GPT可能也只是这样吧。
直到3月23号体验到了GPT4,我震惊了,我的朋友圈原文:
未来已来,奇点临近。 如果说几个月前体验GPT3只是新奇有趣,感觉还是像个玩具,只是帮我写了一首藏头诗,那么GPT4这几天体验下来给我的感觉是震惊+兴奋+担忧。无论是数据库专业知识,写代码,写小说,解奥数题目,国际问题分析,主题推荐,生活问题咨询,都回答的有条有理,逻辑严密,答案正确。应该强于80%的人的回答。 震惊是因为没有想到4相对于3这么短的时候有质的飞跃。兴奋是因为这个可以极大的解决脑力劳动的生产力,未来善于使用AI的人的生产力可以有1到2个数量级的提升。担忧的是这个技术没有开源,4是6个月前已经训练出来,据说米国的高校、程序员都已经开始大规模使用了,我们和米国的差距会不会越来越大?
然后我最近一周都在疯狂的学习、研究和测试,晚上睡觉的时候还在思考强人工智能会带我们到哪里去?
既然不管你愿不愿意,人工智能的大时代已经到来,那我们只能尽快上手,学习好使用GPT的各种姿势。
好吧,正文开始。
2022年11月30日,OpenAI公布了一个通过由GPT-3.5系列大型语音模型微调而成的全新对话式AI模型ChatGPT,它不仅能进行自然的多轮对话、高效的精准问答,还能生成编程代码、电子邮件、论文、小说等各类文本。这是一切风暴的起点。
让我们梳理下GPT从2015年到现在的发展时间线:
ChatGPT代表的是四个词,Chat Generative Pre-trained Transformer。
1)Chat就是用来聊天的机器人
2)Generative代表的就是模型训练主要是用来生成下一个文字或者Token从而可以形成一个序列的tokens,即“造句”;
3)Pre-trained代表模型是经过预训练的,也就是基于大量历史数据和文本,从而可以“学习”这些历史知识;
4)Transformer就是最核心的技术了
所谓预训练模型(Pre Training),就是虽然我们没有看过你想要解决的问题,比如我们在情感分析里看到的用户评论和评分。但是我可以拿很多我能找到的文本,比如网页文章、维基百科里的文章,各种书籍的电子版等等,作为理解文本内容的一个学习资料。我们不需要对这些数据进行人工标注,只根据这些文本前后的内容,来习得文本之间内在的关联。比如,网上的资料里,会有很多“小猫很可爱”、“小狗很可爱”这样的文本。小猫和小狗后面都会跟着“很可爱”,那么我们就会知道小猫和小狗应该是相似的词,都是宠物。同时,一般我们对于它们的情感也是正面的。这些隐含的内在信息,在我们做情感分析的时候,就带来了少量用户评论和评分数据里缺少的“常识”,这些“常识”也有助于我们更好地预测。比如,文本里有“白日依山尽”,那么模型就知道后面应该跟“黄河入海流”。文本前面是“今天天气真”,后面跟着的大概率是“不错”,小概率是“糟糕”。这些文本关系,最后以一堆参数的形式体现出来。对于你输入的文本,它可以根据这些参数计算出一个向量,然后根据这个向量,来推算这个文本后面的内容。
所以GPT也可以理解为Generative Pre Training of a language model(语言模型)。语言模型可以理解为“给定一些字或者词,预测下一个字或者词的模型”,这里的字或者词在NLP领域通常也被称为token,即给定已有token,预测下一个token的模型。我们在搜索引擎里进行搜索时,自动会往后联想就是种语言模型的体现。可以这样来理解:用来训练的语料文本越丰富,模型中可以放的参数越多,那模型能够学到的关系也就越多。类似的情况在文本里出现得越多,那么将来模型猜得也就越准。
GPT的主要贡献在于,它提出了自然语言的一种新的训练范式。即现通过海量的数据的无监督学习来训练一个语言模型。正如之前提到过的,所谓语言模型即是在一个上下文中预测下一个词,这个显然是不需要带有标注的数据的,现有的任何语料都可以作为训练数据的。由于GPT的底层借用了表达能力很强的Transformer,互联网经过长时间的发展,海量的无标记的自然语言数据也并不再是稀缺的事物。导致了训练出来的模型其实对语言有了相当深入地理解。
ChatGPT的目标是根据用户输入生成回复。在上下文学习的情况下,从输入输出的形式上来看,生成回答本身与语言模型是完全兼容的,都是根据一定的上下文生成一段文字。但是,生成回复和语言模型的内在目标却是不一致的,语言模型致力于在一定上下文下预测可能性最大的下一个词汇,而生成回复则是致力于生成一个人类认为比较满意的回答。为了解决这个不一致性。ChatGPT在还使用了一种叫做reinforcement learning from human feedback (RLHF))的技术。
GPT 的训练过程分为两个阶段:无监督Pre-training 和 有监督Fine-tuning。在Pre-training阶段使用单向 Transformer 学习一个语言模型,对句子进行无监督的 Embedding。在fine-tuning阶段,根据具体任务对 Transformer 的参数进行微调,目的是在于学习一种通用的 Representation 方法,针对不同种类的任务只需略作修改便能适应。
至于transformer注意力机制是什么?我直接问GPT,让他用小学生可以理解的语言给出了回答:
用一个简单的故事来解释transformer注意力机制。 想象一下,我们有一个叫小明的小学生,他在读一本故事书。这本书有很多章节,每个章节都有很多句子。小明想要理解书中的每个句子,但是他的注意力有限,不能同时关注到每个单词。这时候,transformer注意力机制就像是一个帮助小明更好地理解故事的魔法工具。 注意力机制的作用就是帮助小明找出每个句子里最重要的单词,让他能够集中注意力去理解这些关键词。这样,他就能更好地把握住故事的主线,理解故事的内容。 这个魔法工具有一个特殊的能力,那就是可以为每个单词分配一个“权重”。权重越大,说明这个单词对于理解句子越重要。当小明读到一个句子时,这个魔法工具会自动计算出每个单词的权重,然后告诉小明哪些单词最重要。 这样,小明就能把有限的注意力集中在关键词上,更快地理解故事。而这个魔法工具,就是我们所说的transformer注意力机制。 判断哪个词更重要的过程是通过计算每个词与其他词之间的关联性来实现的。我们可以把这个过程想象成一个简单的游戏。 假设我们有一个句子:“小明喜欢吃苹果。”为了找出这个句子中最重要的词,我们可以这样做:1. 首先,我们会把每个词变成一张卡片,这些卡片包含了词的信息。例如,“小明”、“喜欢”、“吃”和“苹果”。2. 接下来,我们要计算每张卡片与其他卡片之间的关系。这个过程就像是给卡片打分,分数越高,说明两张卡片之间的关系越密切。 例如,我们会发现“喜欢”和“吃”之间的关系比较密切,因为它们都表示一个动作;而“小明”和“喜欢”之间的关系也很密切,因为“小明”是喜欢吃苹果的那个人。3. 当我们为每张卡片与其他卡片打完分后,我们可以计算每张卡片的总分。总分越高,说明这个词在句子里越重要。 在我们的例子中,“喜欢”和“吃”可能会得到较高的分数,因为它们与其他词的关系都很密切。而“苹果”可能会得到较低的分数,因为它与其他词的关系相对较弱。4. 最后,我们会根据每个词的总分,为每个词分配一个权重。权重越大,说明这个词对理解句子越重要。 这个过程就是transformer注意力机制的简化版,它可以帮助我们找出句子中最重要的词,从而更好地理解句子的含义。当然,实际的计算过程会更复杂一些,但核心思想是相同的。 以上文字来自chatGPT。
GPT版本历史如上图所示。注意GPT3以前都是无监督训练。GPT3只支持文本,GPT4(Generative Pre-trained Transformer 4)是一个大规模的多模态模型,可以接受图像和文本输入,产生文本输出,输出任务依旧是一个自回归的单词预测任务。这与外界之前的预期略微不同,预期中GPT-4多模态会增加语音、图像、视频、文本多模态输入,输出可能也不局限于文字。
ChatGPT拥有1750亿个参数(相当于神经连接),目前和人脑神经元数量正好在处于同一量级(比人脑神经连接数量小3个数量级)。
虽然GPT-4的训练语料库还停留在2021年9月之前,但对科学、医学、法律等特定领域进行了知识面的扩充,不仅能在美国统一律师资格考试中取得前列成绩,在奥赛、GRE等考试均取得了很高的分数,甚至SAT成绩(可以理解为美国高考成绩)——已经超过了90%的考生,跨过哈佛、斯坦福等名校的门槛。
ChatGPT最近又通过了中国数据库系统工程师考试。这次考试使用了2021年的真实试卷,上午的笔试题全部为选择题,总分75分(45分通过)。ChatGPT3.5考了49分(勉强通过), ChatGPT4拿到67分(高分通过)。
2023年3月17日,OpenAI 官网发布最新研究论文 GPTs are GPTs: An early look at the labor market impact potential of large language models(https://openai.com/research/gpts-are-gpts),在运用GPT能力评估不同的职业后,该论文提出:
1)GPT技术预计将在不同程度上影响“大多数”职业,其中,在美国大约19%的工作岗位中,有50%的任务会在某种程度上被AI自动化。而对于大约80%的美国劳动力来说,至少有10%的工作任务会受到GPT的影响。
2) 高学历的人似乎更容易被AI所取代。此外,更高门槛的工作、更高收入的工作往往也更容易被AI所取代。不过文章同时也指出,那些需要科学和批判思维能力的工作暴露率较低。
3) 美国大约 15% 的人工任务可以在相同质量水平下更快地完成,当合并构建在 LLM 之上的软件和工具时,这一份额增加到所有任务的 47% 到 56%。这一发现意味着 LLM 支持的软件将对扩展基础模型的经济影响产生重大影响。、
4)像 GPT 这样的 LLM 表现出通用技术的特征,表明它们可能具有相当大的经济、社会和政策影响。
5) 列出了34类“完全不被暴露”的职业类型,在这34类工作中,无一例外是体力劳动,譬如厨师、水管工、机械师和木匠、石匠泥瓦匠等。
通用技术指的是满足三个核心标准的技术,即在时间上持续改进、在经济中普遍存在、并能产生相关创新。GPT满足了这3个条件:
首先GPT-3.5到GPT-4的性能发生了跃迁,两个版本在诸如GRE、AP、SAT等人类考试中成绩上的跃升,显然,GPT-4更胜一筹。也就是说,随着时间的推移,GPT在持续改进,这也就满足了第一个核心标准。
其次,像GPT-4这样的通用大语言模型(LLM)可能将“无处不在”,即便是现在停止LLM(大型语言模型)新能力的研发,LLM也会自己不断进化,其对社会的经济影响也会持续增加,满足了第二项标准。
至于第三项“能产生相关创新”的标准,研究团队借鉴了另一篇论文(Acemoglu and Restrepo, 2018; Autor et al., 2022a)的研究,并得出结论称:“与其他通用技术一样,这些算法(GPTs)的大部分潜力将出现在广泛具有经济价值的创新性用例中。”
先在OpenAI官网进行注册,但因对 中国大陆、港澳台、俄罗斯
的IP进行了访问限制,大家在登录注册的时候往往会见到如下的页面拦截。
可以使用chrome插件ChatGPT Block Bypass来解决这个问题。
这个需要有国际信用卡,没有的话可以在淘宝上找代付,或者直接买一个账号,价格在160左右。
综合来看:
所以我们日常可以先用Default(GPT-3.5),如果答案不满意,再换用GPT4。
界面非常简洁,下方输入框提问,上方显示GPT回答,如果对答案不满意,可以点击“Regerate response”按纽重新生成答案。左侧长条列出最近的提问。
在计算机编程或人工智能语境中,"prompt"(提示)通常是一个请求或指令,用于引导用户或程序提供特定信息或执行特定操作。在AI领域,特别是对话AI系统(如ChatGPT)中,prompt通常是指用户输入的文本,引导AI模型生成相应的回答。例如,当您向ChatGPT提问时,您输入的问题就是一个prompt,AI模型会根据该问题生成相应的回答。 设计一个好的prompt对于引导(例如Chat)生成更准确和有用的回答非常重要。以下是一些建议,可以帮助您设计更好的prompt: 1. 明确目标:确保您的问题或指令明确,有助于AI更准确地理解您的需求。 2. 提供足够的背景信息:在prompt中提供一些上下文信息,以帮助AI了解您的问题背景,从而生成更相关的答案。 3. 保持简洁:尽量保持问题简洁明了,以避免引起歧义或误导。 4. 使用完整句子:使用完整句子和清晰的语法结构可以提高AI理解问题的准确性。 5. 请求具体信息:如果您需要特定类型的答案,可以在prompt中明确指出。例如,如果您需要一个简短的答案,可以在问题中加入“简短地回答”。 6. 多次尝试:如果第一次尝试未能获得满意的答案,请尝试用不同的方式重新表述问题。有时候,通过调整问题的表达方式,可以获得更好的回答。 7. 分步提问:对于复杂问题,可以将其分解为几个简单问题逐一提问,这样可以帮助AI更准确地回答每个子问题。 8. 限制答案形式:如果需要特定格式的回答,可以在prompt中加入相应的限制。例如,要求AI以列表形式回答问题。 通过遵循以上建议,您可以设计出更好的prompt,从而获得更有价值的回答。请注意,不同的问题可能需要不同的策略,因此需要灵活运用这些建议。 以上文字来自 chatGPT。
下面是我摸索的一些玩法,相对于GPT自身具备的能力来说,可谓沧海一栗,但可见一斑。
评论:之前的AI,在回答某些特定专业的问题,感觉像是“人工智能”,但确在一些儿童都知道的简单常识性问题上犯错误,感觉更像是“人工智障”,GPT4跨过了这一道坎。
评论:小学奥数题目信手拈来,不过第一次回答的有点问题,点击“Regenrate response”按纽后生成了完美的答案。
评论:这是2022年高考数学题,GPT4前2次回答不准确,第2次“Regenrate response”后给出了正确答案。
评论:这是2022年研究生入学考试数学题,遗憾的是做了几遍仍然是错误的,正确答案是5/8。
评论:以上问题摘自丁奇在极客时间上的《MySQL 实战 45 讲》课后习题,回答选择正确,逻辑清晰!
评论:GPT拯救了老父亲,这个语法是娃的英语作业,然而我也记不清规则了,只好求助于GPT。
评论:支持20种语言的翻译,包括一些小语种!
评论:如果回答超过1000字,会暂停生成,可以发送“继续”,让GPT继续生成。可惜触发了GPT4的3小时25条的限制,需要等待或者使用GPT3.5。
评论:的确好基友,不过后代是怎么产生的?
评论:完全理解了藏头诗的含义,不需要再说明!
评论:没有试过,不知道好不好吃?
评论:非常完美的指导了jshell的安装,并且非常有礼貌。
评论:老师非常耐心,而且决不直接给答案,以后有很多知识学习可以让直接让GPT做老师了。
评论:只看回复,能看出是AI生成的吗?
更多角色类prompt,请参考:https://github.com/f/awesome-ch
评论:GPT-4能够执行Python代码。它必须跟踪几个变量(包括一个嵌套循环和一个字典)并处理递归。它通过编写中间步骤和注释来详细解释执行过程。需要注意的是,GPT-4并不是在Python解释器上运行代码,而是用自然语言模拟代码。这需要对代码有高度的理解和推理能力,以及清楚地传达结果的能力。
写出能生成随机绘画图像的JavaScript代码,而且看起来像康定斯基的画作
效果:
原图(世界名画):
写一个质数有无穷多个的证明:以郭德纲相声的风格,通过两方的对话来完成证明。
评论:如果有朋友向你求助上面2个问题,你的回答是否能比GPT更好?
评论:安装后,在google搜索后,会在右侧显示chatGPT的回答(需要已经登陆),非常方便。
下载地址:https://chrome.google.com/webstore/detail/voice-control-for-chatgpt/eollffkcakegifhacjnlnegohfdlidhn
评论:安装后,可以直接用语音问问题,回答也可以转为语音,并且支持多国语言。这相当于1个7*24小时外教陪练了。
代码导入以下网站:https://markmap.js.org/
生成了漂亮的思维导图:
评论:目前未开放图像接口,不能输入、输出图片,但可以曲线救国,生成markdown格式代码,在第三方网站、工具上生成脑图。
midjourney可谓图片生成领域的GPT,特别是在V5版本发布后。生成图片效果可以以假乱真。
中国情侣:
具体将GPT4和midjourney结合的操作参考视频:https://www.douyin.com/search/gpt%20midjourney?source=search_sug&aid=ded74b7d-5a2e-4ab4-a4f7-35138bb76cd9&enter_from=keywords_expansion&focus_method=8.3 与chatpdf结合
https://www.chatpdf.com/这个网站可以上传PDF文件,然后针对上传的PDF文件,可以和AI进行对话,获取PDF里面的信息。本周五我去参加了小学家长会,我将老师1个小时的分享录音后,通过飞书妙记转为TXT文件,然后存为PDF文件,上传后就可以对话了。可以把里面的重点内容非常快速的总结出来,分享给其他人。
最后,越研究越感觉GPT是一个宝库,还有很多东西需要挖掘,而GPT本身也在不断迭代发展,大家有兴趣持续关注,和我一起走这条强人工智能学习实践之路的话,可以关注下公众号“强人工智能之路”,目前支持免费GPT3.5对话:
9.2 知识星球
如果想和感兴趣的同学一起学习交流,推荐下面这个知识星球,内容很丰富,我是第1967个加入的,现在星球人数已经增长到了13000+。进去看下如果觉得不满意,72小时可以退款。
未来已来,奇点临近。其实关于GPT的知识、信息每天都在更新,我也在不断学习之中,本文会根据GPT的发展,结合自身的学习,不断更新,希望这一次能走到时代的前列。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。