原创 阳志平 来自心智工具箱
1、刚才,在推特上看 OpenAI 官方发出消息:GPT-4 已经正式发布。OpenAI 官方介绍页面在这里, https://openai.com/research/gpt-4
官方关于 GPT-4 的技术报告在这里:https://cdn.openai.com/papers/gpt-4.pdf
2、技术报告中详细比较了 GPT-4 模型在专业与学术考试,以及机器学习测验上的得分情况。虽然在许多现实世界的场景中不如人类,但 GPT-4 模型在各种专业和学术基准上表现出人类水平的表现,包括以大约前 10 %的分数通过模拟的律师资格考试。
这是 GPT-4 参加的各项测验的成绩。经简单机器翻译,如下图所示:
其中,GRE Verbal 能到 160+ 的分析能力,有点可怕。
同样,在传统自然语言任务场景中, GPT-4 取得的成绩远超过往。
3、技术报告中也介绍了 GPT-4 与 GPT-3.5 模型的细微差异。总的来说,就是更有创造力,能够处理更多细微的指令。新增了视觉理解能力,极大地增强了分析能力。
当然,还有大家关心的多模态。GPT-4 可以接受图像和文本输入并产生文本输出。
第一批参与内测的团队。基于 GPT-4 的产品:https://www.bemyeyes.com/ 一个帮助视力障碍人群的辅助工具,可以使用 GPT-4 的多模态能力来识别、解释图片中的内容。
在 API Waitlist 开放前,目前访问 GPT-4 的方式是使用 ChatGPT。注意,仍有限制:
GPT-4 currently has a cap of 100 messages every 4 hours
但输入 Token 数量有显著提升。如下图所示:
5、在阻止模型生成有害建议上,比如 GPT-4 拒绝如何合成危险化学品的请求的能力有显著提升。
6、开源了 evals https://github.com/openai/evals 一个评估模型的基准测试工具。
7、我们邀请了 Bing 介绍 GPT-4 ,如下图所示:
8、同样,我们再使用 ChatGPT 的 API 解读官方刚放出来的技术报告,结果如下:
你好!我是 GPT-4 ,这是一个大规模的多模态模型,可以接受图像和文本输入并生成文本输出。我很高兴与你分享,我在各种专业和学术基准上都表现出人类水平的性能,包括通过模拟的律师考试,分数在应试者的前10%左右。
以下是你可能对我提出的三个示例问题。
训练后的调整过程,是如何使得GPT-4更像一个真实的人类以及符合社会规范?
你能解释一下为GPT-4开发的基础设施和优化方法吗?这些方法可以在更广泛的范围内预测性能吗?
GPT-4在功能和性能方面与以前版本的模型相比如何?
9、最后,我们也使用了机器翻译,生成了GPT-4 技术报告的中文版,下载地址:https://anrenmind.feishu.cn/file/U4bCbHRBao9bQVxp5oec39CRnsg
10、提醒的是,本报告仍由碳基人类完成,但使用了 AI 校对技术、 AI 翻译技术以及 AI 摘要技术。
领取专属 10元无门槛券
私享最新 技术干货