首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

【人工智能】浅谈人工智能未来发展方向,每个人的应对选择

人工智能AI对话的火爆,很大程度归功于Transformer模型理论的应用发展,openai的chatGPT3.5的成功出圈, 到后来openai的GPT4, GPT4o,  以及国内外各种大模型框架的雨后春笋的崛起。 像现在文生图、文生视频的火爆, 也离不开DiT(Diffusion transformer)理论的应用。

人工智能这2年发展非常快, 比拼的是 海量算力、 海量数据、资金财力。 虽然这些通用大语言模型展现出强大能力,但在实际应用中仍存在或多或少的问题,例如在准确性、知识更新速度和答案透明度方面,仍存在挑战。

从大模型厂家角度来说,举例openai,从GPT3.5传统的transformer架构升级到GPT4的MOE模型(Mixed Expert Models,混合专家模型), 我的猜测后续GPT4.5或GPT5至少有比较大的颠覆性创新才会出来,像现在的GPT4o顶多算上小小的优化。MOE模型具体可以看我这篇文章【AI+大模型】从媲美GPT4能力的国产DeepSeek-V2浅聊MOE模型。

从大模型应用开发者角度来说,我们针对已有大模型,不管openai的GPT4还是国内通义千问2.5,   从自身性价比的角度选择合适的大模型, 然后做对应的优化方案。  比如我们现在看到所有通用大模型平台都有各种各样的智能体,其实是基于Prompt Engineering(提示词工程)来让普通人直接应用,得到更满意的结果。比如我们做垂直领域的知识库,那么RAG(Retrieval-Augmented Generation,检索增强生成)就不得不提,搜索准确的知识库比互联网繁杂不知对错的信息 更靠谱。现在各个大模型搜索基本用上了RAG,不知道是好是坏,因为如果大模型抓取互联网的信息源本身是错误的,那么得出的结果就是错误的。互联网信息真真假假,对于使用者来说,要擦亮自己的双眼。  还比如还有一些特定任务, 我们可能用Fine-tuning(微调)达到自己想要的效果。

从普通应用者的角度来说, 我们应用人工智能其实有2个方向。1、基于已有的智能体平台(个人认为目前这块做的最好的应该算coze),利用平台的plugin(插件)、 work flow(工作流) 定义出自己想要的应用。  前几天看治愈图文比较火爆,其实已经有人用coze 工作流批量制作 这类图文,发布各种自媒体平台赚取流量。  2、直接利用好各个应用平台已提供的工具,进行创作,赚取自己认知内的money。 这方面我之前总结工作比较多,可以看之前的文章,后文附上。

对于现在还未步入社会的学生来说,提前学习人工智能、学好数学,计算机理论并实践很重要。前几天17岁中专生姜萍alibaba达摩院数学竞赛预赛全球十二,火爆了全网。为啥这么火爆,我的个人理解, 我们中国太需要优秀的数学家,完善理论,推动社会文明的进度。  我们可以看到,像人工智能这几年的创新,其实都是美国数学家率先提出论文理论,各大厂商提前应用,火爆后我们才逐步跟上的么。我们目前主要是 追随者的角色,而要成为创造者和引流者,我们需要更多卓越的数学家诞生。

  • 发表于:
  • 原文链接https://page.om.qq.com/page/O628t_TEHPB9ELvzAwx51RZw0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券