Dave Erickson 01 December 2023
最近,我与IDC政府洞察研究副总裁Adelaide O’Brien坐下来讨论了全球公共部门中生成式人工智能的当前和未来状态。整个对话可以点播观看,但我也想强调讨论中的一些要点。我们的目标是讨论我们现在看到的用例,公共组织面临的障碍,以及关于组织如何利用生成式人工智能为员工、选民和更大的数字化转型带来价值的最佳实践。
IDC的研究显示,59%的政府机构处于组织中使用生成式人工智能的初级阶段(相比之下,有16%的机构“大量投资”)。展望未来,IDC分享了有关公共部门领导者如何看待他们近期生成式人工智能路线图的更多洞见:
更进一步,IDC根据他们的研究以及与政府客户的咨询对话,概述了公共部门组织未来几年可能采用和整合生成式人工智能的进展。
IDC根据组织的成熟度水平,将政府用例分为三个阶段,或三个阶层。与一些专注于生成式人工智能整合收入潜力的私营部门同行不同,迄今为止,公共部门组织正以更为谨慎的爬行-步行-跑步方法前进。
第一阶段: 根据IDC的说法,第一阶段是在未来一年左右的时间里发生的渐进式创新,组织主要在内部测试生成式人工智能。最初,用例集中在提高员工生产力和满意度上,例如围绕内部合同管理、采购和通过沙盒环境创建代码的试点项目。换句话说,就是通过结合机构自有数据的生成式人工智能应用程序,将复杂、重复的数据中心任务简化。一旦这些试点项目启动,组织计划扩展到影响外部利益相关者的用例,例如通过将其与个性化、相关数据相连,改善选民的帮助台或呼叫中心体验。
第二阶段: 一旦组织对第一阶段发生的生成式人工智能文化转变感到相当舒适,用例可以扩展到更具颠覆性的创新。IDC预计这一阶段将在未来几年内普遍存在。这里的用例将“前台与后台”连接起来,并利用智能自动化。示例包括关键基础设施保护、跨机构数据共享调查和福利欺诈保护。
第三阶段: IDC框架中的第三个也是最后一个阶段的用例将继续扩大范围,并包括新的商业模式和跨复杂生态系统的整合。在这里,组织正在全面规划系统性主题,如数字立法、国家情报优势和智能互联校园。
尽管生成式人工智能的阶段充满希望,但领导者们也面临着数据隐私、员工满意度以及伦理和合规方面的担忧。根据IDC的数据,43%的全球政府领导者担心生成式人工智能会危及他们对数据和知识产权的控制,41%的人担心生成式人工智能的使用会使他们面临品牌和监管风险。
对于公共部门来说,任何生成式人工智能实施的安全和信任至关重要 - 对私营部门合作伙伴的信任、对政策和伦理准则的信任,以及对私人数据保持私密的信任。正如Adelaide O’Brien所指出的,“政府只有通过以信任为中心,才能在规模上提供生成式人工智能的价值。” 对于公共部门组织来说,这意味着需要为负责任的人工智能战略性地思考政策和指导原则,包括:
以上所有考虑中,至关重要的是“人在回路”方法,它确保生成式人工智能的输出由人类进行错误信息的交叉检查,特别是考虑到生成式人工智能幻觉的潜在可能性。
IDC指出,全球36%的政府领导者对生成式人工智能使用的准确性或潜在毒性(偏见、输出中的幻觉)感到担忧。为了确保生成式人工智能的输出尽可能准确和及时,IDC和Elastic®都推荐使用检索增强生成(RAG)。RAG是一种自然语言处理技术,使组织能够使用自己的专有数据与生成式人工智能结合,以提高内容输出的质量。通过利用您自己的特定领域数据,RAG通过为生成式人工智能搜索查询提供相关的内部背景来确保LLM的基础,从而提高准确性并减少幻觉。
立即访问与IDC的完整对话。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。