法制晚报·看法新闻(记者 张丽)3月2日上午,北京大学——东京大学法律人工智能与法律规制前沿论坛在北京大学法学院举行。
作为第三场演讲的主讲人,筑波大学讲师、金川国际法律事务所律师中山代志子的演讲主题是日本的人工智能与行政法。
她首先回顾了人工智能的发展历史,阐释人工智能的基本概念。人工智能发展的第一个高潮是1956-1970年,这一阶段以现代计算机基本运算逻辑和搜索功能的建立为标志。第二个高潮是1980-1995年,互联网的出现点燃了知识大爆炸的导火索,人类知识开始呈现出前所未有的爆发态势,互联网技术和由此带来的知识积累为人工智能的进一步发展奠定了基础。第三个高潮是2010年至今,机器学习、深度学习和大数据的兴起。
目前,人工智能的应用领域涵盖医疗、金融业和交通业等,如正在医疗行业推广的远程手术机器人、金融行业的自动交易程序和交通行业的自动驾驶系统。人工智能的异军突起在方便人类生活的同时也带来了一系列复杂的社会问题,中山代志子将其总结为三大问题:一是人工智能缺失人类特有的恐惧感、荣誉感等情感认知,导致人工智能在辅助人类工作、决策的过程中可能缺乏与人类的融合。二是人工智能的不可控性。事实上,所有技术在其诞生之初都面临着未知的前途,但不可控性在人工智能技术上体现得尤为明显,造成的不确定性也更大。第三是人工智能的不可理解性。虽然人工智能是由人类创造的,但其具备了自我演化的能力,它替代人类做出的决策也随之演进,使得人类难以理解这个决策过程。
为解决这些问题,中山代志子教授提出了人工智能领域的两条指导原则。一是建立国际合作机制以加强科技界、学界、社会和政府之间的合作、交流,探讨技术发展趋势及应对风险挑战的机制。二是建立智能网络社会,利用人工智能对社会潜在风险、灾难做出预警,以及在灾后辅助救灾人员高效工作。
日本学者、北京大学法学院博士研究生松尾刚行对中山代志子的演讲进行了点评。他表示,日本提出的《供国际讨论的人工智能开发指南草案》中提出了人工智能的九大指导原则——合作原则、透明性原则、可控制性原则、人身安全原则、AI系统安全原则、隐私原则、伦理原则、用户支持原则和问责制原则。和其他法律原则一样,这九项原则之间也存在着矛盾冲突。例如,安全原则概念范围尚不明朗,隐私原则也缺乏明确界定;透明性原则可能与安全原则和隐私原则存在冲突。他建议中国和日本共同合作制定更具体并可行的指南。
法制晚报·看法新闻原创作品拒绝任何形式删改,看法新闻保留追究法律责任的权利。责任编辑:李墨涵(EN043)
领取专属 10元无门槛券
私享最新 技术干货