前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >嘿!即将开始你的第一个AI项目?

嘿!即将开始你的第一个AI项目?

作者头像
用户1737318
发布2019-09-25 15:20:47
3940
发布2019-09-25 15:20:47
举报
文章被收录于专栏:人工智能头条
近年来,随着AI技术的发展,越来越多的设计师开始为带有AI技术的产品进行设计。本文将会简单提炼为AI做设计中需要注意的要点,以供参考。

1 将用户需求作为出发点

Always start with user needs

如果一个设计的出发点不是实际的用户需求,那么你可能会制作出一个功能强大技术复杂的软件,但这个软件只能解决一个很小,甚至根本不存在的问题。以用户为中心,这句话确实是老生常谈,但是在AI设计中尤为重要,因为很多设计者会陷入“为了AI而AI”的误区中。

那么什么样的产品适合AI化呢?什么样的产品又不适合AI化呢?谷歌设计中心罗列了以下例子可以作为参考。

适合AI化的产品

产品中会为了不同的用户提供不同的信息或内容;

预测未来可能发生的活动;

个性化的内容对用户体验关系重大;

自然语言识别;

在短时间内辨别大量实体(例如在人来人往的监控录像中辨识目标人物);

在某一领域内的顾问机器人

不适合AI化的产品

任务可预测性非常高;

提供的信息是静态的,大多情况下没有任何变化;

发生错误的成本非常大;

对操作透明度要求高的产品;

抢占投入市场的先机或要求控制成本;

一些非常重要的任务,尤其与人身安全相关的

2 了解 AI 的局限性

Know the limits

确认了产品适合AI化之后,了解AI的局限性就尤为重要。AI不是魔法,所以设计者要做的,并不是天马行空的产生一些几十年内技术都无法实现的想法,而是在现在的技术限制中,最大化的满足用户需求。

2.1 不要将不成熟的AI假装成人类

不是所有用户都知道聊天机器人是有局限的,所以将产品的局限传达给用户是必要的。很多产品在宣传阶段,将自己的AI技术过度夸张、渲染,甚至打出“像真人一样智能”的口号。这样会导致的结果就是,用户对产品的期待过高。于是当系统不够智能,无法满足期待的时候,用户就会变得尤为愤怒,对产品的失望也是加倍的。

2.2 给用户一个“退出”的方法

当系统无法正确的完成一个任务的时候,用户需要一个退出的方法。用户应有拒绝AI所做的推荐、决定或结果的权利。当AI出错的时候,强制用户与AI进行交互,或者要求用户接受AI所做的决定,会导致用户规避这个产品。这时为用户提供一个退出的方法,就显得尤为重要。

2.3 不要自作聪明

因为AI具有局限性,所以可能频繁出现的情况就是,AI无法提供给用户一个100%正确的结论。这个时候,AI要做的,就是不要自作聪明。

picdescbot可提供图片识别的服务,在它辨别下图的时候,它的读图结果是:一个站在冲浪板上的恐龙:

但是如果查看它的逻辑代码,就会发现,对于恐龙的识别,picdescbot的信度是96%,而对于冲浪板的识别,信度只有25%。但是从前端来看,picdescbot给用户的感觉是picdescbot对给出的结果非常自信。

这里可以拿微软做一个对比,依旧是这张图片,依旧被识别为一个站在冲浪板上的恐龙,但是前端是这样呈现的:

“或许是一个站在冲浪板上的恐龙?”下方同时标记信度26%。这里微软明确地告诉了用户,系统对当前识别并不是非常自信。将AI的局限巧妙的展示给用户是非常聪明的做法,它规避了可能会产生的责任,更重要的,建立用户的信任感。

3 与用户建立良好的信任关系

The most important thing is to build trust

对于一个AI系统来说,最重要的就是给用户信任感。通常,AI将结果直接提供给用户,用户会根据AI的结果做出一些决定。同时,用户也想要知道AI提供的答案是如何得出的,用户应该有权利看到结果生成背后的逻辑,在此期间,更好的建立信任关系。

3.1 透明化

用户并不喜欢“黑盒子”。用户希望能了解一个推荐是基于怎样的逻辑而产生的。例如下图中亚马逊的例子,用户的主页上被推荐了商品,同时标明了推荐理由是 “价格适宜的礼物” 、“低价珠宝” 。

3.2 以用户的反馈来改善用户的体验

正面的告诉用户,系统接受了来自用户的反馈,是一个可以快速建立信任感的方法。在AI的系统里,则是告诉用户,当前用户的反馈,会如何影响AI的下一次决定

下图中是一个来自谷歌的例子,这是一个跑步软件,软件推荐给用户一条跑步路线。用户跑完后觉得该路线无趣且毫无挑战性。收到用户的反馈后,系统提示“感谢你的反馈”。这似乎是一个非常常见的交互行为,那么,如何更好的建立用户的信任感呢?

在第二个例子中,还是这个软件,用户依旧觉得该路线无趣且毫无挑战性,而后系统的回应则是“了解!为你找到另一座1.2千米内的山路”,这时候,系统了解了用户的诉求,并且根据用户的反馈实时改善了用户下一次的体验。

在为AI设计的时候,从设计师到开发人员,人人都知道用户的交互会影响AI的判断,AI是在不断学习的。而这里的重点是要让用户也知道AI是在不断学习的,由此来建立用户对系统的信任。

3.3 为 AI 产生的结果建立优先级

在为AI系统设计的时候,一个常见的情况就是,系统会返回大量的结果,那么在展示这些结果的时候,就需要建立优先级的机制,来帮助用户更快的做出决定。这个概念非常普遍,例如淘宝的“综合排名”,新闻软件的“Trending News”, 这里不再过多阐述。

3.4 精确度并不是一切

很多模型在产生结果的时候会提供给用户非常精确的数字。这里导致的问题就是严重增多了的用户大脑处理这个信息的时间成本。例如,一个房产,预计价格58万3790美元,并不一定比58万3000美元更有价值,尤其是考虑到预估本身的误差值。

将结果以范围或程度来呈现可能会是一个更好的办法。比如下面例子中的健康状况,AI提供的是精确的数值,例如75%,但是前端可以用不同的方式来呈现,比起直接显示数字,将健康情况分为“不好,一般,好,非常好”更容易被用户所理解。

3.5 将算法的能力展示给用户

先来讲一个例子,Paul是一个公司的从材料订购人员,某一天,Paul被提醒现在有一种材料即将短缺,为了保证后续的生产工作,需要订购更多的材料。Paul计划购买420吨材料,而这时AI助手提醒,根据以往的三个历史短缺材料的进货记录来看,Paul计划购买的材料已超量,然后对购买材料量进行了推荐 ( 见下图 )。

在这个例子中,AI不仅提供了购买的建议,并且提供了建议的理由,即根据以前的购买历史进行计算。这里面有两个概念值得参考,第一,告诉了用户在建议背后的逻辑,并展示了算法的可信性,建立用户的信任感。第二,一旦用户使用了推荐的方案,就等于对算法进行了正向的反馈。如果(大量)用户拒绝了推荐的方案,则需要提示设计者进行逻辑检查。

4 巧妙地处理错误

Fail gracefully

要谨慎对待第一次系统出现的错误,用户很容易在这个时候对产品失望。同时,出现的错误也是一个机会,如果能把握好这个机会,就能让错误成为系统进行学习,逐步改进的机会。

依旧是来自谷歌的运动APP的例子,当前这个跑步软件没办法识别出用户的跑步路线,所以出现报错。左图是一个反面例子:系统机械的报了错,但是在右侧的正面例子中,提供给了用户一个功能:手动标记跑步路线。

这里表达了AI设计中错误处理的两个要点:1)当AI不能正常运作的时候,应该有一个不依赖AI也能完成任务的方法。2)当错误出现的时候,把错误变成一个系统学习的机会。

5 摒弃偏见

Root out bias

这里有两个故事,希望能提示AI设计者在设计时,摒弃设计者偏见。

2016年的一项研究发现,谷歌的语音识别具有性别偏见。研究发现,当你随机挑选一名男性和女性与谷歌助理交谈时,有70%的可能性,对男性的识别更准确。而实际上,(在英语中)平均女性说话的语速更慢,元音发音更长,所以女性的识别几率应该更高。

为什么会发生这个问题?推测是在训练语音助手的时候,使用了大量的男性的数据,忽略了对女性声音数据的采样。对女性来说,表面上的经历可能是“我无法理解你”,但实际上更像是“你无关紧要。”

另一个故事关于一个护照检测系统,检测过程中认为该亚洲人照片不合格,因为照片中的人没有“睁眼” (下图)。由此可以看出该图像识别系统在亚洲人像数据上的缺失。

为了解决这样的偏见问题,设计者能够做什么?

1)应该保证测试数据的多样性;

2)应该使用大量的测试,来尽可能减少此类错误的发生;

3)如果类似的问题无法避免,应该充分向用户解释,这是系统的局限性;

4)提供用户手动修正错误的机制。

上面我们讲述了在为AI项目设计时,需要注意的五个要点,以用户为中心出发,了解技术的局限性,建立用户的信任感,巧妙的处理错误和摒弃设计者偏见。希望能帮助到正在或将要进行AI项目的设计者和开发者们。

Reference

  1. Human-Centered Machine Learning, Jess Holbrook, 2017
  2. People + AI guidebook, Google
  3. How to Meet User Expectations for Artificial Intelligence, Kathy Baxter, 2017
  4. Design In The Era Of The Algorithm, Josh Clark , 2017
  5. Machine Learning is Very Much a UX Problem, Yael Gavish, 2017
  6. UX for AI: Building Trust as a Design Challenge, Vladimir Shapiro, 2018
  7. AI UX: 7 Principles of Designing Good AI Products, Dávid Pásztor, 2018

— 完 —

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2019-09-24,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 人工智能头条 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档