首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

实验室日常第一弹——关于“运用机器学习方法发现自杀想法病人”的探讨

实验室日常”栏目内容来源于实验室成员们在本实验室关注的领域所进行的思考以及相互之间的沟通内容。旨在通过相互探讨,使同学们了解基于游戏、大数据以及智能可穿戴设备和心理测评相结合的前沿资讯,各抒己见并展开进一步的深入思考。

链接--《美国科学家利用机器学习,用30个单词发现有自杀想法的病人》

https://mbd.baidu.com/newspage/data/landingsuper?context=%7B%22nid%22%3A%22news_16863651010663413102%22%7D&n_type=0&p_from=1

链接--《自然-人类行为》:利用机器学习发现具有自杀想法的病人

神经科学与计算机科学结合起来,还有我们心理测量啥事,我(还是)去给那些(被)鉴别出自杀倾向的朋友做咨询吧。

突然感到了人工智能的可怕之处,想回古代种田。

机器人代替人去做很多事,感觉很好啊。

所以人更应该思考哪些是人应该做的事情。

求问,哪些是人应该做的事情?

心理咨询。

再发展几十年,机器没准也可以做咨询了。

我觉得不是没准,是肯定。但是面对一个机器人和面对一个人的感觉还是不一样吧。

机器咨询应该很难。

再过几十年,机器已经套上了跟人一样的皮,参见《西部世界》。

链接--《首个获得公民身份的机器人,思维敏捷且能对答如流》https://m.weibo.cn/status/4167497697340492?sourceType=weixin&from=107A295010&wm=9006_2001&featurecode=newtitle

这样说来《银翼杀手》里都可以制作生物仿生人了,甚至还能植入记忆。我们不能以科幻为依据。

科幻往往是科学的先导,我认为机器只能把确定的事情做好,如果谈到“人应该做的事情”,那可能就是让那些科幻中的东西,尽快变成科学。至于机器人与人的智能的区别,请参考这一期公众号。

并且心理咨询如果能梳理一个确定的思路(或许真的有可能),那么机器咨询是完全可以实现的。

想起了一个老师说:“在未来,凡是能明确给出操作定义的工作都将被人工智能代替。”

那如何确定定义就变得很重要了!

可是,如果有的人喜欢做的事,恰好是机器人擅长做的,他该怎么办?

我觉得机器咨询师是可以实现的,因为咨询本来就有一定的固定套路。

“确定的事”可以说是规则。套路也就是这个意思。

那如果是这样,很多事情都是有规则或者套路的。

不,咨询很重要一点是“关系的建立”。

建立关系可能是建立与陌生人的关系,如果对象是没有生命的机器,是不是就不存在建立关系的需求?可能也就不再需要这一步。

是不是机器的保密性还更强一些?或许一个机器还更能获得来访者的信任。

对,我也是想说,来访者对机器可能更容易毫无保留。

至少我觉的还有人的情感因素在咨询里面,爱情和艺术都是没有套路的吧。

感觉爱情和艺术在一定程度上都是有套路的。它们和咨询很像,不能下一个特别明确的操作定义,但是却有很多套路。

情感是很少有套路的。艺术如果说是“设计”或者“风格”,那也有。指纹识别、虹膜识别是一种“信任”。

我觉得这种全都是套路的想法很可怕。

如果作为旁观者觉得可怕,不如转做缔造者。

哈哈哈哈,探索新事物没有套路呀,比如创新。

探索新事物没有套路吗?

只是人类不知道罢了,看看AlphaGoZero。

或者说人类暂时还没总结出来而已。

讲真,我觉得这个很悖论,人类教给计算机规则(如何下围棋),然后计算机给人超出规则的结果(谢维奇的套路不用人教的那些)。

错,计算机并没有超出人类给他的围棋规则。

他并没有超出规则,只是我们所能理解的棋路有限,他超出的是我们所能理解的棋路。

可能人类的α(学习率)不适合梯度下降只能到局部最低,机器学习可以大量运算调整α办到?

这不是学习率的问题,学习率只是控制了下降的速度。我认为主要还是人类受限于自己的短时记忆,分散性注意等认知能力,所以当人类对事物的最优解进行搜索时,广度和深度都远远不如机器。

说白了计算机就有点像桑代克笼子里的猫,只不过效率高的多,策略也高明得多。人类的厉害之处在于真正的模糊决策。

嗷,那这样说这情况太常见了啊,之前计算机就有深度优先搜索和宽度优先搜索,可以很快找出最优解。模糊计算现在也有。

请注意什么是“真正的”,就是规则本身含糊,变化中的那种。

如何定义“真正的”,是复杂问题解决(CPS)吗?

不错!应该说是CPS的本意,而不是目前已经有的测评工具。

我想,规则含混变化,会不会因为人类理解不了,在计算机那边就容易?

人不指路,计算机走不动的。

人类真正的决策过程还涉及到集体无意识以及更深的层面吧,整个世界都是一个巨大的复杂网络,甚至超越因果共时性。

可能就是那个原因人类找不到最优解,可以尝试让计算做MicroFIN和推箱子。

那你恰好掉入了人工智能的坑,那个是它最擅长的。

我想找一个边界,确定人类能做,未来机器人不能做。例如机器人不能写小说、不能做梦、没有想象力?

小说的组成可以拆分时间地点人物,然后再变成文本分析的学习?但是可能可读性不高?不过感觉诗歌啊之类的,有隐含情感的东西,可能比较难以被机器人学习。

机器写小说真的不难。

机器可以模仿呀。

我觉得以后计算机应该可以写小说,现在有小说润色软件,写一两个字他就可以从小说数据库里抓取相关的句子,很多人抄袭就是这样抄的。

不是有专门写小说的工具吗,好像可以直接生成。

虽然真正的情感比较难,但是模仿到人类察觉不出来并不难吧。最早的图灵机器不就是达到人类觉察不出来就行了吗?

感觉这并不是好事。

我说的是生成一个虚假的故事,自编故事线,需要构建一个规则世界的那种。

难吗?创造一种语言,架空一个世界都没问题吧?

可是这样的小说可能难以被称为优秀的作品。

表示怀疑,也许否认机器小说可能是人类最后的挽尊吧。

机器人除了学习规则还能创造规则?

只要你写好了生成新规则的规则。

你说的是元认知吧?

没错,你又说到点上了,因为这也是Deepmind未来要做的功课。

有点吓人,真的要教会元认知吗,一点保护机制都不设?

阿西莫夫三定律表示不服https://www.guokr.com/article/438325/

我突然想到一点,如果人类教给机器人“死亡恐惧”的话,人类就危险了。

您有兴趣可以看一下《银翼杀手》,仿生人不就在追求生存吗?

看过,所以这时候人类就有危险了,否则应该还不至于整体灭亡。

基质沙文主义,碳基vs硅基。哪里有压迫哪里就有反抗。

哎,素不素现在的小说家,科幻家和编剧都忽视了我们没有教死亡恐惧,死亡恐惧是从哪些规则习得的啊?

你看,压迫与反抗都起源于情绪系统,恐惧,同样也是情绪系统。

恩恩。

恐惧的应对方式也需要学习。

所以我们可以教机器人识别情绪,利用情绪,但不要教它们产生真正的自我情绪。

加速进化,真的是加速灭亡吗?

既然咱们组关注学习动机,其实大家可以想一想,为什么我们要学习(一种行为),或者更可以泛行为,我们为什么要去做一件事,背后的驱动力是什么?你可以想到需求层次理论,可以有基本心理需求满足,甚至可以是我今晚教育心理学课上要讲的“食物、性、安全”等初级强化物。那么,只要计算机缺乏这一类动力,他就不会“主动的”、“有意的”脱离人类指示的方向,而去干其他对他而言费力不讨好的事情。

计算机真的会有心理需求吗?

感觉现在的驱力更像是人类施加的,也不太相信它们能够有这样的内部产生的驱力。

是的,我认为这是一个关键的问题。

本文由心理测验与评估公众号原创

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20171219G08QTU00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券