首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

【AI 时代的教育-07】提升元认知的工具

因为组织 2050 的论坛,我前天认识了一个研究婴儿学习与认知科学的小姐姐,很开心地和她聊起人类大脑和大语言模型的相似,翻出好些有趣的陈年旧文章。

比如满篇错字人类能看得懂,LLM 也能读懂。

在 GPT4 识图功能刚出来时我甚至还翻出认知心理学教材,对照着视觉实验一个个做着玩儿,好多都能和人脑的特点对应上。我玩得乐此不疲,觉得一年前就在公众号开了个“AI 认知心理学”的专题真是很高明。

研究认知科学的小姐姐也觉得有意思,补充说她在牛津大学 babylab 访问学习的时候,实验室教授就希望通过研究婴儿的学习来为机器学习提供框架。

---

还是前天,晚上我看到微信群里大雨聊伪代码 prompt,有一些故意为难 LLM 的误用,就顺手点评了几句。在我看来最适合在 prompt 里使用伪代码的,是那些用自然语言表述特啰嗦还有歧义的场景,换成伪代码简洁精确效果就会好很多。

那具体何时该在 prompt 里用伪代码呢?我建议大雨用人类的感受去做判断。如果一件事复杂到你在对人表述的时候会想要定义特定名词、画流程图,那你的 prompt 里用上伪代码就会很有帮助。

---

同一天里,两次,我把大语言模型和人脑做了类比。突然就想起 Seymour Papert 在 Mindstorms 一书里的观点:孩子们通过思考计算机程序是如何运行的(计算机是如何“思考”的),能反过来帮助理解自己该如何去思考。

1980 年代的计算机,还只能机械地执行程序。孩子们通过它,能反观自身的逻辑思维。

如今的大语言模型可就复杂多了:它有机器幻觉,它会“忘记/想不起”一些事儿,用不同的 prompt 能让它给出刻板或灵活的回复……总之,它简直就像个小孩,有自己的脾性。

那探索 LLM 的特点,或许能帮助我们理解自己思维的特点。这,就是提升元认知的机会了吧。

其实把自己的大脑看成一个大语言模型,也挺有意思的。

说话时是凭感觉直接往外吐字,还是添加了思维链一步一步想好再回答? 

对方的话语是否模糊?大脑是否因此开始胡乱做假设?

有没有因为被对方的话语带到一个特别的情境里,而给出针锋相对的回答?(对方的话语就好比 prompt 里的例子) 

此时此刻大脑的注意力在哪里?是否变化输入形式/格式,能帮助自己更好地思考?

……

最简单却又最有启发的,莫过于关于数据的类比:  你选择看什么书或视频?喂给大脑的数据质量,决定了大脑输出的质量。

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OZpXUWT4Vv4kz0l2DL52YhkA0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券