首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

Neuralink患者通过意念与大脑芯片玩国际象棋

Neuralink患者通过意念与大脑芯片玩国际象棋

Neuralink刚刚通过直播展示了他们的第一位患者使用大脑芯片植入物通过纯粹的意念控制来玩在线国际象棋和其他游戏,这是技术的重要里程碑。

Noland Arbaugh因肩膀以下瘫痪,展示了通过他的大脑植入物和意念来移动光标和下棋的能力。

Arbaugh在一月份接受了植入物手术,并表示没有认知障碍,手术非常容易。

他使用植入物连续玩了8个小时的在线国际象棋和视频游戏文明6。

Elon Musk还透露,Neuralink的下一个产品将是“Blindsight”,旨在恢复天生失明的人的视力。

Neuralink的患者演示是大脑-计算机界面从科幻小说迅速发展为医学现实的最新证据。虽然我们很容易陷入反乌托邦的叙事中,但这个视频让我们看到这项技术可能产生的非常真实的影响。

Sakana演进出新的AI模型

总部位于东京的初创公司Sakana AI刚刚发布了三个新的日语AI模型,通过“交配”现有的开源模型来产生优化的“后代”。

这三个模型的发布包括:

EvoLLM-JP:具有强大的日语流利度和数学能力的语言模型

EvoSDXL-JP:用于高速图像生成的扩散模型

EvoVLM-JP:用于日语文本和图像的视觉语言模型

Sakana使用了“模型合并”技术结合进化算法来创建新模型。

这个过程涉及到繁殖数百代模型,最成功的模型成为下一代的“父母”。

Sakana将其中两个模型开源,其中7B参数的LLM-JP在基准测试中表现优于70B参数模型。

Sakana的出色表现可能意味着AI模型的一条新的替代训练路径。如果可扩展,它还可以显著民主化AI开发,通过混合和匹配不断扩大的开源AI,快速演进高质量的任务特定模型。

斯坦福让AI拥有内心独白

斯坦福研究人员刚刚开发了Quiet-STaR,一种新的训练方法,使得AI模型能够在回答之前生成内心独白或“思考”。

Quiet-STaR训练AI在回答提示之前生成并行的“思考”或原理。

该模型然后输出带有和不带有这些原理的预测混合,通过丢弃无用的思考来学习。

当应用于Mistral 7B语言模型时,Quiet-STaR在数学和常识推理基准测试中的得分几乎翻了一番。

就像人类一样,似乎在开口前先思考是对AI模型也适用的好教训。像Quiet-STaR这样的研究表明,给予AI在回应之前思考、考虑替代方案并从错误中学习的能力是通向更加适应性系统的强大路径。

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OD-U3Mc3RanDaZOlYRL9br1A0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券