首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    宣传类UI设计思路【HTM5界面】

    9.26~9.28 目的:想为社团做一个自己的宣传网站来迎新,同时积累UI设计经验 http://comesherry.xyz 感受或实际遇到的问题 (1)UIPC移动端兼容问题,(bootstrap 和layui提供的模块化帮助我搭建了自适应布局,不希望移动端出现的就不让它出现) (2)素材加载问题,图片视频导致网站加载缓慢(目前图片采用懒加载lay-src,视频预加载处理,并做了剪短处理) (3)图片大小一致性问题,大小不同杂乱,而且影响移动端响应式的展示。(word 的图片统一大小很好用)但直接修改图片尺寸图片质量会降低, 推荐方案:ps处理兼顾品质和尺寸,并且对不同端提供相同内容不同品质的图片;或者ps 文件>导出>web格式(选择jpeg),品质和大小还是很可观的 (4)视频模糊,还想用,(加上浅灰色背景)视觉上有变强的感觉 (5)视频背景头一次用,还有待完善 (6)更加熟悉layui,但还不能跳出bootstrap他的范例,将功能实现在自己的框架上,而非他定义的容器中 (7)layui弹出层是最大的惊喜,boostrap封闭的结构不太令人舒服,layui的样式更加自由丰富 (8)1M带宽服务器不推荐图片展示,目前已经换成1~5M轻量级服务器了,打开速度快点不止5倍

    03

    每日论文速递 | Meta提出Branch-Train-Mix 混合专家大模型训练方法

    摘要:我们研究了训练大语言模型(LLM)的高效方法,使其具备多个专业领域的能力,如coding、数学推理和世界知识。我们的方法被命名为 "分支-训练-混合Branch-Train-MiX (BTX)(BTX)",它以种子模型为起点,以并行方式对专家进行分支训练,同时提高吞吐量并降低通信成本。在对单个专家进行异步训练后,BTX 将其前馈参数汇集为专家混合(MoE)层中的专家,并对剩余参数求平均值,然后通过 MoE-finetuning 阶段学习token级路由。BTX 概括了两种特殊情况,一种是分支-训练-合并方法(该方法没有学习路由的 MoE 微调阶段),另一种是稀疏上循环方法(该方法省略了异步训练专家的阶段)。与其他方法相比,BTX 实现了最佳的精度-效率权衡。

    01
    领券