前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
社区首页 >专栏 >腾讯会议全量上TKE的技术实践

腾讯会议全量上TKE的技术实践

原创
作者头像
Walton
修改于 2020-06-22 02:45:10
修改于 2020-06-22 02:45:10
3.2K0
举报
文章被收录于专栏:KubernetesKubernetes

腾讯会议,一款联合国都Pick的线上会议解决方案,提供完美会议品质和灵活协作空间,广泛应用在政府、医疗、教育、企业等各个行业。大家从文章8天扩容100万核,腾讯会议是如何做到的?都知道腾讯会议背后的计算资源已过百万核,如此体量的业务,如何通过云原生技术提升研发和运维效率,是一个非常有价值的课题。这里我将为大家揭秘腾讯自研上云容器平台TKEx在支持腾讯会议全量云原生化上云背后的技术。

TKEx平台是以腾讯云容器服务(Tencent Kubernetes Engine, TKE)为底座,服务于腾讯自研业务的容器平台。腾讯自研业务类型众多、规模超大,云原生上云面临的挑战可想而知。TKEx平台在腾讯自研业务上云的过程中沉淀的最佳实践和解决方案,我们将会在TKE中提供给客户。

腾讯会议业务特性

在Kubernetes中,我们习惯把应用分为无状态和有状态两类,有状态应用主要指实例标识、网络、存储的有状态。腾讯会议的一些服务有如下特性:

  • 使用IPC共享内存,里面存放的有状态数据从MB到GB大小不等。 - 升级时IPC数据不能丢失; - 升级时只能允许ms级的抖动,用户无感知;
  • 部分服务最多的实例数过万,要求高效完成一次版升级;
  • 全球多地域部署,要求部署高效;
  • 部分服务要求每个实例都分配EIP;

这对Kubernetes管理这种有状态服务提出了更高能力和性能要求。TKEx平台抽象出业务特性背后的产品需求,在灰度发布、多集群工作负载管理、计算资源管理运营、Node稳定性等方面进行了增强和优化,沉淀出了通用的音视频业务容器编排能力。

StatefulSetPlus强大的灰度发布能力

StatefulSetPlus是我们2018年研发并投入生产的首批Operator之一,核心特性包括:

  • 兼容StatefulSet所有特性,比如按序滚动更新。
  • 支持分批灰度更新和回滚,单批次内的Pods可并发更新、可串行更新。 - 支持各个批次手动待升级勾选Pods。 - 支持用户配置各个批次待升级Pods的比例进行灰度。 - 支持分批回滚和一键失败回滚。 - 发布过程可暂停。
  • 支持单个StatefulSetPlus对象管理上万个Pods。
  • 支持ConfigMap的分批灰度发布。
  • 对接了TKE IPAMD,实现了Pod固定IP。
  • 支持HPA和原地VPA。
  • 升级过程中的扩容使用LastGoodVersion。
  • 支持Node核心状态自检,Node异常时Pod能自动漂移。
  • 支持容器原地升级。
  • 支持升级失败Pods的容忍率控制,大规模升级过程中升级失败Pods占比小于x%时可继续升级。
stsp.png
stsp.png

这里主要介绍为腾讯会议上TKE新增的两个发布能力增强:大规模自动分批灰度发布和ConfigMap分批灰度发布。

支持单个StatefulSetPlus上万Pods的自动分批发布能力

TKEx平台在原来StatefulSetPlus手动分配发布能力基础上,这次又开发了自动分批发布的特性,解决像腾讯会议这种大体量业务灰度发布的痛点。用户只要在发布时配置各个批次更新副本的百分比,比如第一批40%,第二批60%。StatefulSetPlus-Operator会根据Readiness探针完成情况,自动进行下一批次的更新,其原理如下。

stsp自动分批原理图.png
stsp自动分批原理图.png

StatefulSetPlus核心Field说明如下:

  • batchDeployConfig
  • batchNum:分几批升级
  • batchAuto:是否自动分批发布,true表示自动分批发布
  • batchIntervalMinutes:两次分批发布之间的间隔分钟数
  • podsNumToUpdate:各批次发布的pod数量,如果不设置则将pod平均到每批次发布

StatefulSetPlus对发布过程进行了精细化的监控,提供staus.batchDeployStatus查询发布详细状态,这使得通过CI Pipeline发布变得更显示和可控。

  • batchDeployStatus
  • action:当前操作,Next表示进行下一批发布,WaitToConfirm表示等待确认该批次发布是否成功,Completed表示所有批次均已确认发布成功。
  • batchDeadlineTime:本批次发布的Deadline,如果超过该时间,本批次的Pod仍然未Running & Ready,那么本批次发布失败,进入自动回滚流
  • batchOrder:当前批次
  • batchOrdinal:本批次发布pod的Index的起点
  • batchReplicas:本批次发布的pod的数量
  • currentDeployComplete:本批次发布是否完成
  • currentOrderSuccessPer:成功升级的pod所占百分比
  • currentOrderProgress:本批次发布是否成功
  • currentRollbackProgress:本批次回滚是否成功
  • generalStatus:本次发布全局状态

可在annotations加上platform.tkex/pause-auto-batchDeploy: "true"来暂停自动分批发布和失败自动回滚。

在TKEx平台上,通过如下操作流程即可轻松完成自动分批发布。

stsp auto batch1.png
stsp auto batch1.png
stsp auto batch2.png
stsp auto batch2.png
stsp auto batch3.png
stsp auto batch3.png

腾讯会议最大的模块需要支持上万个Pods的灰度发布,这是前所未有的挑战。这一次,我们对StatefulSetPlus-Operator进行了优化,性能得到大幅提升。对于一万个pod的StatefulSetPlus,分5批自动升级,单批次2000个pod,不挂载cbs盘的场景,表现如下:

  1. 非原地升级方式:单批次升级处理耗时40-45秒,单批次升级从发起升级到升级完成耗时三分半钟,升级过程中单次同步StatefulSetPlus status耗时10秒左右。
  2. 原地升级方式:单批次升级处理耗时30秒左右,单批次升级从发起升级到升级完成耗时一分十秒左右,升级过程中单次同步StatefulSetPlus status耗时10秒左右。
  3. 正常情况下(非升级过程),同步StatefulSetPlus status毫秒级。

支持ConfigMap的分批灰度发布和版本管理

Kubernetes原生的ConfigMap更新是一次性全量更新到容器内的对应的配置文件,所以通过原生的方式更新配置文件是极其危险的事情。Kubernetes 1.18支持了Immutable ConfigMap/Secret,可以保护关键配置被误改导致业务受影响。业务对容器环境下配置文件的发布同样有着分批灰度发布的极高诉求。

于是我们给StatefulSetPlus赋予了分批发布配置文件的能力,提升了云原生场景下配置文件发布的安全性,原理如下:

stsp configmap灰度发布.png
stsp configmap灰度发布.png

方案概述:

  • 用户修改ConfigMap后提交,后台自动创建一个新的ConfigMap,其中ConfigMap Name后缀是data内容的hash值,防止同样的data内容创建出多个ConfigMap,然后在Lable中添加没有data hash值的真正的ConfigMap名字,另外在lable中添加version,或者允许业务自定义一些lable以便标识ConfigMap的版本。
  • Kubernetes对Pod的修改只支持更新栏位 spec.containers[*].image, spec.containers[*].resources(if inplace resources update feature enabled), spec.initContainers[*].image, spec.activeDeadlineSeconds or spec.tolerations(only additions to existing tolerations),因此需要修改kube-apiserver代码,使得允许update/patch volumes。
  • 通过StatefulSetPlus的分批灰度发布能力,逐个批次的对Pods引用的ConfigMap进行修改,由kubelet volumemanager自动reload configmap,因此ConfigMap的更新不需要重建Pods。

为防止ConfigMap累积过多,影响etcd集群的性能,我们在自研组件TKEx-GC-Controller增加ConfigMap的回收逻辑,只保留最近10个版本的ConfigMap。

用户只要在更新Workload页面,选择手动分批或者自动分批更新,在数据卷选项重新选择新版本的ConfigMap即可。可以在更新业务镜像的同时也更新ConfigMap配置文件,或者只更新ConfigMap配置文件。

ConfigMap配置文件更新,需要容器内业务进程能watch到配置文件的变更进行重启加载或者热加载。然而有些业务当前并没有这个能力,因此TKEx在ConfigMap发布的入口提供配置文件更新后的ProUpdate Hook,比如业务进程的冷/热重启命令。

如何保证有状态服务的升级只有ms级抖动

拒绝胖容器模式(把容器当虚拟机用)是TKEx平台的原则,如何使用镜像发布并且提供像进程重启一样的ms级业务抖动,这是腾讯会议容器化上云最有挑战性的需求之一。TKEx平台在灰度发布能力上已经做了长期的技术沉淀,上万个业务模块在使用,但当前能力仍无法满足这一需求,镜像预加载+容器原地升级的方案,仍与这目标差距甚远。

经过多个方案的设计、分析、测试对比,考虑通用性、云原生、发布效率多个因素,最终使用如下方案:

stsp快速升级.png
stsp快速升级.png

Pod里面有3个关键容器,它们的职责分别如下:

  • biz-sidecar: Sidercar容器职责很简单,检测Pod是否在升级中。通过Readyness Probe比较EmptyDir Volume中的业务发布版本文件version1和version2的内容是否相等,相等则Ready,否则notReady。
  • biz-container:容器启动脚本会将环境变量(预注入)里的一个版本号写到versionX文件中,然后开始循环等文件锁,如果成功获取文件锁则启动业务进程。文件锁是防止Pod内同时运行多个版本的业务Container的关键,用文件锁来做不同版本容器的互斥。
  • biz-pause:启动脚本会将环境变量里的一个版本号写到versionX文件里,然后就进入无限sleep状态。这个容器是备用容器,当业务升级时,它就会通过原地升级的方式切换到biz-container的角色。

升级流程概述

以业务容器镜像从版本V1升级到版本V2为例,升级流程描述如下:

  1. 用户第一次部署业务,如上最左边的Pod, 一共有3个容器。biz-sidecar,biz-container(配置环境变量版本号为1)以及biz-pause(配置环境变量版本号为1)。所有2个容器启动之后会分别将version1, version2文件的内容更新为1,biz-sidecar此时为Ready。
  2. 更新Pod之前的biz-pause容器为业务V2版本的镜像同时环境变量版本号为2,等该容器原地升级之后把version2文件的内容更新为2之后开始等文件锁。此时biz-sidecar探针转为notReady状态。
  3. StatefulSet-Operator Watch到biz-sidecar为notReady之后再将之前的v1版本的业务镜像替换成biz-pause镜像同时环境变量版本号为2。等pause镜像容器原地重启之后会将之前v1业务镜像占的文件锁释放,同时version1内容更新为2。此时sidecar探针为Ready, 整个升级结束。

需要说明以下两点:

  1. 原生Kubernetes apiserver只允许修改Pod的image等field,不支持修改resource以及环境变量等,所以该方案需要改K8s apiserver的相关代码。
  2. 另外为了保证Pod Level Resource以及Pod QoS不变,StatefulSetPlus-Operator在升级时需要对容器状态变更过程中进行Container Resource调整。

多地域部署和升级,变得更简单

在多地域服务管理上,我们主要解决两个诉求:

  1. 同一个服务需要部署在很多的地域,提供就近访问或者多地容灾,如何进行服务在多个集群的快速复制;
  2. 部署在多个地域的同一个服务,如何进行快速的同步升级;

TKEx提供了便捷的多地域多集群业务部署和业务同步升级能力。

  • 支持一次性部署到多个地域多个集群。
多地部署.png
多地部署.png
  • 支持部署在多个集群的Workload同步升级。
多地域统一视图.png
多地域统一视图.png
多地域升级.png
多地域升级.png

平台资源管理能力增强

TKEx平台的集群资源是所有服务共享的,各种服务混部在集群和节点中。各个产品都有自己的资源预算,平台接受各个产品的预算,然后根据自动生成对应的资源配额,以此控制各个产品在整个平台上的Quota。产品部署后,涉及到成本核算,平台会根据真实使用的资源量,以小时为时间计量粒度,跟踪统计每个业务产品下面各个Workload的资源使用情况。

DynamicQuota-Operator

Kubernetes原生用ResourceQuota来做资源限制,但是它与我们的期望相比存在如下问题:

  • ResourceQuota是基于Namespace的,无法做到产品基本的限制。
  • ResourceQuota是基于集群内的限制,无法做到平台级的,无法进行多集群联动Balance。
  • 只有限制能力,无法保障业务有足够的资源可以使用。

基于我们对于业务产品的管理需求及期望,TKEx的配额管理系统须满足如下特性:

  • 使用简单,用户无需关心底层细节,比如配额如何在各个集群间分布及调配都由系统来自动完成。
  • 分配给产品的配额,必须保障产品始终有这么多资源可以使用。
  • 满足平台在离线混合部署场景诉求,配额要有限制离线任务配额的能力。
  • 为了避免某一个产品占用配额而不使用导致平台资源浪费,要有在产品间配额借和还的能力。

我们设计了一个DynamicQuota CRD,用来管理集群中各个业务产品的Quota,实现以上能力。

DynamicQuota.png
DynamicQuota.png
  • Quota Rebalance Worker: 该Worker会定期根据产品在各集群的配额使用情况,动态的将产品配额在各集群间调配。比如有个产品的服务因为配置了弹性扩缩容,当产品在某个集群因为扩容导致配额用完但是在其他的集群还有比较多的配额,这时Worker就会将配额从空闲集群调配到该集群。
  • DynamicQuota Operator: 负责维护自定义CRD DynamicQuota的状态,同时会收集各产品在集群中的使用情况暴露给Prometheus。
  • DynamicQuota ValidatingWebhook: 截获集群中所有向kube-apiserver的pod创建请求,并阻止那些超配额的产品Pod创建请求。
  • OfflineTask QueueManager: 负责从离线作业队列(ActiveQ)中根据作业优先级进行消费,并判断各个集群的离线作业资源占比是否超过水位线,以达到控制所有离线作业资源占比的目的,防止离线作业消耗过多的集群资源。
  • pod-resource-compressor和VPA组件,根据集群和节点实际负载、资源分配情况,对离线作业进行资源压缩和原地升降配,以保护在线任务的资源使用。在离线混部时,我们还在内核层面对Cpu调度进行了优化,以达到离线任务快速避让,以保证在线任务的服务质量。

预算转移自动生成产品Quota

产品完成预算归属到TKEx平台后,平台将自动为产品增加对应的产品配额,自动修改DynamicQuota。用户可以在TKEx监控面板中查看归属产品的资源配额。

产品Quota.png
产品Quota.png

业务核算自动化和可视化

TKEx会以核*时为业务使用资源的计量粒度进行成本核算,用户可以在TKEx监控面板中查看具体的各个Kubernetes Workload的详细资源使用情况。

产品核算.png
产品核算.png

提升自愈能力

随着集群规模和节点部署密度越来越高,集群平均负载超过50%,高峰期很多节点的负载甚至80%以上,一些稳定性问题开始显现,为此TKEx针对节点稳定性做了如下优化:

  • 主动探测dockerd的可用性,异常时主动重启dockerd,防止dockerd hung住导致Node上Pods自动销毁重建,
  • 主动监控kubelet的可用性,异常时主动重启kubelet,防止kubelet hung住导致Pods大量漂移重建。
  • 因为Kubernetes在pids.max, file-max等内核参数隔离机制不完善,在kubernetes 1.14中虽然支持了对Pods内Pids numbers的限制,但实际落地时很难为业务指定默认的pids limit。集群中仍会出现因为节点Pids和file-max耗尽导致同一节点上其他业务容器受影响的问题。对此,我们在Node-Problem-Detector(简称NPD)组件中增加了节点pids,file-max的监控,达到相关资源使用水位线时,会自动检测消耗pids和file-max最多的Container并上报,主动触发告警并对Container进行原地重启。

以上几项能力都在NPD组件中实现,负责监控节点的工作状态,包括内核死锁、OOM频率、系统线程数压力、系统文件描述符压力等指标,做节点驱逐、节点打Taint等动作,并通过Node Condition或者Event的形式上报给Apiserver。

当前NPD组件会在节点中增加如下特定的Conditions:

Condition Type

默认值

描述

ReadonlyFilesystem

False

文件系统是否只读

FDPressure

False

查看主机的文件描述符数量是否达到最大值的80%

PIDPressure

False

查看主机是否已经消耗了90%以上的pids

FrequentKubeletRestart

False

Kubelet是否在20Min内重启超过5次

CorruptDockerOverlay2

False

DockerImage 是否存在问题

KubeletProblem

False

Kubelet service是否Running

KernelDeadlock

False

内核是否存在死锁

FrequentDockerRestart

False

Docker是否在20Min内重启超过5次

FrequentContainerdRestart

False

Containerd是否在20Min内重启超过5次

DockerdProblem

False

Docker service是否Running(若节点运行时为Containerd,则一直为False)

ContainerdProblem

False

Containerd service是否Running(若节点运行时为Docker,则一直为False

| ThreadPressure

| False | 系统目前线程数是否达到最大值的90%|

| NetworkUnavailable | False | NTP service是否Running|

有些事件是不适合在NDP DaemonSet做分布式检测的,我们就放在TKEx Node Controller中去做中心式检测,由其生成Event并发送到Apiserver。比如:

  • 快速检测Node网络问题,而不依赖于5min延时的NodeLost Condition,这个问题NDP检测到也无法把事件发送到Apiserver。
  • Node Cpu持续高负载导致业务服务质量下降,会有TKEx Node Controller做检测,并将cpu负载Top N的Pods通过Event发送到Apiserver,由TKEx-descheduler来决定驱逐哪些Pods。做驱逐决策时,需要考虑Pods所属Workload是否是单副本的,Pods是否能容忍Pods漂移重建等。

TKEx-descheduler则负责ListWatch NPD和TKEx Node Controller发送的Events,做出对应的行为决策,比如对Pod内某个问题Container进行原地重启、问题Pod的驱逐等。

节点自愈.png
节点自愈.png

容器网络增强和调度能优化

容器网络支持EIP

TKEx之前提供的VPC+ENI的Underlay网络方案,使得容器网络和CVM网络、IDC网络在同一网络平面,并且支持容器固定IP,极大地方便自研业务上云。这次TEKx平台的容器网络能力再升级,支持在使用HostNetworkVPC+ENI容器网络方案上,再为Pod分配EIP(弹性公网IP)的能力。

调度优化

当后端集群资源池耗尽,会有大量的待调度的pending pods,此时使用任何类型的Workload进行镜像更新时都会出现资源抢占导致升级失败的情况。

为了解决这个问题,提升业务升级的稳定性,我们优化了Kubernetes Scheduler Cache的逻辑,给StatefulSet/StatefulSetPlus升级时提供了资源预抢占的调度能力,很好的保证了在不新增资源的情况下StatefulSet/StatefulSetPlus能正常升级成功,不会被调度队列中的Pendnig Pod抢占资源。

后面团队会单独输出一篇技术文章对此进行详细分析,感兴趣的同学请关注腾讯云原生公众号。

总结

本文总结了腾讯会议在TKE容器化部署时用到的平台相关特性,包括业务镜像自动分批灰度发布、ConfigMap分批灰度发布、Pod内A/B容器ms级切换发布、多集群发布管理、基于DynamicQuota的产品配额管理、探测节点和集群稳定性问题以提升自愈能力等。腾讯自研业务在TKE上沉淀的优秀组件和方案,后面会在公网TKE产品中提供给公网客户,也在计划开源,敬请期待。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
暂无评论
推荐阅读
​LeetCode刷题实战469:凸多边形
算法的重要性,我就不多说了吧,想去大厂,就必须要经过基础知识和业务逻辑面试+算法面试。所以,为了提高大家的算法能力,后续每天带大家做一道算法题,题目就从LeetCode上面选 !
程序员小猿
2021/12/17
4560
​LeetCode刷题实战469:凸多边形
计算几何笔记
若向量$(x, y)$旋转角度为$a$,则旋转后的向量为$(xcosa - ysina, y cosa + xsina)$
attack
2018/08/01
1.3K0
计算几何笔记
已知三点求平面法向量
空间已知三点的位置p1(x1,y1,z1),p2(x2,y2,z2),p3(x3,y3,z3),令它们逆时针在空间摆放。这样就可以得到平面的两个向量p1p2(x2-x1,y2-y1,z2-z1),p1p3(x3-x1,y3-y1,z3-z1),而平面法线总是和这两个向量垂直。也就是说,p1p2与p1p3的向量积就是平面的法向量n。
charlee44
2019/08/13
3.5K0
【改革春风吹满地 HDU - 2036 】【计算几何-----利用叉积计算多边形的面积】
我们都知道计算三角形的面积时可以用两个邻边对应向量积(叉积)的绝对值的一半表示,那么同样,对于多边形,我们可以以多边形上的一个点为源点,作过该点并且过多边形其他点中的某一个的多条射线,这样就可以把该多边形变为多个三角形,然后利用叉积求面积即可。 不过要注意,对于三角形可以简单的用叉积的绝对值的一半表示,但对于多边形不可随意将它分割成的几个三角形对应的叉积的绝对值相加,要有一定顺序才可。 对于三角形,有
_DIY
2019/09/11
6610
【改革春风吹满地 HDU - 2036 】【计算几何-----利用叉积计算多边形的面积】
atan和atan2反正切计算
返回值 若不出现错误,则返回 arg 在[−π/2;+π/2][−π/2;+π/2] [- π/2 ; +π/2] 弧度范围中的弧(反)正切( arctan(arg)arctan(arg)arctan(arg) )。值域有限,一四象限,斜率不存在不能求。 2. 使用反三角函数atan2求斜率,原型如下
Enterprise_
2019/03/01
1.6K0
【OpenGL】十三、OpenGL 绘制三角形 ( 绘制单个三角形 | 三角形绘制顺序 | 绘制多个三角形 )
三角形绘制即绘制一个面 , 三个点可以唯一确定一个面 , 四个点及多个点组成的多边形 , 不一定是一个面 ;
韩曙亮
2023/03/28
2.8K0
【OpenGL】十三、OpenGL 绘制三角形  ( 绘制单个三角形 | 三角形绘制顺序 | 绘制多个三角形 )
网页|HTML5 也可以画一画(canvas)
在日常生活中总喜欢涂涂画画写写,这样可以使表达更加直观,记录的也更加详细,而在HTML5中同样可以画一画。canvas意为画布,现实生活中用它来作画,在HTML5中的canvas与之类似,可以称它为“网页中的画布”,有了这个画布便可以轻松的在网页中绘制图形、文字、图片等。
算法与编程之美
2020/04/15
2.5K0
平面中判断点在三角形内算法(同向法)
平面中判断点在三角形内外有很多中算法,文献1中提到了一种同向法,我认为是比较好的解法,兼顾了效率和可理解性。不过这个算法有两个要注意的地方。
charlee44
2021/06/10
1.3K0
【CSS3】CSS3 2D 转换 - rotate 旋转 ② ( 使用 rotate 旋转绘制三角形 )
一、使用 rotate 旋转绘制三角形 ---- 使用 rotate 旋转绘制三角形 的原理 : 先绘制正方形 , 为该正方形设置边框 , 只设置 右侧 和 下方的 边框 , div { width: 40px; height: 40px; border-right: 2px solid black; border-bottom: 2px solid black; } 如果要一
韩曙亮
2023/04/24
4830
【CSS3】CSS3 2D 转换 - rotate 旋转 ② ( 使用 rotate 旋转绘制三角形 )
【CSS3】CSS3 2D 转换 - rotate 旋转 ③ ( 使用 transfrom-origin 设置旋转中心点 | 使用 方位词 / 百分比值 / 像素值 设置旋转中心点 )
为 div 盒子模型 设置 transform: rotate 样式 , 可以使 盒子模型 围绕 中心点 进行 旋转 , 代码如下 :
韩曙亮
2023/10/11
1.1K0
【CSS3】CSS3 2D 转换 - rotate 旋转 ③ ( 使用 transfrom-origin 设置旋转中心点 | 使用 方位词 / 百分比值 / 像素值 设置旋转中心点 )
【OpenGL】十四、OpenGL 绘制三角形 ( 绘制 GL_TRIANGLE_STRIP 三角形 | GL_TRIANGLE_STRIP 三角形绘制分析 )
该模式绘制首先在 glBegin 方法中设置 GL_TRIANGLE_STRIP 参数 , 然后在 glBegin 和 glEnd 之间设置多个点进行三角形绘制 ;
韩曙亮
2023/03/28
1.5K0
【OpenGL】十四、OpenGL 绘制三角形  ( 绘制 GL_TRIANGLE_STRIP 三角形 | GL_TRIANGLE_STRIP 三角形绘制分析 )
随手画个圆,你是怎么画的?我们分析了10万个圆,得到了这样的结论
大数据文摘作品 编译:Niki、吕征达、笪洁琼、Harry 在读本文之前,可以先自己试着从纸上画个圆圈。再回想一下,你是从上面开始画的还是下面呢?顺时针还是逆时针? 在这些问题里,可能隐藏着你来自哪里的线索。 今年十一月,谷歌发布了一款叫“Quick,Draw!”的线上游戏,玩家需要在20秒内画出要求的图案,比如骆驼或洗衣机之类的。(游戏界面传送门:https://quickdraw.withgoogle.com/) 这个游戏的目的远不止让你开心,真正的初衷是运用这些草图让计算机学习人如何绘画。(意味深长啊
大数据文摘
2018/05/24
1.2K0
多边形的点序
凸多边形:Convex polygon,non-self-intersecting polygon, simple polygon说的都是它(定义详见 wiki)。常见的凸多边形有:矩形、三角形等。
用户4363240
2020/01/01
1.7K0
多边形的点序
hover 背后的数学和图形学
前端开发中,hover是最常见的鼠标操作行为之一,用起来也很方便,CSS直接提供:hover伪类,js可以通过mouseover+mouseout事件模拟,甚至一些第三方库/框架直接提供了 hover API ,比如 jQuery 的 hover() 函数。大部分前端开发者在使用这些很方便的方法时,可能并没有思考过 hover 背后的实现原理。
寒月十八
2021/11/19
1.4K0
变换(Transform)(1)-向量、矩阵、坐标系与基本变换
如果要将右侧坐标系变为左侧那种,我们只需要做一些旋转操作,将右侧坐标系顺时针旋转180度,再将整个坐标系水平翻转即可。我们可以通过一定的旋转操作将两个坐标系重合,那么我们就称它们具有相同的旋向性(handedness)。
Zero Two
2024/07/21
4860
(hdu step 7.1.5)Maple trees(凸包的最小半径寻找掩护轮)
求凸包的最小覆盖圆的半径。事实上就是在求完凸包以后再求一下最小覆盖圆即可了。
全栈程序员站长
2022/01/11
3690
(hdu step 7.1.5)Maple trees(凸包的最小半径寻找掩护轮)
【怕啥弄啥系列】Canvas - 基础图形绘制
HTML5 <canvas> 元素用于图形的绘制,通过脚本 (通常是JavaScript)来完成.
神仙朱
2019/08/02
1.1K0
第4章-变换-4.1-基础变换
本节介绍最基本的变换,例如平移、旋转、缩放、剪切、变换级联、刚体变换、法线(normal)变换(不太normal)和逆计算。对于有经验的读者,它可以作为简单变换的参考手册,对于新手,它可以作为对该主题的介绍。这些材料是本章其余部分和本书其他章节的必要背景。我们从最简单的变换开始——平移。
charlee44
2021/12/21
4.1K0
第4章-变换-4.1-基础变换
使用 mesh 实现多边形裁剪图片!Cocos Creator!
mesh 是什么? mesh 是决定一个物体形状的东西。例如在二维中可以是正方形、圆形、三角形等;在三维中可以是正方体、球体、圆柱体等。
张晓衡
2020/02/20
2.2K0
Flash/Flex学习笔记(55):背面剔除与 3D 灯光
Animation in ActionScript3.0 这本书总算快学完了,今天继续:上一回Flash/Flex学习笔记(50):3D线条与填充 里,我们知道任何一个3D多面体上的某一个面,都可以分解为多个三角形的组合。比立方体为例,每个面都由二个三角形组成,但在那一篇的示例中明显有一个问题:不管立方体的某一个面是不是应该被人眼看见(比如转到背面的部分,应该是看不见的),这一面都被绘制出来了。 在这一篇的学习中,我将带大家一起学习如何将背面(即看不见的面)删除掉,即所谓的“背面剔除”。 先做一些预备知识的
菩提树下的杨过
2018/01/22
1.3K0
Flash/Flex学习笔记(55):背面剔除与 3D 灯光
推荐阅读
相关推荐
​LeetCode刷题实战469:凸多边形
更多 >
LV.1
腾讯高级UI工程师
目录
  • 腾讯会议业务特性
  • StatefulSetPlus强大的灰度发布能力
    • 支持单个StatefulSetPlus上万Pods的自动分批发布能力
    • 支持ConfigMap的分批灰度发布和版本管理
  • 如何保证有状态服务的升级只有ms级抖动
  • 多地域部署和升级,变得更简单
  • 平台资源管理能力增强
    • DynamicQuota-Operator
    • 预算转移自动生成产品Quota
    • 业务核算自动化和可视化
  • 提升自愈能力
  • 容器网络增强和调度能优化
    • 容器网络支持EIP
    • 调度优化
  • 总结
加入讨论
的问答专区 >
    领券
    问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档