我创建了一个NodeBalancer来通过HTTP在Tomcat服务器上路由我的请求。我看到NodeBalancer做得很好,但现在我必须安装Nginx服务器到服务器静态联系,以及反向代理,以将我的http流量重定向到HTTPS。
我有一个下面的场景--
User-----via http---->NodeBalncer(http:80) ---->Nginx--->Redirect to HTTPS---->NodeBalancer(https:443)------> Tomcat on HTTP:8080
以下是示例流程
1) User send a requ
是否可以使用单个aws负载均衡器对多个服务进行负载均衡?如果这不可能,我想我可以使用nodejs代理从httpd pod转发到tomcat pod,希望它不会延迟…… 对于多端口服务,推荐使用哪种负载均衡器?负载均衡不支持多端口,单个/路径不支持多端口。所以我猜NLB是正确的实现? 我正在努力削减成本,转而使用k8s,但我需要知道我是否选择了正确的服务。Tomcat和Httpd都是单个prod网站的一部分,但不能进行基于路径的路由。 Httpd pod service apiVersion: v1
kind: Service
metadata:
name: httpd-service
我有一个3层的ECS容器应用程序。在表示层,我有一个公共子网,其中有一个运行在nginx服务器上的angular应用程序。为此,我有面向互联网的负载均衡器应用程序。在私有子网中,我有Java Spring REST API服务,该服务在tomcat服务器的端口8080上运行,因此有应用程序内部负载均衡器。在另一个私有子网中,我有RDS数据库。 应用客户端向内部负载均衡url发送请求,并在应用中呈现响应。 虽然我能够ssh到公共子网中的ec2和curl到私有子网中的rest服务并获得response:curl -X POST http://internal-qa-XXXXX-XXXXXXX.e
我们有一个使用PHP代码的50台前端服务器的应用程序,使总共15-25k HTTP可以通过nginx通过nginx使用guzzle库超时100 an。不时地(随机地,一天中有几次),我们看到在PHP前端服务器日志中,有500-10k的RPS失败,出现了curl超时错误。日志中的所有异常如下所示:
cURL error 28: Operation timed out after 100 milliseconds with 143 out of 143 bytes received。
最有趣的部分是,它总是接收到100% out of 100%字节,从来没有100 of 102或0 of 70。因
为什么默认负载均衡端口80和443被认为是TCP端口?我想通过yaml文件或通过亚马逊网络服务控制台测试粘性,如中所示。
我正在使用nginx入口,并转移到默认负载均衡器来测试粘性,但我看到了错误Stickiness options not available for TCP protocols
我甚至尝试指定协议https,但它不接受。它只允许"SCTP", "TCP", "UDP"。
apiVersion: v1
kind: Service
metadata:
name: httpd