首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
社区首页 >问答首页 >Chrome中的Ajax同步请求失败

Chrome中的Ajax同步请求失败
EN

Stack Overflow用户
提问于 2019-04-14 06:22:32
回答 2查看 9.9K关注 0票数 18

Chrome的最新版本是否停止了同步Ajax调用?我们在执行同步Ajax调用时得到了错误。在我们更新到最新的Chrome版本- 73.0.3683.103之后,这个问题就出现了。同步调用目前在Firefox和IE上运行良好。我们的错误越来越少

消息:“未能在‘XMLHttpRequest’上执行'send‘:未能加载’Path.‘:页面删除中的同步XHR。”名称:"NetworkError“

请有人提出一个解决方案,使Ajax同步调用工作。我有一些功能,我确实需要依赖同步调用。

EN

回答 2

Stack Overflow用户

发布于 2019-04-15 00:43:09

谢谢你俩-克劳德和查利特福。用比肯解决了这个问题。

如果有人在寻找解决方案,可以按照这个- http://qnimate.com/sending-data-to-server-on-page-unload/

票数 1
EN

Stack Overflow用户

发布于 2020-01-15 13:01:06

在某些情况下,信标可以正常工作,但我发现它非常局限于您可以做的和自定义的操作(不能设置标头破坏了我的用例)。另一个选项是使用fetch和设置为true的keepalive标志。根据链接:

持活选项表示请求可能“超过”发起请求的网页。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
window.onunload = function() {
  fetch('/analytics', {
    method: 'POST',
    body: "statistics",
    keepalive: true
  });
};

它是异步的,但发送信标也是如此。我只是对Google感到恼火,因为它强迫了这个更改,破坏了很多用例,我们希望在加载之前确保某些东西已经完成……

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/55676319

复制
相关文章
jupyter中运行pyspark
Python for Spark显然比Scala慢。然而,易于学习,并且受益于我最喜爱的库。在我看来,Python是大数据/机器学习领域中原型设计的完美语言。
Tim在路上
2020/08/04
2.4K0
spark编程python实例
本文介绍如何使用 PySpark 来读取和分析 CSV 数据。首先,我们介绍在 PySpark 中创建 SparkContext 的步骤,然后使用 SparkContext 来读取和分析 CSV 数据。我们使用 map 函数对数据进行处理,并使用 count 函数获取数据中的总购买次数。最后,我们打印出总购买次数。
王小雷
2018/01/02
1.7K0
spark编程python实例
Pyspark学习笔记(三)--- SparkContext 与 SparkSession
__SparkContext__是spark功能的主要入口。 其代表与spark集群的连接,能够用来在集群上创建RDD、累加器、广播变量。 每个JVM里只能存在一个处于激活状态的SparkContext,在创建新的SparkContext之前必须调用stop()来关闭之前的SparkContext.
TeeyoHuang
2021/05/10
3.7K0
Pyspark学习笔记(三)--- SparkContext 与 SparkSession
pyspark on hpc
本地内部集群资源有限,简单的数据处理跑了3天。HPC上有很多计算资源,出于先吃锅里的再吃碗里的思想,琢磨先充分利用共有资源。简单调研下,也不是很复杂的事情。
flavorfan
2021/12/10
1.7K0
pyspark on hpc
第2天:核心概念之SparkContext
SparkContext是所有Spark功能的入口。无论我们希望运行什么样的Spark应用,都需要初始化SparkContext来驱动程序执行,从而将任务分配至Spark的工作节点中执行。
会呼吸的Coder
2021/03/16
1.1K0
第2天:核心概念之SparkContext
大数据入门与实战-PySpark的使用教程
Apache Spark是用Scala编程语言编写的。为了用Spark支持Python,Apache Spark社区发布了一个工具PySpark。使用PySpark,您也可以使用Python编程语言处理RDD。正是由于一个名为Py4j的库,他们才能实现这一目标。 这里不介绍PySpark的环境设置,主要介绍一些实例,以便快速上手。
致Great
2019/03/19
4.1K0
大数据入门与实战-PySpark的使用教程
Eat pyspark 1st day | 快速搭建你的Spark开发环境
下载地址:https://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html
超哥的杂货铺
2021/04/08
2.4K0
Eat pyspark 1st day | 快速搭建你的Spark开发环境
金色传说,开源教程!属于算法的大数据工具-pyspark
spark是目前大数据领域的核心技术栈,许多从事数据相关工作的小伙伴都想驯服它,变成"驯龙高手",以便能够驾驭成百上千台机器组成的集群之龙来驰骋于大数据之海。
Sam Gor
2021/01/18
1.2K0
金色传说,开源教程!属于算法的大数据工具-pyspark
Python大数据之PySpark(三)使用Python语言开发Spark程序代码
需求:[(‘Spark’, 2), (‘Flink’, 1), (‘hello’, 3), (‘you’, 1), (‘me’, 1), (‘she’, 1)]
Maynor
2023/09/29
5620
Python大数据之PySpark(三)使用Python语言开发Spark程序代码
Spark Streaming 2.2.0 初始化StreamingContext
为了初始化 Spark Streaming 程序,必须创建一个 StreamingContext 对象,它是 Spark Streaming 所有流操作的主要入口。StreamingContext 对象可以用 SparkConf 对象创建。
smartsi
2019/08/07
1.4K0
Python大数据之PySpark(五)RDD详解
rdd2=sc.textFile(“hdfs://node1:9820/pydata”)
Maynor
2023/10/04
6920
Python大数据之PySpark(五)RDD详解
Spark-Core核心RDD基础
spark中的RDD是一个核心概念,RDD是一种弹性分布式数据集,spark计算操作都是基于RDD进行的,本文介绍RDD的基本操作。
软件架构师Michael
2022/05/05
2880
PySpark——开启大数据分析师之路
近日由于工作需要,突击学了一下PySpark的简单应用。现分享其安装搭建过程和简单功能介绍。
luanhz
2020/09/08
2.1K0
PySpark——开启大数据分析师之路
Spark笔记15-Spark数据源及操作
数据输入源 Spark Streaming中的数据来源主要是 系统文件源 套接字流 RDD对列流 高级数据源Kafka 文件流 交互式环境下执行 # 创建文件存放的目录 cd /usr/loca/spark/mycode mkdir streaming cd streaming mkdir logfile cd logfile # 对这个子目录进行数据监控 from pyspark import SparkContext from pyspark.streaming import StreamingCo
皮大大
2021/03/02
8000
PySpark工作原理
Spark是一个开源的通用分布式计算框架,支持海量离线数据处理、实时计算、机器学习、图计算,结合大数据场景,在各个领域都有广泛的应用。Spark支持多种开发语言,包括Python、Java、Scala、R,上手容易。其中,Python因为入门简单、开发效率高(人生苦短,我用Python),广受大数据工程师喜欢,本文主要探讨Pyspark的工作原理。
Fayson
2020/02/18
2.3K0
PySpark工作原理
流数据_数据回流是什么意思
https://www.liaoxuefeng.com/wiki/897692888725344/923030465280480
全栈程序员站长
2022/09/20
1.2K0
流数据_数据回流是什么意思
【Python】PySpark 数据输入 ① ( RDD 简介 | RDD 中的数据存储与计算 | Python 容器数据转 RDD 对象 | 文件文件转 RDD 对象 )
RDD 英文全称为 " Resilient Distributed Datasets " , 对应中文名称 是 " 弹性分布式数据集 " ;
韩曙亮
2023/10/11
5010
【Python】PySpark 数据输入 ① ( RDD 简介 | RDD 中的数据存储与计算 | Python 容器数据转 RDD 对象 | 文件文件转 RDD 对象 )
pyspark streaming简介 和 消费 kafka示例
/spark/examples/src/main/python/streaming
编程黑洞
2023/03/06
1.1K0
pyspark streaming简介 和 消费 kafka示例
Windows 安装配置 PySpark 开发环境(详细步骤+原理分析)
这个比较简单,安装原生的 Python 或者 Anaconda 都可以,至于步骤这里就不多说了。
bboy枫亭
2020/09/22
15.8K0
Windows 安装配置 PySpark 开发环境(详细步骤+原理分析)
pyspark 原理、源码解析与优劣势分析(1) ---- 架构与java接口
Spark 框架主要是由 Scala 语言实现,同时也包含少量 Java 代码。Spark 面向用户的编程接口,也是 Scala。然而,在数据科学领域,Python 一直占据比较重要的地位,仍然有大量的数据工程师在使用各类 Python 数据处理和科学计算的库,例如 numpy、Pandas、scikit-learn 等。同时,Python 语言的入门门槛也显著低于 Scala。为此,Spark 推出了 PySpark,在 Spark 框架上提供一套 Python 的接口,方便广大数据科学家使用。本文主要从源码实现层面解析 PySpark 的实现原理,包括以下几个方面:
流川疯
2021/12/06
1.2K0
pyspark 原理、源码解析与优劣势分析(1) ---- 架构与java接口

相似问题

WHERE IN ($array) AND $array =?

20

Laravel: where语句与关系

245

与where子句的雄辩关系

12

Laravel与附加where语句的关系

12

基于与Laravel关系的where应用

13
添加站长 进交流群

领取专属 10元无门槛券

AI混元助手 在线答疑

扫码加入开发者社群
关注 腾讯云开发者公众号

洞察 腾讯核心技术

剖析业界实践案例

扫码关注腾讯云开发者公众号
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
查看详情【社区公告】 技术创作特训营有奖征文