腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
3
回答
iphone
数据处理
.
存储
和
检索
iphone
、
objective-c
、
xml
、
core-data
、
plist
这里,如何在应用程序中
存储
这个巨大的数据,以及实现它的最佳方法是什么。 如果我将所有数据转换为XML,意味着如何用XML构造问题
和
答案。?如果SQLlite或核心数据意味着如何构造DB。?
浏览 6
提问于2011-05-03
得票数 1
回答已采纳
6
回答
如何搭建Hadoop处理环境?
apache
、
mapreduce
、
分布式
、
hadoop
、
数据处理
Apache Hadoop 是用于开发在分布式计算环境中执行
数据处理
应用程序的框架。旨在从单个服务器提供
存储
和
计算资源的方式扩展到数千台机器。Apache Hadoop的核心部分由
存储
部分(Hadoop分布式文件系统)及其
数据处理
部分(MapReduce)组成。Hadoop将文件分割成大块,并将它们分发到群集中的节点上。
浏览 1935
提问于2018-10-24
1
回答
数据摄入之前、期间或之后的数据清理?
python
、
postgresql
、
architecture
由于该项目需要可扩展,它需要一个相当坚实的
数据处理
和
分析管道。 到目前为止,我计划使用Singer ()来摄取来自多个源的数据,其中有一个PostgreSQL目标。这条管道目前看起来有点像这样:数据源--> ingest ->
存储
在postgreSQL DB ->
数据处理
层-->分析环境中。我已经编写了Pandas代码来清理
数据处理
层中的数据--但我不确定当数据从数据库中提取到分析环境中时,清理数据是否是最佳实践。特别是当每次数据被提取时,
数据处理
将被重复。我应该
浏览 3
提问于2022-05-13
得票数 1
回答已采纳
1
回答
JAVA -针对遗留系统的数据交互现代化
jdo
、
jpa-2.0
我非常想升级一个遗留系统,目前使用的是JSP
和
一个已经有近10年历史的自制web框架。web系统(数据输入
和
报告)与执行大部分
数据处理
的传统PowerBuilder (非web)系统共享一个数据库。大部分- 90%或更多-
数据处理
业务逻辑存在于
存储
过程中,并且要求web系统仅使用
存储
过程。web系统使用的大多数过程都相当简单,只需返回帐户、列表,并将数据输入到十几个so表中。从大量的web阅读中,我相信JPA2实现不是一个好的选择,因为
存储
进程的使用需求。我还发现了一些
浏览 3
提问于2011-02-04
得票数 0
1
回答
处理程序是异步的还是同步的?
php
、
symfony
、
elasticsearch
、
handler
、
monolog
我正在使用Monolog登录Symfony。但我是用Monolog登录elasticsearch的。为此,我使用了Monolog的处理程序。 $this->logger->setHandlers([ $this->elasticaClient, 'index' => 'my_index
浏览 1
提问于2018-01-31
得票数 0
1
回答
Hadoop simple Java程序-与MongoDB交互
hadoop
我选择Hadoop进行
数据处理
,并在我的一个包含大量数据的项目中使用MongoDB进行
存储
。但是,当我尝试寻找一个简单的Java示例时,它将连接到MongoDB并执行简单的
数据处理
,例如,表中
存储
的记录数量属于某个简单条件(name like '%John%')。 有人有什么建议吗?
浏览 1
提问于2013-05-24
得票数 0
回答已采纳
1
回答
C++多次将文本写入文件
c++
、
storage
它将每个
数据处理
结果附加到文本文件的末尾。
数据处理
操作被放置在一个循环中,所以程序可以在几秒钟内产生超过800个结果,然后一个接一个地写出来(即单独的)。我认为如此多的I/O操作对计算机的硬盘不是很好,所以我组织了一个数组来
存储
数据处理
结果,当数组长度超过200时,程序会将其附加到文件
和
清理中,而数组又变成了200多个,等等。 但我不知道-真的需要吗?
浏览 5
提问于2013-04-21
得票数 2
1
回答
刮刮-多个蜘蛛-处理来自一个蜘蛛的数据,而另一个蜘蛛还在运行。
python
、
scrapy
、
multiprocessing
他们中的每一个都从不同的网站收集数据,并将其
存储
在数据库中(单独)。在每个蜘蛛完成后,我需要运行代码,它正在对数据执行操作(让我们称之为
数据处理
子例程)。我的目标是有一个脚本可以同时运行这些蜘蛛,并且允许在爬行完成后触发每个蜘蛛的
数据处理
子程序,同时不干扰其他仍然在运行的蜘蛛
和
其他已完成的蜘蛛的
数据处理
子程序。换句话说,我想在最短的时间内完成这一切。我知道我可以用这种方式同时运行蜘蛛: 我还知道/认为我可以使用每个蜘蛛内部的spider_closed信号来触发
数据处理
子例程。
浏览 1
提问于2020-11-25
得票数 0
2
回答
连接计算引擎实例与
存储
和数据库
google-cloud-platform
、
google-cloud-storage
、
google-cloud-networking
我正在谷歌云上建立我的
数据处理
平台,我需要关于如何将一切结合在一起进行速度优化的建议。我正在运行两个执行
数据处理
的计算引擎实例
和
一个为MongoDB数据库提供服务的独立实例。我也有谷歌云
存储
,也许将来会有一些BiQuery或其他东西。我将跨实例和数据库发送大量数据,我想知道是否有可能加快数据传输,因为它们都是Google Cloud产品?我是个新手,任何帮助我都很感激。
浏览 2
提问于2019-01-19
得票数 0
1
回答
SqlDataAdapter,
存储
过程
和
参数
c#
、
sql-server
、
ado.net
、
sqldataadapter
我有几个关于
存储
过程
和
SqlDataAdapter的问题。当我运行适配器的Update方法时,我知道它将根据表的行的RowState属性酌情调用指定的INSERT、UPDATE
和
DELETE命令。如果这些命令被设置为
存储
过程,那么它是为表中的每一列传递具有正确值的参数,还是传递有问题的表行? 我真正想要实现的是,让一个INSERT、一个UPDATE
和
一个DELETE<
浏览 4
提问于2014-03-11
得票数 0
1
回答
如何有效地处理对C#
存储
过程的SQL大MSMQ数据调用?
c#
、
sql-server
、
stored-procedures
、
ssis
我一直在广泛地寻找以下方法的解决方案或替代方案来处理大型
数据处理
: 我们目前正在使用TCP服务(称为Listener)来侦听C#端口,并将传入的消息保存到MSMQ (消息队列)中,以确保数据不会丢失。同时,我们有另一个SQL服务(称为解码器),它从C#读取数据,在多个线程中处理数据,并调用SQL
存储
过程来保存数据
和
执行额外的
数据处理
。传入消息的速率约为每秒10,000条消息,每条消息都由解码器单独处理,然后发送到SQL SP,但最近我们面临一些与性能
和
高服务器资源使用率(CPU
和
RAM)
浏览 22
提问于2017-01-24
得票数 0
1
回答
需要
存储
在Google数据库中的python文件才能在Google Cloud Engine中编译并将数据返回给IOS应用程序
firebase
、
google-app-engine
、
google-cloud-platform
、
google-compute-engine
我目前的计划:我目前正在创建一个IOS应用程序,它将访问/更改
存储
在Google Cloud Storage中的java/python文件。
浏览 1
提问于2018-12-13
得票数 1
2
回答
GCP Hadoop数据仓库?
hadoop
、
google-cloud-datastore
、
google-cloud-dataproc
我知道Google BigQuery是一个数据仓库,但是Dataproc、Big Table、Pub/Sub被认为是数据仓库吗?这会使Hadoop成为一个数据仓库吗?
浏览 2
提问于2018-09-24
得票数 1
回答已采纳
1
回答
IOS/xcode/coredata:使用核心数据实现日历控制
ios
、
core-data
、
calendar
、
controls
、
eventkit
这里的IOS试图用
存储
在核心数据中的数据在我的项目中实现一个开源日历控件MADay。日历控件不提供用于访问核心数据的文档。
浏览 3
提问于2015-04-29
得票数 0
回答已采纳
1
回答
GSUTIL CP文件延迟
google-cloud-storage
我使用Google cloud中的GSUTIL命令行工具将文件从一个GCS文件夹复制到另一个GCS文件夹,然后进行一些
数据处理
。最近我在最终目标(BQ表)中发现了一些数据丢失,当我深入挖掘发现问题与文件复制有关时,当我复制大量文件时,3K~5K e,例如,似乎有些文件没有及时复制到目标文件夹,
数据处理
开始,这些文件最终被复制,但对于
数据处理
来说为时已晚
浏览 0
提问于2015-05-20
得票数 1
1
回答
TF1.14][ TPU ]不能在使用TPU的Colab上使用自定义TFrecord数据集
tensorflow
、
google-colaboratory
、
tpu
、
google-cloud-tpu
MultiDeviceIteratorGetNextFromShard}}]] [[IteratorGetNextAsOptional_1]] 在我的理解中,它需要在TPU
存储
桶上的
浏览 1
提问于2019-09-19
得票数 0
1
回答
Azure权限数据谱系与数据库
azure-databricks
、
azure-purview
我使用Azure权限进行数据治理和数据沿袭。我们在数据体系结构中使用Databricks,但是不存在任何本机支持来捕获Databricks的数据沿袭。
浏览 5
提问于2022-05-11
得票数 0
3
回答
Python并发问题
python
、
c
、
multithreading
、
thread-safety
、
python-c-api
服务器应用程序进行一些
数据处理
,并对客户端进行响应。为了保持
数据处理
部分的可配置性
和
灵活性,我们决定采用脚本方式,并根据各种现成模块的可用性,决定采用Python。我们使用python在c
和
python之间发送/接收数据。算法的工作原理如下:- PyDict_SetItemString();Next,服务器从客户端接收一些数据,这些数据
存储
在用c ++创建的字典中。请注意,我们使用PyImport_AddModule()方法使在c ++中创建的字典可以被脚本访问;并且PyModule_AddOb
浏览 6
提问于2012-02-07
得票数 5
1
回答
阿夫罗、木地板
和
SequenceFileFormat在哈多普生态系统中的地位及其应用
hadoop
、
hive
、
avro
、
impala
、
parquet
我看到不同的文件格式在导入
和
存储
到HDFS时使用,而且
数据处理
引擎在执行自己的procedures.So集时使用这些格式,这些文件格式产生了什么样的差异,以及它们如何选择不同的使用cases.Being
浏览 1
提问于2016-01-07
得票数 1
回答已采纳
2
回答
如何处理模块化应用程序中的泛型类/接口?
java
、
modularity
、
decoupling
* * *本质上,我希望能够用N个类定义一个API,然后有一个“
数据处理
程序”模块来处理在某个地方
存储
对象(例如数据库),而前端不需要知道如何实现它。= new Company();myContract.save();这样,将来我可以改变我
存储
数据的方式(
数据处理
模块),而不会改变前
浏览 4
提问于2015-04-24
得票数 4
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
dplyr和tidyr简介 数据处理
排序和去重 数据处理
KVM存储池和存储卷
图解外部存储和内部存储
地震数据处理和地震数据解释
热门
标签
更多标签
云服务器
即时通信 IM
ICP备案
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券