腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
python
dataframe
作为
函数
输入
,
并
获取
另一个
具有
新
名称
的
dataframe
作为
输出
python
、
pandas
、
function
我有一个数据帧df,在不同
的
行和列上有很多处理。最终,我想得到一个
新
的
df,名为例如processed_df。name) output_df=df.head(2) # e.g as process, in reality is ~ 50 operations return output_df testdf
浏览 26
提问于2020-11-27
得票数 0
回答已采纳
1
回答
Python
,
输入
行
的
熊猫数据帧,
输出
行
的
不同
的
数据框架。并行运行
python
、
pandas
、
dataframe
、
parallel-processing
我需要一些帮助,开始在
python
中运行一些并行代码。我不认为对于我
的
问题,我可以共享可执行代码,但您仍然可以帮助我从概念上解决我
的
问题。到目前为止,我一直在for循环中使用它
作为
输入
行,
函数
返回后,我将其
输出
附加到
浏览 0
提问于2019-07-09
得票数 0
回答已采纳
1
回答
熊猫,将
函数
应用到返回一行到多行
的
数据框架中。
python
、
pandas
、
python-2.7
、
numpy
我有一个熊猫数据,我需要应用一个
函数
。但是,该
函数
将返回
dataframe
中单个行
的
许多项。我想用
函数
返回
的
值创建一个
新
的
dataframe
。因此,当我应用该
函数
时,
新
的
dataframe
具有
与原始
dataframe
相同
的
行数,
函数
的
列表/序列
作为
浏览 1
提问于2019-07-17
得票数 2
1
回答
Python
方法(静态方法),根据标记列表遍历多个方法,一次
输出
一个
python
、
pandas
、
list
、
dataframe
、
static-methods
我正在尝试
获取
python
方法
的
输出
。但是
输出
并不是直接
的
。当前
的
python
方法有一些标记和值,它遍历标记和相应
的
函数
,并将值
作为
输出
。我希望将
输出
作为
list或
DataFrame
。但是
输出
是一次
输出
一个&每次方法运行当前方法时,它都会创建
新
的
列表
浏览 0
提问于2020-06-15
得票数 1
1
回答
使用自定义
函数
的
火花
python
、
apache-spark
、
pyspark
例如:我有一个
dataframe
mydf:1 5 33 9 10因
浏览 6
提问于2017-10-20
得票数 0
回答已采纳
1
回答
根据数据帧B中
的
列过滤数据帧A
python
、
pandas
、
dataframe
我有两个
dataframe
,其中
dataframe
A
的
列数比
dataframe
B多得多,我想做
的
是通过使用
dataframe
B
作为
引用来过滤
dataframe
A,
并
获得一个与
dataframe
A
具有
相同列数
的
新
dataframe
A。例如: df_A = pd.
DataFrame
(np.random.randn(150,
浏览 10
提问于2020-12-10
得票数 0
回答已采纳
1
回答
使用配置单元元数据读取HDFS文件- Pyspark
python
、
dataframe
、
pyspark
、
apache-spark-sql
、
pyspark-sql
我是PySpark新手,正在尝试读取HDFS文件(上面创建了hive表)
并
创建PySpark数据帧。通过PySpark读取配置单元表非常耗时。有没有什么方法可以动态
获取
hive列名(用作
dataframe
中
的
模式)?我希望将文件位置、表名和数据库名
作为
输入
传递给aa程序/
函数
,以便从配置单元元数据(可能是元数据xml)中
获取
模式/列
名称
,并
作为
dataframe
返回。 请指教
浏览 15
提问于2019-03-06
得票数 0
回答已采纳
1
回答
使用
函数
拆分数据并在
python
中单独调用数据帧时出错
python
、
pandas
、
function
、
dataframe
我有个数据:我创建了一个
函数
,它将
dataframe
和%拆分
作为
输入
,
并
基于
输入
创建了两个
新
的
数据格式 b = df.iloc[int((1-split)*len(df)):] 现在,当我运行这个
函数
并<
浏览 1
提问于2020-05-15
得票数 0
回答已采纳
1
回答
Scala将数组转换为
DataFrame
列
dataframe
、
scala
、
apache-spark
、
apache-spark-sql
、
rdd
我正在尝试将值数组
作为
新
列添加到
DataFrame
中。| 32 || Eric | 41 |我
的
要求是将上面的数组
作为
新
列添加到
dataframe
中。做这件事最好
的
方法是什么?更好地理解
的
背景: 我正在使用Xpress优化套件来解决一个数学问题。Xpress
获取
数组
的
输入
区间,并将
浏览 6
提问于2022-01-11
得票数 1
回答已采纳
2
回答
pySpark:将当前月份添加到列名
pyspark
我有一个自写
函数
,它得到一个
dataframe
,
并
返回整个
dataframe
和一个
新
列。该
新
列不能
具有
固定
名称
,而必须在当前月份
作为
新
列名
的
一部分。例如"forecast_august2022“。我试过像.withColumnRenamed( old_columnname,new_columnname )一样 但是,我不知道如何创建一个固定值(forecast_)
的
<em
浏览 14
提问于2022-07-04
得票数 0
回答已采纳
1
回答
从字典中提取键/值并将其存储为列
python
、
pandas
我有一个
dataframe
,其中一个列包含
具有
相同键
的
字典列表: [{'name': 'Order Type', 'value': 'traditional'}, {'name': 'DeliveryWindow', 'value': '8 - 10'}, {'name': 'Delivery Day', 'value':
浏览 3
提问于2022-10-05
得票数 0
2
回答
将列表插入特定行
的
df中会发出警告
python
、
pandas
、
list
、
dataframe
在下面的场景中,我总是收到
python
的
警告:我有一个长度小于我
作为
另一个
dataframe
列
的
副本创建
的
dataframe
的
列表,我希望将它
作为
一个
具有
已知偏移量
的
新
列添加到这个
新
的
dataframe
中,以便该列表以最后一个
dataframe
条目结束。NewColumn"] = f
浏览 0
提问于2021-05-23
得票数 0
1
回答
Python
为同一列提供不同
的
dtype。
python-3.x
、
pandas
我正试图尽快提供一个最小
的
例子,但同时:如何可能,列"Home Point“是类型object和int64同步?有什么暗示吗?这是熊猫虫吗?
浏览 9
提问于2022-02-24
得票数 1
回答已采纳
1
回答
如何使用来自R
函数
的
字符串
输入
来命名数据集?
r
、
string
、
dataframe
、
function
、
input
我想要创建一个非常简单
的
函数
,它接受一个大型数据集(df)
的
一部分,并在全局环境中创建一个
具有
指定
名称
的
新
数据集。问题是,它似乎将
新
的
dataframe
命名为"x“,而不是实际
的
字符串
输入
。columns] rows=690:692,
浏览 3
提问于2022-10-01
得票数 0
回答已采纳
3
回答
如何将数据行转换为R中
的
列?
r
、
dataframe
、
transform
、
reshape
、
melt
我有一个需要转换
的
数据框架。我需要根据列
的
值将行更改为唯一
的
列。例:| column_1 | column_2 || A | B || B | E || C | F |
输出
| C | |
浏览 0
提问于2017-09-13
得票数 1
回答已采纳
1
回答
在Clojure Flambo api调用中执行
DataFrame
查找时无法获得结果
apache-spark
、
clojure
我读取了一个拼图文件,
并
使用Flambo api以RDD格式
获取
数据。我们应用列
名称
的
zipmap
并
创建一个hash map/ Clojure map 假设我
的
地图
具有
以下值 [{:a 1 :b2} [r] (merge r
浏览 4
提问于2018-12-26
得票数 0
2
回答
当编码时Row模式未知时,如何将string与Row合并以创建
新
的
spark
dataframe
?
scala
、
dataframe
、
apache-spark
、
apache-spark-sql
、
schema
我已经创建了一个
函数
,它接受一行
作为
输入
,
并
给出一个字符串
作为
输出
。我计划将此
函数
应用于不同模式
的
各种数据帧。这些数据帧非常庞大,每个数据帧有数百万行,但每个数据帧都有一个定义好
的
模式 我想创建
另一个
函数
,它将调用第一个
函数
,将
函数
的
输出
字符串与它发送到
函数
的
行合并,
并
创建一
浏览 46
提问于2019-10-15
得票数 0
回答已采纳
5
回答
Pandas灵活地确定指标
python
、
pandas
、
design-patterns
现在,我想创建一个将列名映射到特定
函数
的
逻辑,以创建一个
新
的
列“指标”(将其想象为两列
的
面积和三列
的
体积)。
dataframe
df1['metric'] = df1['height'] * df2['widht']创建一个
新
列,volumen
函数
将为
dataframe
df2['metic'] = df2[请注意,
函数
浏览 1
提问于2020-03-07
得票数 3
3
回答
星星之火将嵌套
的
JSON转换为单独
的
列
apache-spark
、
apache-spark-sql
、
spark-dataframe
我有一个
具有
以下结构
的
JSON流,该流被转换为
dataframe
"a": 3936, "c": "34", "d": "146", "f": "23"}
dataframe
显示<
浏览 6
提问于2016-07-10
得票数 0
回答已采纳
1
回答
熊猫方法在整个
DataFrame
上应用
函数
python
、
pandas
、
function
、
dataframe
、
apply
我已经创建了一个
函数
,在这里我需要传递数据帧,然后得到形状
并
返回df.head() tup = df.shape return df.head() 现在,当我使用items.apply(shape_of_df)调用
函数
时,会出现错误,但是,如果调用
函数
并将df
作为
参数传递,则可以正常工作。请告诉我,当我使用d
浏览 0
提问于2018-06-24
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
pandas系列学习(三):DataFrame
Python数据分析入门日记Day6:数据分析库Pandas:Series和Dataframe
结构化数据,我该拿你怎么办?
手把手教你做一个“渣”数据师,用Python代替老情人Excel
Python中的并行处理:实例编程指南
热门
标签
更多标签
云服务器
即时通信 IM
ICP备案
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券