假设我有一个pyspark数据帧,其中包含以下列:数组类型的c1、c2、c3、c4和c5。现在我要做的是:(c1)交集(c2 union c3)交集(c2 union c4 union c5)
我可以在一个循环中的两个列上使用array_union,并在withColumn的帮助下不断添加一列,然后以类似的方式进行一轮交集。如何在PySpark中高效地完成此操作?有没有更聪明的方法来做这件事?
在栅格化中,至少在游戏开发的背景下,在场景中有许多相同的3D对象的实例(考虑不同大小/位置/旋转的许多相同的岩石)并通过只将3D对象放在GPU内存中一次并每次只更新模型矩阵来渲染它们是很常见的。这在栅格化方面相对容易,因为渲染是“一个对象一个对象”完成的,但是它允许比我们上传几个相同网格的副本要高效得多。for (int a = -11; a < 11; a++) {
for (int b = -11; b < 11; b+