rows.saveAsTable(writing to another external table in hive immediately);
1)在上述情况下,当调用saveAsTable()时,spark会将整个数据集加载到内存中吗1.1)如果是,那么当这个查询实际上可以返回无法放入内存的大量数据时,我们该如何处理这种情况?2)当服务器崩溃,spark开始执行saveAsTable()向外部Hive表写入数据时,会不会有部分数据被写入目标Hive表的可能性?2.2)如果是,我们如何避免不完整/部分数据被持久化到目标配