我正在尝试用开源框架来做ETL,我听说过两件事,Apache Beam和Apache Airflow,这两件事最适合整个ETL或ELT,比如Talend、Azure Data Factory等,事实上,我正在尝试用云数据仓库(redshift、azure数据仓库、雪花等)来做所有的事情。哪一个对这些类型的工作更好,如果我能在这两个框架之间进行一些比较,那就太好了。提前谢谢。
我在一个使用Oracle ODI 10g作为ETL工具的数据仓库(Oracle数据库10g)上工作。作为数字化转型的一部分,我们正在将所有应用程序和数据库迁移到云。这将导致ODI接口中的所有源表和目标表都发生更改。这些表将保持不变,但它们的连接字符串将发生变化,因为整个数据仓库将移动到云中。我想知道如何在不以任何方式影响现有ODI接口和包的情况下更新ODI中所有源表和目标表的连接详细信息。 有没有一种简单的<
我对kafka活页夹做了一些测试,看起来春云流生产者不参与春季管理的交易。给定的代码,如 @Transactional
public Customer insertCustomer如果在客户事件上有一个使用者将客户插入数据仓库,数据仓库和记录系统将在传输回滚时不同步。这里有办法让卡夫卡的活页夹交易吗?
我们正在尝试将数据从本地系统复制到Azure数据仓库。我们希望使用SSIS包将数据从本地复制到云。Azure Data Factory v1不支持SSIS包,而Azure数据工厂v2支持SSIS包,但数据仓库不支持它。所以我的问题是,如何使用Azure data Factory SSIS包将数据从本地数据库导入Azure数据仓库?