首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

oracle恢复几天前的数据,恢复oracle数据以前的某个时间

今天下午发现oracle数据库的参数表不知道被谁执行的语句都没有加条件,所以整个数据都乱了,不能用,查到了一下午,找到了几个解决办法,记录在此。...一、 执行如下SQLtest_temp表中的数据恢复 2014 05 28 11:00:00 注意,这里一定要先删除全部数据,否则可能会导致数据重复 delete from test_tmp; insert...因为有的用户可能已经断开和oracle的连接了 如果你看到以上方法能够解决你的问题,哪就不要犹豫,快点动 手吧,因为如果动手晚了,之前的操作的数据记录可能就要被覆盖了,因为存储不大的话要被循环使用的,...我在20140527日的下午530分发现参数表被 破坏了,而且执行的语句是在下午的208分,当时首先想到的是把前几天导出来过的数据恢复进去,可是这样的就丢失了哪几天的数据,当第二天来了找到了以 上的两个方法时已经晚了...,可以恢复下午220分时的数据,但是2时候的数据已经被擦掉了, 哎 呜呼哀哉!

90120

Oracle 恢复数据某个时间节点

--注意:恢复时间与当前时间节点表结构需要一致,truncate的数据无法恢复 --1.创建临时表保存该时间节点表的数据 create table temp_table --临时表 as select...from T_PM_ParamItem --原表 as of timestamp to_timestamp('2018-01-12 11:11:11','yyyy-mm-dd hh24:mi:ss') --恢复时间...--2.删除原表当前数据 delete from T_PM_ParamItem --删除原表数据 --3.从临时表插入数据原表 --这样表内的数据就还原到你需要恢复的那个时间节点了 insert...into T_PM_ParamItem SELECT * FROM temp_table --还原数据 --4.删除临时表 drop table temp_table --删除临时表 --当然,我们在操作数据库的时候还是需要谨慎...如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站立刻删除。

52120
您找到你想要的搜索结果了吗?
是的
没有找到

小知识:RMAN基于某个具体时间恢复示例

最近帮忙基于某个时间恢复一个库,说是备份和归档是全的。...好多年没做过这类事情了,不过这算是最基本的DBA技能,下面给出RMAN基于某个具体时间恢复示例脚本: run{ allocate channel c1 type disk; allocate channel...'2022-01-15 00:31:18'; release channel c1; release channel c2; } 注意/说明: nls_date_format的格式设置; 如果不确认时间是否需要...,恢复完可以先alter database open read only 验证是否数据OK,如果有问题还可以再调整时间recover; switch datafile all 是因为从rac的备份恢复单实例...,需要切换到正确的数据文件路径和名字; set newname for database to 'xxx/db_%U.dbf',必须要有%U这类区分; 这里只是示例,实际使用分配通道会更多,通常也要将脚本放到后台执行

70020

mysql 数据同步 Elasticsearch

对于 ES 来说,必须先存储有数据然后才能搜索这些数据,而在实际业务中 ES 的数据也常常是与 mysql 保持同步的,所以这里插入这篇文章简单介绍几种同步 mysql 数据 ES 的方式。...二、独立同步: 区别于上一种,这种方式 ES 同步数据部分分离出来单独维护,此时业务层只负责查询即可。 ?...如上图所示,这种方式会等到数据写入 DB 完成后,直接从 DB 中同步数据 ES ,具体的操作又可以细分为两类: 1、插件式: 直接利用第三方插件进行数据同步,缺点是灵活度受插件限制。...最简单的比如定时轮询 mysql,根据表中的最后更新时间这个特殊字段去新增或修改 ES 的数据,但是对于删除数据则需要另外处理,当然也会有某些情况下是不存在删除操作的。...由于特定的场景,我更关注的是哪个数据库的哪张表进行了插入、修改、删除操作,所以在 zongji 的基础上我自己稍微修改了一并过滤了一下返回结果: ?

2.9K50

使用NineData构建任意时间(PITR)数据恢复能力

如果数据被误删,需要将数据恢复事故发生前的那一刻,这个操作过程不仅复杂,还要依赖经验丰富的DBA来进行恢复。那如何能快速的进行任意时间恢复(Point-in-time Recovery)呢?...1、任意时间恢复恢复流程NineData 完成基于时间恢复(PITR)的过程如下:新增新的一个数据库实例,为恢复所用,也可以用本地实例(需要修改恢复的库名);找到误删操作之前的最近一次全量备份,恢复新实例...;回放全量备份之后的BINLOG,误删操作之前的时间为止。...创建恢复任务按照要求,先选择要恢复的源数据实例和备份任务,然后再选择恢复时间(执行DROP操作前的时间)。b. 选择要恢复的对象,可以恢复整个库,也可以选择恢复被DROP的表。c....数据恢复完成。通过上面对「任意时间恢复」的说明,可以看到在 NineData 上简简单单的几步操作,就能轻松的实现数据任意时间恢复的能力。

38730

数据库PostrageSQL-连续归档和时间恢复(PITR)

这样,该技术支持时间恢复:在得到你的基础备份以后,可以数据恢复它在其后任何时间的状态。...通常,恢复将会处理完所有可用的WAL段,从而将数据恢复当前时间(或者尽可能接近给定的可用WAL段)。...如果你希望恢复之前的某个时间(例如,恢复幼稚的DBA丢弃了你主要的交易表之前),只需要 在recovery.conf中指定要求的停止。...时间线 数据恢复一个之前的时间的能力带来了一些复杂性,这和有关时间旅行和平行宇宙的科幻小说有些相似。...如果你希望恢复某个子女时间线(即,你希望回到在一次恢复尝试后产生的某个状态),你需要在recovery.conf中指定目标时间线ID。你不能恢复早于该基础备份之前分支出去的时间线。

95410

怎样 MySQL 数据表导入 Elasticsearch

全量导入 适合数据没有改变的归档数据或者只能增加没有修改的数据 input { jdbc { jdbc_driver_library => "/usr/share/java/mysql-connector-java.jar...多表导入 多张数据表导入 Elasticsearch # multiple inputs on logstash jdbc input { jdbc { jdbc_driver_library...指定SQL文件 statement_filepath 指定 SQL 文件,有时SQL太复杂写入 statement 配置项维护部方便,可以 SQL 写入一个文本文件,然后使用 statement_filepath...参数传递 需要复制的条件参数写入 parameters 配置项 input { jdbc { jdbc_driver_library => "mysql-connector-java...=> true #和jdbc_page_size组合,statement的查询分解成多个查询,相当于: SELECT * FROM table LIMIT 1000 OFFSET 4000

4.9K50

利用logstashmysql多表数据增量同步es

同步原理: 第一次发送sql请求查询,修改时间参数值是为系统最开始的时间(1970年),可以查询的 所有大于1970年的数据,并且会将最后一条数据的update_time时间记录下来, 作为下一次定时查询的条件...为什么要下载mysql驱动 因为logstash需要连接mysql,并查询表数据,才确定是否同步数据 如下,是maven仓库,所有版本mysql驱动连接 https://mvnrepository.com...之后每隔一分钟,会以最后的update_time作为条件,查询是否同步数据,如果查询的结果update_time时间大于所记录的update_time时间,则会继续同步数据,接下来在记录最后一次同步的update_time.../logstash 这里goods同步,为什么不是1970年呢,因为之前同步一次过,logstash会帮你记录,所以就以logstash最后一次同步时间计算 ? 现在商品表也同步数据了 ?...那如何证明,能够多表同步呢,很简单,我们修改两个表的数据,看是否都能查询的,如下图,就可以证明商品表和用户表,都是根据各自表的最后时间进行同步的数据的 ? ? ? 注意:有数据才会创建索引哦

3.8K40

通过Python监控数据由influxdb写入MySQL

而目前公司CMDB的信息都保存在了MySQL数据库中,所以,需要先实现 Influxdb 与 MySQL DB 的数据互通互联 。此功能的实现时借助Python完成的。...在此项目中,为便于说明演示,抽象简化后,需求概况为:InfluxDB中保存的各个服务器的IP查询出来保存到指定的MySQL数据库中。...data) TypeError: Struct() argument 1 must be string, not unicode 报错的python版本为Python 2.7.5,查看资料,建议升级2.7.7...telegraf模板中关于host的命名 我们知道telegraf 模板中有host参数(默认在/etc/telegraf.conf设置),在grafana界面上可以根据这个host参数进行刷选,进一步定位想要查看的...`datetime_created` timestamp NULL DEFAULT CURRENT_TIMESTAMP ON UPDATE CURRENT_TIMESTAMP COMMENT '数据行创建时间

2.5K00

数据传输 | 利用 DTLE MySQL 数据同步 DBLE

准备全量复制数据 3. 启动同步任务 4. 检查同步情况 二、基于 GTID 位增量同步 1. 销毁全量同步任务 2. 记录源端GTID位 3. 准备增量同步job文件 4....7x24h,能够停机的时间窗口较短,所以需要考虑数据实时同步的方案。...记录源端GTID位 # 记录源端 MySQL 需要开始的GTID位 mysql> show master status\G *************************** 1. row **...检查同步情况 # 目标端 DBLE 中查看到 GTID 位之后的数据已同步过来 mysql> select * from test; +-----+--------+------+----------...-> DBLE 间数据实施同步需求,不过需要注意的是,不建议采用本文所提到的 全量同步 方式 生产环境实施由于 MySQL 老库数据量较大,可以先将数据全量逻辑备份出来(需记录GTID位),再通过

1.4K10

使用flink SQL Clientmysql数据写入hudi并同步hive

生成测试数据 使用datafaker生成100000条数据,放到mysql数据库中的stu4表。...datafaker工具使用方法见datafaker — 测试数据生成工具 首先在mysql中新建表test.stu4 create database test; use test; create table...bigint||电话号码[:phone_number] email||varchar(64)||家庭网络邮箱[:email] ip||varchar(32)||IP地址[:ipv4]Copy 生成10000条数据并写入...导入mysql数据 使用flink sql client进行如下操作 构建源表 create table stu4( id bigint not null, name string, school...test.stu_tmp_1 limit 10;Copy 结果: 本文为从大数据人工智能博主「xiaozhch5」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。

1.9K20
领券