楼主: QYL

[精华] 数据迁移办法

[复制链接]
论坛徽章:
0
121#
发表于 2003-10-9 11:02 | 只看该作者
看来我是死定了20G用5小时我有400G要导,真希望能有别的方法

使用道具 举报

回复
论坛徽章:
63
版主7段
日期:2012-05-15 15:24:11itpub13周年纪念徽章
日期:2014-10-08 15:16:50itpub13周年纪念徽章
日期:2014-10-08 15:16:50itpub13周年纪念徽章
日期:2014-10-08 15:16:50itpub13周年纪念徽章
日期:2014-10-10 14:34:59马上加薪
日期:2015-01-08 15:39:192015年新春福章
日期:2015-03-04 14:19:112015年新春福章
日期:2015-03-06 11:57:31
122#
发表于 2003-10-9 11:42 | 只看该作者
不要老是局限在oracle内部考虑问题:
在停机时间很短的情况下,我们会对应用数据进行分析,搞清楚哪些数据是必须先迁的,不迁移程序就无法正常运行,往往这些数据很小,其他的数据可以日后慢慢处理。当然这会导致数据的同步问题,需要权衡利弊.

使用道具 举报

回复
论坛徽章:
0
123#
发表于 2003-10-9 14:04 | 只看该作者
在不停原来数据库的时候,可以先把库全部EXP出来,在导入新建的库中。然后在分别把表的数据同步就可以了。不过如果表N多,这也不是一个好办法。呵。

使用道具 举报

回复
论坛徽章:
33
ITPUB元老
日期:2005-09-16 10:42:482012新春纪念徽章
日期:2012-02-13 15:13:202012新春纪念徽章
日期:2012-02-13 15:13:202012新春纪念徽章
日期:2012-02-13 15:13:202012新春纪念徽章
日期:2012-02-13 15:13:202012新春纪念徽章
日期:2012-02-13 15:13:20版主3段
日期:2012-05-15 15:24:11马上有车
日期:2014-02-19 11:55:14马上有房
日期:2014-02-19 11:55:14马上有钱
日期:2014-02-19 11:55:14
124#
发表于 2003-10-9 20:00 | 只看该作者
8i以后提供了一个按表空间方式导出的方法,可以直接的拷表空间的数据文件,然后再做导入,导出和导入的时间都很短,但是不知道异构平台是否能行,因为数据的格式都不一样了。

使用道具 举报

回复
论坛徽章:
0
125#
发表于 2003-10-9 21:05 | 只看该作者
最初由 冷夜 发布
[B]在不停原来数据库的时候,可以先把库全部EXP出来,在导入新建的库中。然后在分别把表的数据同步就可以了。不过如果表N多,这也不是一个好办法。呵。 [/B]

我很赞同这个方法,同步数据的过程相对与要屏蔽外键等方法要有效的多,而且通常同步的数据都四可以延迟的了。漫漫来。恩,好方法。

使用道具 举报

回复
论坛徽章:
9
会员2006贡献徽章
日期:2006-04-17 13:46:342010年世界杯参赛球队:葡萄牙
日期:2009-12-19 11:47:11紫蛋头
日期:2011-05-26 12:15:02复活蛋
日期:2011-08-31 12:12:27紫蛋头
日期:2012-04-14 21:48:20奥运会纪念徽章:游泳
日期:2012-07-11 19:00:41奥运会纪念徽章:垒球
日期:2012-10-10 11:44:39茶鸡蛋
日期:2012-11-29 16:59:04青年奥林匹克运动会-高尔夫
日期:2014-09-12 13:27:29
126#
发表于 2003-10-9 22:12 | 只看该作者

exp/imp

呵呵,只能是exp/imp啦,要减少停机时间也是有的,先把一些基本资料导过去,针对大表,分段导入,

使用道具 举报

回复
论坛徽章:
3
ITPUB元老
日期:2005-02-28 12:57:00授权会员
日期:2005-10-30 17:05:33会员2006贡献徽章
日期:2006-04-17 13:46:34
127#
 楼主| 发表于 2003-10-10 09:43 | 只看该作者
呵呵,到处表空间方法异种平台不支持。还有,我们当时没有特别着急,因为我们有一晚上停机时间,并且。我们提前做了实验。因此,如果有400G数据,可以看一看那些数据是必须导出的。那些数据可以后来导出,还有,要看你原来aix服务器性能。

使用道具 举报

回复
论坛徽章:
6
ITPUB 11周年纪念徽章
日期:2012-10-09 18:03:322013年新春福章
日期:2013-02-25 14:51:242014年新春福章
日期:2014-02-18 16:41:11马上有车
日期:2014-02-18 16:41:112015年新春福章
日期:2015-03-04 14:19:112015年新春福章
日期:2015-03-06 11:57:31
128#
发表于 2003-10-16 00:45 | 只看该作者

同样的经验

103G的数据库,
exp 环境:
sun e450 2X440M cpu, 1G mem, emc cx400 , oracle 8.1.6
exp system/manager owner=sss file=aaa
用时:1小时50分钟,

imp 环境:
sun v480 2X900 M cpu, 4G mem, emc cx400, oracle 9.0.1
imp system/manager fromuser touser commit=y  buffer=100000000  
用时:11小时40分钟。

总结:
exp 主要看磁盘整列的速度,磁盘阵列有多快就能写多快。
imp 的优化没有机会测试。

使用道具 举报

回复
论坛徽章:
3
ITPUB元老
日期:2005-02-28 12:57:00授权会员
日期:2005-10-30 17:05:33会员2006贡献徽章
日期:2006-04-17 13:46:34
129#
发表于 2003-10-16 09:25 | 只看该作者
最初由 theMatrix 发布
[B]20g的数据,EXP的时间不会很长!主要是IMP的时间:
1:使用indexfile = '××××' rows=n 将建索引导出成文件。
2:使用index=no 将数据先导入,最好的话使用commit = y。
3:使用1生成的文件建索引!
  这样的话可以比直接一口气IMP的方式快很多。 [/B]


我经常这么做!

使用道具 举报

回复
论坛徽章:
3
ITPUB元老
日期:2005-02-28 12:57:00授权会员
日期:2005-10-30 17:05:33会员2006贡献徽章
日期:2006-04-17 13:46:34
130#
 楼主| 发表于 2003-10-16 10:25 | 只看该作者
呵呵,你为什么不分开imp呢,然后把索引重建,把外键enable这样会很快的

使用道具 举报

回复

您需要登录后才可以回帖 登录 | 注册

本版积分规则 发表回复

TOP技术积分榜 社区积分榜 徽章 团队 统计 知识索引树 积分竞拍 文本模式 帮助
  ITPUB首页 | ITPUB论坛 | 数据库技术 | 企业信息化 | 开发技术 | 微软技术 | 软件工程与项目管理 | IBM技术园地 | 行业纵向讨论 | IT招聘 | IT文档
  ChinaUnix | ChinaUnix博客 | ChinaUnix论坛
CopyRight 1999-2011 itpub.net All Right Reserved. 北京盛拓优讯信息技术有限公司版权所有 联系我们 未成年人举报专区 
京ICP备16024965号-8  北京市公安局海淀分局网监中心备案编号:11010802021510 广播电视节目制作经营许可证:编号(京)字第1149号
  
快速回复 返回顶部 返回列表