NBU7.0 Image Cleanup作业在没有配置hot catalog backup的情况下失败,Status=1

Issue

Error

NBU7.0 Image Cleanup作业失败, Detailed status显示如下内容:

2010-2-8 17:35:06 - Info bpdbm(pid=1060) image catalog cleanup

2010-2-8 17:35:06 - Info bpdbm(pid=1060) Cleaning up tables in the relational database

2010-2-8 17:35:07 - Info bpdbm(pid=1060) deleting images which expire before Mon Feb 08 17:35:06 2010 (1265621706)

2010-2-8 17:35:07 - Warning bpdbm(pid=1060) Hot catalog backup is not configured for ‘win2k3r2-nbu7‘, catalog cleanup will return partial success until hot catalog backup is configured.

2010-2-8 17:35:07 - Info bpdbm(pid=1060) processing client win2k3r2-nbu7

2010-2-8 17:35:07 - Info bpdbm(pid=1060) deleted 0 expired records, compressed 0, tir removed 0, deleted 0 expired copies

the requested operation was partially successful(1)

?
?

The job was successfully completed, but some files may have been

busy or unaccessible. See the problems report or the client‘s logs for more details.

Cause

NetBackup 7.0中所有的catalog备份都是在线热备份(online, hot catalog backups)。catalog离线冷备份(offline, cold catalog backups)已经取消了。
如果没有配置catalog在线热备份,Image Cleanup作业会有警告:

Warning bpdbm(pid=1060) Hot catalog backup is not configured for ‘win2k3r2-nbu7‘, catalog cleanup will return partial success until hot catalog backup is configured.

Solution

配置catalog热备份策略。

配置catalog热备份策略后,Image Cleanup作业就可以正常完成了:

时间: 05-09

NBU7.0 Image Cleanup作业在没有配置hot catalog backup的情况下失败,Status=1的相关文章

kafka(0.8版本)删除主题(没有在配置文件中配置的情况下)

在没有配置kafka 删除属性的情况下 使用删除主题命令    ./bin/kafka-topics.sh --delete --zookeeper 192.168.28.131:2181,192.168.28.131:2182,192.168.28.131:2183 --topic test之后对当前主题打一个删除标记,需要手动去zookeeper中删除 首先进去zookeeper的bin目录下 ./zkCli.sh   ----->   rmr /broders/主题名  ------>

Hadoop 2.0中的日志收集以及配置方法

Hadoop中的日志包含三个部分,Application Master产生的运行日志和Container的日志. 一.ApplicationMaster产生的作业运行日志 Application Master产生的日志信息详细记录了Map Reduce job的启动时间,运行时间,用了多少个Mapper,多少个Reducer,Counter等等信息.MapReduce作业中的Application Master是运行在container中的. 默认情况下,Application Master产生

hive2.1.0 安装及MySQL元数据管理配置

一.环境准备 jdk 1.8+ hadoop 2.x mysql 5.x 安装之前请确保以上环境已准备完毕 二.安装 1. 下载并解压 进入解压之后的目录,使用当前路径配置HIVE_HOME 2. 进入安装目录下conf目录 vim hive-site.xml 加入以下配置 <?xml version="1.0" encoding="UTF-8" standalone="no"?> <?xml-stylesheet type=&

混合模式程序集是针对“v2.0.50727”版的运行时生成的,在没有配置其他信息的情况下,无法在 4.0 运行时中加载该程序集

其调用的方法是从sqlite数据库中获取原来已经使用过的数据库连接,当时也没注意,就是准备设断点然后单步调试,结果竟然是断点无法进入方法体内,后来仔细看了一下方法体的时候发现了一个问题,就是现有的System.Data.Sqlite这个数据访问provider是针对.NET2.0环境开发(最新的版本是1.0.66.0,2010年4月18日发布的),而目前官方也没有给出最新的.NET4的数据访问支持. 既然出现这个问题,那肯定是上GOOGLE搜索解决方案,毕竟微软不可能因为升级到了.NET4.0的

ArcGIS Runtime for Android开发教程V2.0(2)开发环境配置

原文地址: ArcGIS Runtime for Android开发教程V2.0(2)开发环境配置 - ArcGIS_Mobile的专栏 - 博客频道 - CSDN.NET http://blog.csdn.net/arcgis_mobile/article/details/8113948   2.开发环境配置 2.1 系统要求 1)      支持的操作系统 A.      Windows XP(32位).Vista(32/64位).Windows 7(32/64位) B.      Mac

SQLite.dll混合模式程序集是针对“v2.0.50727”版的运行时生成的,在没有配置其他信息的情况下,无法在 4.0 运行时中加载该程序集。

其他信息: V5.7.4.4 Can't find the System.Data.SQLite.dll more info : 混合模式程序集是针对"v2.0.50727"版的运行时生成的,在没有配置其他信息的情况下,无法在 4.0 运行时中加载该程序集. 解决办法,web.config 添加

C#连接Sqlite 出现:混合模式程序集是针对“v2.0.50727”版的运行时生成的,在没有配置其他信息的情况下,无法在 4.0 运行时中加载该程序集。的解决方案

C#连接Sqlite 出现: 混合模式程序集是针对“v2.0.50727”版的运行时生成的,在没有配置其他信息的情况下,无法在 4.0 运行时中加载该程序集.的解决方案 C#连接sqlite数据库代码: 1 using System; 2 using System.Collections.Generic; 3 using System.ComponentModel; 4 using System.Data; 5 using System.Data.SQLite; 6 using System.D

软件工程第0次个人作业

第0次个人作业 第一部分:结缘计算机 你为什么选择计算机专业?你认为你的条件如何?和这些博主比呢? 首先我一直以来都是很喜欢计算机专业的.而我决定选择计算机专业,大概是从高中开始的吧. 因为家庭环境的原因,我接触计算机比较晚.我从小就听说了有电脑这么一种神奇的东西,但却一直没有见到过,因此我对电脑有着很多的幻想. 我第一次见到电脑的经历,现在还记忆犹新.那时的我刚上小学,在学校里一些同学们经常一起讨论他们玩的各种电脑游戏,而我却从来都没见过电脑,因此我更加迫切地希望能够见到电脑,哪怕只是看一眼它

【转】Sqlite 混合模式程序集是针对“v2.0.50727”版的运行时生成的,在没有配置其他信息的情况下,无法在 4.0 运行时中加载该...

开发环境: vs2010+.net framework 4.0+ System.Data.SQLite.DLL (2.0)今天在做Sqlite数据库测试,一运行程序在一处方法调用时报出了一个异常 混合模式程序集是针对“v2.0.50727”版的运行时生成的,在没有配置其他信息的情况下,无法在 4.0 运行时中加载该程序集 其调用的方法是从sqlite数据库中获取原来已经使用过的数据库连接,当时也没注意,就是准备设断点然后单步调试,结果竟然是断点无法进入方法体内,后来仔细看了一下方法体的时候发现了