Delxu's Blog

My own IT Tech blog

Strange Alarm” Insufficient configured resources to satisfy the desired vSphere HA failover level in cluster xx”

Yesterday.  although I fixed the issue of “cannot-automatically-trigger-vMotion-when-put-hosts-into-maintenance-mode”, by disabling the admission control.

But there was one strange alarm I couldn’t get rid of and don’t understand why it shows up.

The alarm said:
Insufficient configured resources to satisfy the desired vSphere HA failover level in cluster xx

All the google search results told me it is caused by admission control.  when you have admission control enabled, and then if you create a big VM.  This alarm may show up, because of the slot size blablabla.  I am fully aware of this.  However, I HAD already disabled admission control.

I tried disable the vSphere HA and re-enable it.  It didn’t work.

I tried reboot the host, didn’t work again.

My environment consists of 2 recently-built ESXi Ent Plus 6.0U2 host, and I just upgraded them to 6.0U3 5050593 yesterday via the update manager. Because both hosts are newly-built, there is barely any load on it.  The vCSA itself is the biggest VM on it.  Except for that, I only added several sample VMs for test only.  CPU utilization is as low as 1%, memory utilization is also very very low.  They are 2 DELL R530 servers, each with dual XEON 10-core CPUs and 192GB memory.

Because I like the new vCSA 6.5 which has update manager integrated, I am using vCSA 6.5 to manage ESXi 6.0 host, not the vCSA 6.0

I noticed that Protective HA is a new feature since vSphere 6.5, since I don’t have esxi 6.5 hosts, I noticed although it was enabled by default, it didn’t take effect because there is one alert saying: “No response because no Proactive HA provider is enabled on the cluster”.   OK that’s fine.  So I turned off this function.

I recalled that this strange alarm “Insufficient configured resources to satisfy the desired vSphere HA failover level in cluster xx” didn’t occur before I turned off Proactive HA.  So finally I tuned it on again and then disable-and-enable the HA again. the alarm disappeared. even when now I turned on my admission control again.

So it turned out in my case, turning Protective HA off is the reason.  But I still want to know the root cause.

Is there ANYONE experienced the same situation?  I just want to know if this is an false alarm that VMware team should take care of.

Advertisements

小鸡手柄和劲玩X3蓝牙手柄对比

delxu原创,首发于本人的wordpress博客、小鸡模拟器论坛51cto博客,转载请标明出处之一。

这个时代变化真快。

智能手机的性能越来越强,现在已经具有2GB(甚至3GB)的内存和几十GB的闪存存储空间了。因此,在手机上通过模拟器来玩那些小时候家用游戏机上的游戏早已不是难事了。Android由于其开放的体系,游戏机模拟器的种类和版本也是最多的。2013年春天,几个爱好者将这些模拟器整合进了一个平台之中,于是就有了小鸡模拟器。到目前为止,小鸡模拟器支持的机种已经有13种之多(包括FC、SFC、MD、GBA、街机、PSP、PS、NDS、N64、DC等等),游戏更是多达12425个。

发现小鸡模拟器本身就是件非常偶然的事情。2、3个月前的某天回家的班车上,瞥见前排有同事正在用手机玩魂斗罗,这瞬间勾起了我的兴趣,打听之后知道了小鸡模拟器。刚好手头有个小米2S手机,回家就试用了,果然不错。但是很明显的是,触摸屏上的虚拟按键的操作感几乎为0,玩SLG游戏(比如大战略、三国志)问题还不大,玩动作、射击类的游戏(比如魂斗罗、街霸)就完全不行。由于本人是MD上Advanced大战略的死忠粉,因此除了点到为止的下载试用了几个其他游戏之外,大多数时间都在玩大战略。日子也就这么过去了。不过由于按键是在屏幕上,还是很不爽,强烈希望能有一个手柄。是时,在小鸡论坛(http://bbs.xiaoji001.com)上就看见了小鸡手柄的开发计划,便密切关注起来。(下图为小鸡网站上的设计图)
002

小鸡手柄最大的好处就是和小鸡模拟器的无缝连接了。各种用于手机的手柄其实种类也挺多的,在小鸡手柄之前就有专门用于iPhone5/5S的罗技游戏手柄(http://gaming.logitech.com/en-us/product/powershell-controller-and-battery),可惜不仅价格高(US$69.99),而且支持的游戏数量太少(都是iOS7下的),对各种模拟器的支持很差(不越狱几乎没有支持),因此不在我的考虑范围内。
2014-7-13 14-35-48

小鸡手柄的内测没轮上,(其实自己也没太多时间和精力去做内测的事情,也就没太积极的去申请内测),但自己还是密切在关注着的。5月份开始小鸡手柄有了自己的域名、网站(http://www.xiaoji.com)并有了购买链接。只是每次点击购买都会说你没有购买资格,我不死心,隔三岔五地去点一下那个购买链接。终于,突然6月26日那天发现可以买了,149.90的售价非常合理,于是不管三七二十一,无脑下单,直接付款搞定。虽然付完钱,东西好几天没发货,我也因为自己忙加上神经比较大条,不是太着急。7月1日,小鸡团队的某位大大给我打电话通知说货已经发出,还说了一大堆谦虚的话和售后服务的许诺之类以及论坛上小鸡手柄之星称号之类的话,好吧,小小感动一把,也算享受了第一批用户的特殊待遇了。7月2日东西就到手了。后来才知道,这第一批只有几百个,大概1天就抢光了,我能抢到一个算是运气超好的呢。

初次试用呢感觉相当不错,用音频线连接到我的小米2S手机,打开小鸡模拟器,无需任何设置,直接就可以开始游戏。打开小鸡模拟器的时候一开始还有虚拟按键,但是只要点击一下手柄,虚拟按键就消失了,手柄就已经接管了所有按键,这点设计非常方便。试玩了几个游戏,包括FC上的魂斗罗、赤色要塞,MD上的皇帝的财宝、新创世纪、Shining Force,都非常流畅。实在令人高兴和兴奋。

下面先上几张开机图。
003 

004 

001-1

小鸡手柄有2种连接方式,一种是通过micro USB端口的OTG适配器来无线连接手机,另外一种就是如上图,用音频线来连接。实测在我的小米2S手机上,这2种方式都无需任何配置,直接可以接入小鸡模拟器进行游戏。而且游戏过程基本全程没有时滞,相当流畅。(论坛上也有同学反映某些游戏在某个方向上会卡住,需要反向点击才恢复,不过可能是因为我格斗游戏玩的少,没类似的感觉)

按键本身有点偏软,手感比起家用游戏机的原装手柄还是略微弱了点,尤其是L/R位置的那几个按键,不过好在那些键位用的不多。

当然小鸡手柄离心目中的完美还有些距离,这主要体现在手机的夹具部分。不过比起论坛上某些同学来说,我这个做工还算不错。只是夹具这样设计离手柄太远,导致重心比较高,拿在手里要掌握平衡就需要更用力气。短时间没太多感觉,玩了半小时之后,手腕就很酸了。
005

换个角度再来看一眼
006 

又过了一周,看见小鸡论坛上有人说买不到就去买了劲玩X3蓝牙手柄,什么操作极好之类的。在淘宝上搜了一下,发现样子长的相当不错,和XBOX360的手柄很像,而且手机夹具部分看上去设计更加合理,合上的时候就像一个普通无线手柄,打开中间部分就可以夹住手机。手机的位置比较低,重心也比较合理,展开的角度和普通的掌机很像。这点挺吸引人的。
104

那也买个回来对比一下吧。(我这种自掏腰包甘当小白鼠造福大众的雷锋精神是多么可爱可敬啊,嘻嘻)于是又在淘宝上订购了一个(官方店铺http://polardigi.taobao.com/),价格199.00比小鸡手柄贵50元。装上了手机样子如下:

101

劲玩X3蓝牙手柄收到后,第一感觉是磨砂的塑料手感不错,但是十字按键非常硬,ABXY也很硬,按起来很费力。安装更是一波三折。因为这是款蓝牙手柄,被我的小米手机认成了蓝牙键盘,所有按键都需要重新调整。虽然官方说明可以下载专用的小鸡模拟器,其中可能已经预设好了按键,但是因为我的小鸡模拟器原先就装上了,不是专用于劲玩的特殊的专用版本,因此不能即插即用。回到家后,连接了小米盒子,使用小鸡模拟器TV版连接劲玩X3手柄,也同样需要重新映射所有按键,很是不方便。

这就是蓝牙手柄的最大的问题,匹配是件麻烦事,键位设定更麻烦,不能做到即插即用造成的用户体验差了非常之多。而相比之下,小鸡手柄毕竟是小鸡模拟器官方出品的手柄,所有设置都早已匹配完毕,基本上(至少我的体验过程中)无需任何手动设置,即插即用非常方便。(注:小鸡的OTG 2.4GHz无线连接不是用蓝牙,而是自带无线适配器)使用方便程度上,小鸡手柄完胜。

除此之外,劲玩X3手柄另一个很大的问题在于按键。前面说了,刚拿到时按了2下就觉得按键太硬,这在试玩雷电的时候更加明显。满屏的子弹要躲,即时快速的响应非常重要,此时僵硬的按键就成了游戏流畅度的死敌。对比小鸡手柄,虽然按键感觉偏软,但是从一个手柄的舒适度来说,宁可偏软,不可太硬。在按键的手感上,小鸡手柄完胜劲玩X3。

唯一劲玩能略胜一筹的就是手机的夹具了。这一点的确是小鸡手柄目前看来最大的弱点所在。

最后值得一提的是,6月份小鸡模拟器TV版1.0beta出现使得小鸡手柄和劲玩手柄可以直接连接小米盒子等电视盒子来玩了。虽然目前的beta版本还有些bug,只支持MD和SFC(FC、街机和MAME等存在闪退现象)。但是相信随着新版本修补掉这些bug,在电视上重温儿时的那些游戏也指日可待了。对于我来说,唯一的问题是,在60寸的电视上玩原来14寸电视机上的游戏,颗粒实在太粗了,马赛克厉害了点呢。(偷笑)

总结一下,对于手机上的各种游戏机模拟器,小鸡模拟器是不二之选,而匹配小鸡模拟器的手柄来说,小鸡手柄又是不二之选。千万别像我这样浪费钱去当小白鼠尝试其他种类的手柄了哦,你要做的就是守着买第2批上市的小鸡手柄。

Standby到底翻译成备用还是待机?

最近在翻译VMware VSAN的一本书,术语用词我以官方中文版客户端软件为准。可是,问题出现了,同一个英文表述在不同的中文版客户端软件中,甚至同一个客户端软件中都翻译的不一样。

比如Standby到底应该翻译成备用还是待机?
Web Client英文版里面是这样的:
image

到了中文版中同样的界面,3个Standby居然在一个页面里面就有2个不同的翻译了。

image

让我们再到中文版vSphere Client中去看看:
vSwitch配置过程中的Standby Adapter翻译为待机适配器

image

而在中文版vSphere Web Client中,同样位置,则翻译成备用适配器

image

我个人是倾向于备用的。不过如果用待机也未尝不可。还是请VMware中文版翻译组的同学们统一一下吧。

P.S. 同样的问题还发生在Teaming的翻译上,vSphere Client翻译成绑定,vSphere Web Client翻译成成组(上面截图中也可找到)。我是倾向于用绑定的,成组的中文含义太模糊了,没有捆绑成一条链路那么直接。

如何在一台ESXi主机上搭建一整套VSAN集群的测试环境

从上周起,我开始翻译一本新书。IT类中文书籍的翻译往往有一个术语的问题,如何选择最准确的中文术语,让读者清楚明白而且在实际操作和配置的时候不至于误解,是一件不那么容易的事情。一个简单的例子就是cluster,中文可以译作“集群”或者“群集”。这两者本身都广为使用,而且是完全相同的意思。我查了一下中文亚马逊书店,136本IT类中文图书用了“集群”,29本用了“群集”。看上去“集群”更为普及一些,而且我本人也习惯用“集群”这个术语。那么在本书中到底应该翻译成集群还是“群集”呢?我决定用“群集”。为啥呢?因为vSphere中文版客户端和中文版vSphere Web客户端都使用“群集”作为术语。为了方便读者阅读本书的时候,能够和中文版系统和中文版帮助文件对照起来,所有能够在中文版中找到的术语,我都将用中文版本里面的术语来进行翻译。

这本新书是关于VMware VSAN的,为了翻译的VSAN术语更加准确,我需要搭建一个VSAN集群。可是VSAN集群的构建有一些必要的前提条件:

  • 至少3台以上的vSphere ESXi 5.5U1主机
  • 每台主机需要至少一块SSD和一块磁盘(至少有3台主机有这样的配置)提供给VSAN数据存储用
  • 每台主机至少要有千兆网卡,推荐万兆。如果是千兆,建议有一个千兆端口专门提供给VSAN专用。
  • 每台主机最少6GB内存
  • 支持虚拟化技术的Intel或AMD处理器,至少是Intel XEON corei7级别或更高。

注:关于VSAN的安装和前提条件,可以参考一下文章和资料:
http://vsdsrevolution.blog.51cto.com/8674155/1381076
http://vsdsrevolution.blog.51cto.com/8674155/1386083
http://www.vmware.com/files/cn/pdf/products/vsan/VMware_Virtual_SAN_Whats_New.pdf

看了一下,3台主机就有点困难,每台2块千兆网卡、6GB内存,克服一下还能找到,大容量磁盘也还算容易,要搞3块SSD就难度略大。终于咬了咬牙,自己掏钱在亚马逊下单买了2块SSD,加上自己家里原来有的1块,凑够了3块。不过周二拜访了VMware公司,VMware中国研发中心的林博士却给了我一个建议,可以在虚拟机上模拟嘛。至于SSD问题,书里面第3章讲到某些SSD因为RAID-0控制器无法识别成SSD的时候,可以用命令行来强制指定为SSD,那么在虚拟机的情况下,也可以用同样的方法糊弄一下。我恍然大悟,于是回家在自己家里的ESXi主机上开搞。(那2块SSD的钱啊已经花出去了!哭!)

我家里只有一台DELL Precision T7500的工作站用作实验用的ESXi主机,这台机器是在淘宝上花4000元淘来的DELL的库存货,虽然是3年前的硬件,但是配上XEON处理器和24GB服务器专用内存,玩个服务器虚拟化还是不错滴。
image 

废话一大篓,现在切入正题。

接下去,我就来介绍下如何在一台ESXi主机上配置3个ESXi并组建一个VSAN集群。昨天,我介绍了如何在一台ESXi主机上安装ESXi的客户机(当然这些ESXi本身也是主机哦,还可以在其上部署虚拟机,虽然性能会比较差)。因此,首先就是根据上面所说的硬件条件创建3个虚拟机用来安装ESXi5.5u1。我的配置是每一台主机都包括:

  • 4个CPU(最少2个)
  • 8GB内存
  • 3个硬盘,一个4GB(用来装系统)、一个40GB(模拟成SSD)、一个400GB(提供给vsan存放数据)
  • 2个网络适配器,一个在子网192.168.10.x用于管理和虚拟机网络,一个在子网192.168.20.x,用于VSAN VMkernel
  • 虚拟机版本10

image

注意,为了让ESXi客户机有2个网络适配器,在ESXi主机(本例中起名为esxi01)上的网络配置至少要配置2个不同的端口组,我将这2个端口组分别配置在了2个不同的vSwitch上:

  • vSwitch0,默认vSwitch,配置有管理网络(VMKernel)和VM Network 10端口组
  • vSwitch2,新增的vSwitch,配置有VM Network 20端口组
  • 此外,我还因为有iSCSI存储,因此配置了2个iSCSI的VMKernel分别在vSwitch1和vSwitch2上。

vSwitch0和vSwitch2的配置截图如下:

image

 image
这里有一点要说明的是,如果仅为了vsan网络的通信,vSwitch2可以没有上联的物理适配器,我的截图里面配置了上联的物理适配器是因为我还有一个iSCSI2的VMkernel需要使用。

 

安装3台虚拟机的过程就不赘述了,只要你按照我昨天的文章来操作,就可以顺利完成。安装完之后,照例是配置静态IP地址、FQDN主机名、禁用IPv6、DNS并开启SSH和ESXi SHELL以备之后在控制台输入命令行使用。

需要强调一次的是,在你的实验网络中,需要配置好一台域控制器,它同时也是DNS服务器,并事先在DNS服务器里面添加好静态的ESXi主机的DNS项。在我的实验环境中,它们是:

  • esxi55u01.home.lab – 192.168.10.31
  • esxi55u02.home.lab – 192.168.10.32
  • esxi55u03.home.lab – 192.168.10.33

请在黄色DCUI界面(安装完ESXi主机的初次配置界面)里面测试一下网络,如果主机域名也能顺利解析,那就说明网络配置都完备了。DNS对于正确配置VMware集群来说非常重要。

接下去就是用vSphere Web客户端再次连接到vCenter(我的是vCSA),把这几台新安装的ESXi主机添加进来,添加的时候要用FQDN,不能是IP地址。

现在让我们来看一看这些ESXi主机的磁盘情况(左边窗格点选主机,在右边窗格分别选择管理,存储器和存储设备,如图所示),可以看见置备的3个磁盘都是非SSD。下面要克服的问题是怎样欺骗ESXi,让它以为其中一块40GB的磁盘是SSD,这样才能满足VSAN配置的必要前提条件。

image

让我们进入到这台vSphere ESXi主机的管理控制台界面,在命令行里面输入下面的2条命令,就可以完成:

# esxcli storage nmp satp rule add –satp VMW_SATP_LOCAL –device mpx.vmhba1:C0:T1:L0 –option=enable_ssd
# esxcli storage core claiming reclaim -d mpx.vmhba1:C0:T1:L0


注意,这里的设备ID要填写你所想要变成SSD的那个磁盘,设备ID就是长的像mpx.vmhba1.C0:T1:L0的那个。
输入命令后,如果没有填错,是不返回结果的。

image

回到vSphere Web客户端,刷新一下,你就会发现那个40GB的磁盘的类型变成SSD了。
image

关于VSAN的配置,LeoXiao同学写的很不错,就不重复了。你可以参考他的文章。
http://sanshileilei.blog.51cto.com/3105269/1375551

我借个图说明下顺序:
image 

多说一句,为了测试NIOC功能,而这个功能只有在分布式交换机上才有,所以,建议VSAN集群配置的时候先配置好分布式交换机,并且把VSAN专用的VMkernel建在分布式交换机上。

最后,给大家看一下,要搭建一个VSAN集群的测试环境,在一台主机上至少要配置并开启5台虚拟机——包括1台域控制器,1台vCenter和3台ESXi主机(每台都配了8GB内存哦)。

image

虽然还是有一些网络传输上不稳定的问题,不过vsan数据存储好歹是建起来了。

image

最后的感慨是24GB内存的主机还是缺内存,555,性能还是好差啊~

How to install a nested ESXi 5.5 VM in an ESXi host

 

delxu原创文档。转载请务必著名出处https://delxu.wordpress.comhttp://delxu.blog.51cto.com/

要学习vSphere,但是很多情况下,都需要多台物理设备才能搭建一个环境,没有环境怎么办?如果你已经有了一台现成的ESXi主机,那么一个可行的方法在其上安装几台ESXi虚拟机。

有不少文章已经写了如何在VMware Workstation 8或更高版本上安装ESXi,今天我们来讲如何在ESXi 5.5的hypervisor上安装另一个ESXi 5.5。是的,这是可行的。

当然,这是有一些前提条件和必要的步骤。

首先,你在创建虚拟机的时候,在创建虚拟硬件配置的时候,要注意满足ESXi 5.5安装的最低要求(具体请查询VMware官方手册)我的目的是为了测试VSAN,因此采用的配置为4个CPU,8GB内存,2个网卡(分别在2个不同的子网),厚置备方式的4GB硬盘(注:为测试VSAN还需要2个硬盘,将在以后添加)。具体如下所示:

image

其次,客户机的操作系统的选择非常有意思,你开始是找不到ESXi 5.x的选项的,所以,就随便先选一个Other(64bit)吧。创建完成后,立刻进行虚拟机配置更改,到Options, General Options里面更改操作系统类型,此时,就可以在Other里面找到VMware ESXi 5.x了。

image

如果你用的是中文版vSphere Web Client, 在这个地方可以找到:

image

接下去一个需要注意的地方是, 你必须使用虚拟机版本9或者10(兼容ESXi 5.1的是v9,兼容ESXi 5.5的是v10)所以,这里必须升级到虚拟机版本10。如果你用vSphere Web Client创建的虚拟机,那么可以直接选择虚拟机版本10。如果你是用vSphere Client创建的话,因为vSphere Client最高只能创建版本8的虚拟机,你只能创建v8的。因此,接下去你还是不得不打开vSphere Web Client,并把虚拟机版本升级到10。

鉴于此,我推荐在创建虚拟机阶段就直接使用vSphere Web Client。

除此之外,还有一个必须的选项需要打开,就是要在虚拟机硬件的CPU的属性中,开启硬件虚拟化的功能——向客户机操作系统公开硬件辅助的虚拟化。(英文版对应的是:”Expose hardware-assisted virtualization to the guest operating system.”)。为啥需要这个呢?物理主机安装ESXi的时候,有一个前提条件,需要到BIOS里面开启处理器的虚拟化选项,对不对?现在虚拟机也一样呀,需要让处理器支持虚拟化选项。这个选项起到了同样的作用。注意,这个功能只有在vSphere Web Client中才能设置,在传统的vSphere客户端中是没有的,这再次印证了应该直接使用vSphere Web Client。

插一句,从vSphere 5.0开始,VMware就开始不断引导用户更多地使用Web客户端,很多新的设置必须在Web客户端中才能配置。不过因为没安装vCenter之前是没有web客户端的,因此传统客户端还是有一点点用武之地。如果你的环境是纯粹的虚拟化环境的时候,在安装了第一台ESXi主机后才能在这台主机上部署vCenter或vCSA,那么还是需要先用一下传统客户端的。等到vCenter Server安装配置完毕,web客户端可以开始用以后,就基本上可以一直用web客户端了。

 image

安装的过程很简单,就不多说了。最后,来一张安装成功图。

image

总结一下重点:

  • 用vSphere Web客户端(避免虚拟机版本转换)
  • 通过2次编辑虚拟机属性来更改操作系统为VMware ESXi 5.x
  • 直接创建版本10的虚拟机
  • 开启CPU的硬件虚拟化——向客户机操作系统公开硬件辅助的虚拟化。

Word 2013 无法撤销操作的错误

 

最近翻译一本新书,Word2013用的较多,于是发现了一个奇怪的问题,撤销按钮一直是灰色。编辑的时候闪一下,又变为灰色。按Ctrl-Z也同样不管用。中文资源里面的解决方法都是用winword.exe /safe启动一次,再进入Word就恢复正常了(例如这篇文章)。但是这个方法不是一劳永逸的。我又查了下英文资源,找到一个改注册表的方法。

  1. 关闭正在运行的所有程序。
  2. 按Win-R,在运行框中键入regedit,然后单击“确定”。
  3. 在注册表编辑器中,展开到下列注册表子项:
    Microsoft Office Word 2013

    HKEY_CURRENT_USER\Software\Microsoft\Office\15.0\Word\Options

  4. 在“编辑”菜单上,指向“新建”,然后单击“DWORD 值”。选择“新值 #1”,键入 UndoHistory,然后按 Enter。
  5. 在“编辑”菜单上,单击“修改”。
  6. 在“编辑 DWORD 值”对话框中,单击“基数”下的“十进制”。在“值”框中键入一个介于 0 和 100 之间的值,单击“确定”,然后退出注册表编辑器。 这个值是Undo的次数,不建议设置的太大,一般设成10即可。太大会占用较多的内存资源。
  7. 启动 Word。Word 将按照您在步骤 6 中指定的操作次数存储撤消历史记录。

关于AD域控制器的虚拟化

delxu原创,转发请注明出处https://delxu.wordpress.com/http://delxu.blog.51cto.com/975660/1406183

域控制器(Domain Controller)的虚拟化早已经不是什么新鲜事了。这是因为域控制器(后面简称DC)本身对资源的要求不是很高,从服务器资源角度来考虑很适合虚拟化。但是,传统DC的虚拟化是存在一定的风险的,这主要来自于一些虚拟化的功能例如虚拟机克隆(Clone)或者快照(snapshot)。如果你曾经对DC虚拟机拍过快照,而又不小心进行了快照回滚(Snapshot Rollback),那恭喜你了,很可能你将不得不把这台DC降级为普通服务器,再重新dcpromo来恢复其功能。
为啥DC不能进行快照回滚呢?

因为快照回滚会导致叫做USN Rollback的问题。USN就是Update Sequence Number,是AD用来标注AD变更的一个号,每次AD有信息变更时,这个号都会变大。DC之间进行同步的时候,就靠比较这个USN来发现是否有变更,是否需要同步,谁同步给谁。

DC还维护一个RID Pool。RID(Relative ID)在domain里面必须是唯一的。RID Pool保证了不管新的对象是在哪个DC上创建的,RID都是唯一的。

当发生USN回滚之后,就有可能出现RID重复使用。而且新的对象创建的时候,因为USN回滚过,这个USN可能比较小,其他DC会认为这个创建动作已经被复制过了而拒绝复制,导致DC之间的AD数据库不一致和复制失败。解决的方法不是没有,但是包括很多手动操作,而且基本上是要demote掉这台DC重新promo才行。

新的Windows Server 2012解决了这个问题。它是第一个“虚拟化感知”的Windows Server版本。微软在Windows Server 2012中引入了一个新的标志符(Identifier)——VM-GenerationID,这个标志符仅用于虚拟机DC,但是需要Hypervisor支持。

获得支持的Hypervisor包括Hyper-V 2012,vSphere 5.0 U2,vSphere 5.1或更新版本。

VM-GenerationID的值作为计算机对象的一部分保存在AD中,同时也保存在虚拟机配置文件中。

  • 在AD中,VM-GenerationID的值保存在该Domain Controller计算机对象(computer object)的msDS-GenerationID属性(attribute)里面。
  • 在虚拟机配置文件中,VM-GenerationID的值保存在虚拟机配置文件(.vmx)中,由配置vm.genid来表示。所有Windows Server 2012服务器,无论是否DC,都会在起vmx中有这个配置值。

当出现DC快照回滚或者DC克隆的时候,这台DC开机时会对比虚拟机配置文件中的VM-GenerartionID和AD中的值,如果不一样,就认定此DC是由克隆或者快照回滚产生的,这时候,就会发起一系列的任务,包括重置InvocationID、清空RID Pool来防止USN Rollback错误的出现。并且在清空后发起一次AD数据库的同步,将一个AD数据库的权威版本从其他DC复制回来。
delxu原创,转发请注明出处https://delxu.wordpress.com/http://delxu.blog.51cto.com/975660/1406183
VM-GenerationID是由一个叫做Microsoft Hyper-V Generation Counter的驱动程序来管理和跟踪的。虽然这个驱动程序名字里面含有Hyper-V,它并非只能用于Hyper-V,受支持的vSphere版本也是用这个驱动程序的。如果你的系统里面查不到这个驱动程序,那么很有可能就是因为你的Hypervisor不支持。

要查看Microsoft Hyper-V Generation Counter,请打开Device Manager,从菜单中选择View,然后选择Show hidden devices,然后就可以在右窗格中看见了。(如图所示)

Image(3)

关于AD域控制器的虚拟化的注意事项还有很多,且听下回分解。

delxu原创,转发请注明出处https://delxu.wordpress.com/http://delxu.blog.51cto.com/975660/1406183

vSphere Client界面语言的更改

delxu原创,转载请标注出处。本人博客链接:

墙内:http://delxu.blog.51cto.com
墙外: https://delxu.wordpress.com

因为翻译写作的关系,我需要经常在VMware vSphere Client的英文界面和中文界面之间切换,对照比较。怎样才能最方便的做到这一点呢?不需要在2台电脑上安装2个客户端,你只需要复制一份快捷方式,添加一个参数即可办到。

虽然这个方法很多年前我就知道,但是貌似还是有同学不清楚的,所以写出来放在这里大家可以随时查看。

安装完vSphere Client,启动时候的默认语言是系统的默认语言,也就是如果你的系统是英文版本,默认会显示英文。那么这时候如果想要显示中文的界面怎么办?很简单,只需要加上-locale zh_CN参数即可。中文操作系统下要显示英文的界面也一样,locale设成en_US即可。

右击桌面VMware vSphere Client的图标,选Properties。 
2014-4-20 14-23-11

然后将Target从
“C:\Program Files (x86)\VMware\Infrastructure\Virtual Infrastructure Client\Launcher\VpxClient.exe”
更改为
“C:\Program Files (x86)\VMware\Infrastructure\Virtual Infrastructure Client\Launcher\VpxClient.exe” -locale zh_CN
即可。

更改前的英文登录界面和更改后的中文登录界面截图。

2014-4-14 22-42-27
2014-4-20 14-23-35

我家的网络、极路由和对小米路由器的期盼

 

前几天,极路由发布了其第2代产品——极贰,并且征求50-100个资深玩家进行测试。这个产品名字听起来『极2』,不过鉴于极壹在我家的表现还挺不错的,所以就在论坛上申请了。本来也没抱多大的希望,毕竟全国才选50-100个发烧友,而且最近工作还挺忙的,因此申请之后有一阵没去极路由论坛看看。这2天小米又发布了小米路由器,突然想起这事情来了,就去极路由论坛看了看,没想到,我居然还被选中了(百分之一呢!耶!)。可是客服mm给我的论坛内的私信是一周之前的,要求我给地址名字等联系方式以便寄送路由器,晚了一周,而测试又说只到11月底结束,看来是赶不上了。抱着试一试的态度,给极路由客服mm发了邮件过去,但是被拒了——果然是太迟了(哭)。

 

所以,这次小米路由器的公测,咱怎么也不能再错过了。看到论坛上有同学贴了自家的网络情况,版主大人就直接给了公测的名额。那好,我也来介绍下自家的网络情况吧。希望这样可以打动版主大人哦。

本人也算是一个路由器的小小的发烧友吧。10年前本人还在SMC Networks当过2年的无线路由器的产品经理,虽然不做这一行很久了,但对Wifi技术、对无线路由器芯片BOM啥的也还算有点点了解的。正因为这段经历,我对无线路由器是有那么点小小的藕断丝连的情结的。这些年来,11b、11g、11g+、11n一路过来,家里面用过的无线路由器无数,最早用的是SMC networks自家的产品多个,都是公司的测试品,就不列了。之后买过用过的品牌包括:
TP-Link
D-Link
Netgear
Linksys
ASUS
Huawei
Tenda
Apple
极路由

其中,仅TP-Link就买过WR541G+、WR841N、WR941N、WR702N、WR700N,还有一个千兆双WAN口的TL-R478G+,其实在换上极壹之前,我用的就是R478G+。

下面这个图就是我家的网络拓扑图,不是很全,因为各种有线和无线的网络设备我还有很多,比如小米手机、nokia手机、iPad mini,多个kindle阅读器,Lenovo的笔记本电脑、夏普电视机等等,网络设备还有一台TP-Link的全千兆交换机。不过,相信大多数家庭的网络和我这个也是差不多的。

装修的时候,我买了一个最大号的鸿雁弱电箱,将光猫、路由器和交换机放了进去。由于信不过鸿雁自家的模块化的交换机和路由器(虽然它们和弱电箱本身配合的很好),我只是买了一空箱子,而在里面安装了自己选购的网络设备。

从这个图中,大家可以看见,中心设备是TP-Link千兆交换机(我的思科千兆交换机在台式电脑和NAS附近),路由器是极壹,光猫是电信提供的,光猫已破解并改为网桥模式,所以光猫上只有一条网线通到极壹的WAN端口上了。

由于弱电箱是金属外壳的,对于无线信号会有严重的屏蔽影响,因此我的极壹的无线功能是关闭的。而家里的无线则由2个AP来完成,其中一个是Apple的AirPort Express,另一个是Tenda W150M。事实上,从极壹7月份到手到上周,为了测试我还是一直开启极壹的Wifi功能的,只是使用的时候弱电箱始终开着门,而我自己的座位也离极壹仅2米远。因此,在最近几个月,我家是有3个无线AP同时在提供信号的。这3个AP采用了同样的SSID、同样的WPA2加密模式和同样的密码,但是分别设置了不同的channel到1、6、11(这是为了避免相互干扰),因此我可以无缝地在家里任何一个角落使用Wifi网络。关闭极壹wifi功能主要还是因为没必要,本来我这个弱电箱位置的设计就是只打算放一个有线的路由器的。

当时为啥买了一个R478G+呢?这是因为看中了它的双WAN口功能。我希望的路由器是要有2个WAN口的,当然我也会去配2条线路。设想是这样的:一条链路走宽带通之类的小区宽带,专门用来下载和访问国内网站,另外一条连电信宽带,用来访问国外网站,利用R468G+的VPN功能连到国外的VPN,并且做策略路由,指定只有特殊的网站才走那条线路。双线路的设想一方面是为了保证始终都会有网络可以用,即使某个运营商出了问题,我也不至于断网(宅男面包可以没有,网络不能没有啊,有木有!);另一方面是考虑到流量分流,迅雷电驴这种吃资源的下载就可以和普通的浏览完全分开;当然最主要的还是想让家里所有设备都可以无阻碍地通(FAN)向(QIANG)国际互联网。

结果当然是大失所望。首先R478G+本身的策略路由功能实在太简陋,只能根据目的端IP地址或者源端IP地址(两者之一)来判断,不能通过域名来判断,像google这种具有无数个目的IP地址的完全没法处理。其次,它的VPN功能也很简单,无法满足我的要求;最后,小区聚友网络宽带也让人大失所望,号称100M的网络很不稳定,最快的时候基本能达到100M,但是常常一下慢到连浏览网页都不行。所以,没多久后我就买到极路由,将它彻底替换下来了。

我的极路由是第一代国际版,令人十分满意的是它实现了我的以上诉求,就是可以智能判断,将部分网站(例如Youtube、Goolge Drive等)绕(fan)道(qiang)直接到国际互联网上,而且还具有网站白名单功能,这样我写wordpress的博客文章的时候就可以直接发布,再也不需要手工拨号了。

关于小米路由器,我的希望是,策略路由功能是非常有必要的,即使不提供类(fan)似(qiang)服务,也应该开放一个VPN客户端的功能,大家可以自己负担自己的国际接入嘛。这样自家网络里面的设备就可以都顺利访问所需的网站了。此外流量控制功能也是有必要的,迅雷下载本身就会尽可能多的占用带宽,而小米盒子又需要一定的带宽来播放视频,智能地判断出网络内对流量的需求,保证视频播放的同时,再将富裕带宽分配给P2P下载。

其次,听说小米路由器要和Apple类似,内置1TB硬盘,个人建议这个1TB硬盘可以不放进去,而只是留一个空位让大家自己买硬盘。每个人的需求都不一样,说实话1TB说大也不大,真的装不了多少东西,但是加上这个硬盘却要增加至少300元成本,不如将这个选择权交给用户自己。或许有的用户愿意加一个3TB甚至4TB的硬盘,或许另外一些用户,比如我,已经有了家用NAS,就不需要另外一个NAS设备了。

关于这些设备,有一些我也写过不少博客了,大家有兴趣的话可以去我的博客看看:http://delxu.blog.51cto.com/975660/d-3https://delxu.wordpress.com/

好啦。最后,希望版主大人能给我确保一个公测的小米路由器哦。先行谢过!

FlexPod上安装vSphere 5.5配置中的排错(4)

delxu原创,首发于delxu的技术博客delxu.blog.51cto.com和本人博客delxu.wordpress.com。转载请标明出处。

背景:FlexPod的UCS部分的配置已经完成了,ESXi 5.5主机也安装完成了。在第一台ESXi主机配置的时候,我们连接到了NetApp FAS3220A的一个Volume上,建立了一个NFS datastore。我们在这第一台主机上安装了第一个Windows Server 2008R2操作系统,并安装了vCenter Server 5.5。是的,vSphere的安装配置需要vCenter Server的支持,因此这第一台虚拟机必须是也只能是vCenter。

在还没有vCenter Server之前,第一台ESXi主机是无法配置分布式交换机的,只能配置标准vSwitch。通过标准vSwitch的NFS vmkernel,我们建立了到NAS的万兆链接,这条万兆链路配置在了一个专用的隔离的VLAN中,VLAN ID是63。而ESXi主机的管理端口位于另外一个VLAN 60中。

vCenter建立起来后,我们就把另外2台主机加入到vCenter中进行集中管理,建立了HA/DRS的Cluster,并做了几次vMotion,都很顺利,速度也很快。我们做了一个简单的磁盘性能测试,发现vCenter Server这台虚拟机的本地磁盘读写速度最高只能达到99MB/s。这个性能似乎太慢了点了。

进一步检查,发现原来性能慢的根本原因是我们在配置NFS datastore的时候用错了NAS的接口地址,应该用VLAN63上的地址,我们却用了VLAN60的接口地址,NAS在VLAN60上的接口地址是NAS的管理地址,是一个千兆接口,并不是配置在VLAN63中的万兆接口。因此ESXi主机是在用自己的管理端口通过和NAS的管理端口通讯建立了这个NFS mount。这相当于在管理VLAN上跑存储网络数据了,这个错误必须纠正过来。

我们试图用umount掉当前的datastore再重新mount到正确的接口上的方法来纠正,但是发现这不可行,因为这个datastore上有一台虚拟机在运行!这台虚拟机就是我们的vCenter。

那好,我们就关掉这台vCenter,再用vSphere Client直连ESXi主机管理的方式,来umount这个datastore,这样总行了吧。还是不行!这是因为我们已经建立了一个HA Cluster,从vSphere 5.0开始,为了避免split brain的情况,HA的Cluster多了一个仲裁的方法,就是datastore HB,HA会选定2个datastore作为仲裁datastore,定期访问,来判定主机是否活着。因此,在有HA配置的情况下,这个datastore就是被占用的,被锁定的,无法umount掉。
没有vCenter就没法禁用HA,于是又开启vCenter虚拟机,停用HA,并试图将主机移动到Cluster之外,却发现主机要移出cluster,必须先进入维护模式,那么vCenter VM就会vMotion到另外的主机上,当Cluster里面只剩下一台主机的时候,我们就无法将其移动到Cluster之外去了,这时候必须先关掉最后一台主机上所有的虚拟机,才能移动。可是要关掉的是vCenter VM呀,vCenter关掉之后,就没法进行配置了。。。

写了以上那么多,其实说明了一个问题,当vCenter是一台虚拟机,并且位于其自己管理的主机和群集上的时候,维护工作会处处受限,请一定要小心了。

那有什么办法解决我们这个错误的datastore的问题呢?难道这个错误就必须将错就错,我们就必须一直忍受最高才100MB/s的较慢性能么?

办法是有的,聪明的同学可能已经想到了,那就是——Storage vMotion。

于是我们重新建立了一个NFS的datastore,这次用了正确的VLAN63上的万兆接口。然后。。。。。。storage vmotion。。。问题应该解决了吧?

更大的问题出现了……

Storage VMotion不成功,停在14%很久,期间,新mount的datastore变灰,还多了(inaccessible)的字样。神马!?datastore掉线了?这个问题严重了呢。
我试图browse这个新建datastore,却发现连文件列表都刷新不出来,网络速度异常慢。可是,我们成功mount了这个datastore,说明网络是通的呀。而且在mount之前,我们其实是在主机上ping过NAS的,是能ping通的呀。

回想起来,vMotion不能、datastore变灰、显示inaccessible,这种情况我上次也遇到过,当时的最终原因是思科交换机上的万兆模块是假模块,替换后问题解决的。这次难道模块又有问题?应该不会呀,不过可以肯定的是这个问题多半还是出在网络上。

我怀疑是Jumbo Frame设置不正确。

于是去主机的console上试着ping大包。(ping大包用下面的命令行,记得这是通过vmkernel来ping外部存储的,所以必须用vmkping命令,而不是普通的ping命令)

# vmkping –d –s 8972 10.86.63.11

果然不通。
11-2-2013 7-22-46 PM

于是坚定了我的判断。

Jumbo Frame的配置需要整条链路从一端到另外一端中间每个设备每个接口都支持Jumbo Frame,如果有一处设置不正确,就有可能会有问题。在我们的FlexPod环境下,这包括NAS端口设置、Nexus 5548、FI6248、UCS 网卡、VMware vSwitch这五个部分。再次检查后发现FI6248和Nexus5548上的Jumbo Frame QOS没有正确设置。更改后问题解决。

vmkping 大包成功。Datastore browse 流畅。
11-2-2013 7-23-28 PM 

最后,我们的Storage VMotion也成功了,顺利地将vCenter Server VM迁移到了正确的datastore上来。在所有虚拟机(其实就vCenter这一台啦)都移走之后,这个错误的datastore终于可以被umount了。

那么如何来检查FlexPod这些组件的Jumbo Frame设置呢?下面我会作个简单的介绍:

一、检查NetApp NAS

检查NAS的方法是查看你配置的端口是否设置了MTU 9000。命令行么就是ifconfig <interface_name>

NAS> ifconfig vif11-63
vif11-63: flags=0xb4c863<UP,BROADCAST,RUNNING,MULTICAST,TCPCKSUM> mtu 9000
inet 10.86.63.11 netmask 0xffffff00 broadcast 10.86.63.255
ether 02:a0:98:4e:83:b8 (Enabled interface groups)

二、检查Nexus 5548交换机配置

5548-A# show running-config
.. .. ..
policy-map type network-qos jumbo
  class type network-qos class-fcoe
    pause no-drop
    mtu 2158
  class type network-qos class-default
    mtu 9000
    multicast-optimize
system qos
  service-policy type network-qos jumbo


找到其中有如上配置,即可。记得2台5548都要检查。如果没有,那就configure terminal进入配置模式,然后把上面这几条命令输入进去。

三、检查FabricInterconnect 6248
在UCSM的管理界面中,LAN页,在Filter下拉菜单中选择选择LAN Cloud。并找到QoS System Class,然后检查右侧Best Effort的MTU应该设置为9000
11-2-2013 7-02-14 PM 

四、检查UCS网卡的设置
在UCSM的管理界面中,选择Servers页,在Filter下拉菜单中选到Service Profiles,然后找到vNICs中配置给存储网络的那几个网卡。
11-2-2013 7-32-42 PM
然后在右侧检查MTU值是否已经是9000了。
11-2-2013 7-33-55 PM

修改需要到该vNIC对应的vNIC Template里面去修改哦。

五、检查VMware标准vSwitch配置
在vSphere Client管理界面中,左边选择要查看的ESXi主机,右边选Configuration页,检查Networking配置。
选ESX_NFS这个VMkernel,点Properties
11-2-2013 7-34-55 PM 

然后就可以查看vSwitch和用于NFS的这个vmkernel的MTU设置是否是9000。
11-2-2013 7-35-33 PM

11-2-2013 7-36-15 PM

delxu原创,首发于delxu的技术博客delxu.blog.51cto.com和本人博客delxu.wordpress.com。转载请标明出处。