Показаны сообщения с ярлыком vmware. Показать все сообщения
Показаны сообщения с ярлыком vmware. Показать все сообщения

03.03.2016

VMware NSX for vSphere и Nutanix Xtreme Computing Platform (XCP + NSX)

На примере ниже трафик подсистемы хранения передаётся между узлами (хостами) через VLAN 101, а трафик рабочих виртуальных машин, инкапсулированный в VXLAN, передаётся через VLAN 401.


NSX используется как для рабочей нагрузки, так и для Nutanix CVM.
В альтернативном варианте, показанном ниже, к сети NSX подключены как рабочие виртуальные машины, так и Nutanix CVM. Связь между CVM на разных узлах кластера Nutanix обеспечивается по виртуальной сети 5000. Адресация виртуальных адаптеров для управления и VXLAN, в приведённом примере, иллюстрирует ситуацию, когда два узла кластера находятся в разных серверных стойках, разделённых маршрутизатором. Инкапсуляция пакетов в VXLAN позволяет преодолеть это ограничение.




Заключение
Использование VMware NSX с Nutanix даёт системным администраторам возможность построения мощных и гибких решений, свободных от ограничений традиционных физических инфраструктур. Платформа Nutanix Xtreme Computing Platform (XCP) предоставляет вычислительные ресурсы и подсистему хранения, в то время как NSX создаёт виртуальную сетевую инфраструктуру, не привязанную к физическим сетевым компонентам. В Nutanix проверили, что оба эти компонента успешно интегрируются друг с другом в результате чего достигаются все преимущества, предоставляемые программно-определяемым ЦОД, включая логическое разделение инфраструктуры хранения, изоляцию виртуальных сетей, политики безопасности, перемещаемые вместе с виртуальными машинами и автоматизацию рабочих процессов.
Nutanix with VMware NSX позволяет администраторам сфокусироваться на построении масштабируемых приложений, так как вне зависимости от того, где работает виртуальная машина, она всегда будет иметь доступ к необходимым ресурсам. Стабильная и надёжная физическая инфраструктура предоставляет основу для гибкой и удобной виртуальной сети, всегда готовой к расширению при необходимости.

05.02.2016

Fast Malware Sandbox Create [Noriben+VMware+Windows+LOKI]

Мой опыт быстрого развертывания портативной среды анализа малвари, на основе vmware и noribien. (аналог Cuckoo)

Скачать все тулзы (что ниже) одним архивом + батники запуска анализа:
https://mega.nz/#F!cAc0XSAA!gyHheyBPOeQ_M44U77DXaw
Или собираем с самыми свежими версиями софта:

VMware
Для начала устанавливаем VMware Workstation. На момент теста у меня стояла 12.1.0 build-3272444. (Pro)
После чего устанавливаем VMware VIX 1.15.0 API for Windows 64-bit operating systems (для каждой вервии вари свой vix)
для 12.1.0 вари: http://www.tuinformaticafacil.com/descargas-gratis/virtualizacion/vmware/vmware-vix-api-para-windows-32-bit-y-64-bit


Windows Malware VM
Для быстроты развертывания можно взять готовый образ Windows XP с официального сайта мелкософта: https://dev.windows.com/en-us/microsoft-edge/tools/vms/windows/
Скачиваем образ по варю и деплоим виртуалку.
После деплоя, нужно довесить сетевуху и обновить vmware-tools, ребутимся.
Далее скачиваем необходимый софт:

28.07.2015

convert qcow2 vmdk

 [from qcow2 to vmdk]
qemu-img convert -f qcow2 -O vmdk whatever.qcow2 whatever.vmdk
[from qcow2 to raw]
qemu-img convert -f qcow2 kvm_source.img -O raw kvm_destination.img 

Syslog Servers for ESXi [esxcli]


1. Enable ESXi Firewall

You will need to enable the syslog rule in the ESXi firewall (only in ESXi 5.0):

$ esxcli --server esxi1 --username root network firewall ruleset set --enabled yes --ruleset-id syslog

Note: The default syslog ruleset allows UDP/TCP 514 and TCP 1514, if you choose to use a different port you will need to update firewall ruleset.

2. Configure Syslog Servers

To specify more than one syslog server, you will need to separate them using a comma. By default, the host will use UDP protocol and port 514. However, you can specify tcp or ssl as the protocol to be used as well as the port number:

$ esxcli --server esxi1 --username root system syslog config set --loghost 
10.20.182.46,tcp://10.20.182.50:514,ssl://10.20.182.52:1514

Note: You can also authenticate against vCenter Server by specifying the --vihost parameter
3. Reload Syslog Configuration

For the syslog configuration to take effect, you will need to reload the configuration:

$ esxcli --server esxi1 --username root system syslog reload

configSyslog.sh

#!/bin/bash
# William Lam
# http://blogs.vmware.com/vsphere/automation/

PASSWORD=

if [[ $# -ne 3 ]]; then
 echo -e "\nUsage: $0 [USERNAME] [HOSTLIST] [SYSLOG_SERVERS]\n"
 exit 1
fi

if [ -z ${PASSWORD} ]; then
 echo -e "You forgot to set the password in the script!\n"
 exit 1
fi

08.07.2015

Unified Networking Lab vMX/VSRX

this is how to import vMX.ova in unetlab, it's working for me :
Upload the downloaded image : vMX.ova to the UNetLab
# mv vMX.ova vmx-14.1R1.10-domestic.ova
# mkdir tmp
# cd tmp
# tar xf ../vmx-14.1R1.10-domestic.ova
# mkdir -p /opt/unetlab/addons/qemu/vmx-14.1R1.10-domestic
# mv hda.qcow2 /opt/unetlab/addons/qemu/vmx-14.1R1.10-domestic
# cd ..
# rm -rf tmp
# /opt/unetlab/wrappers/unl_wrapper -a fixpermissions
login : root
pass : root123
and this is all, enjoy !!!

IMPORTING JUNIPER VSRX IMAGES
The following procedure refers to the most recent and supported image only. Older images should work too. Remember that UNetLab image names are strongly suggested for lab portability.
Upload the downloaded image to the UNetLab master node using for example FileZilla or WinSCP. Then login as root using SSH protocol and uncompress it:
mkdir tmp
cd tmp
tar xf ../junos-vsrx-12.1X44-D10.4-domestic.ova
Then convert the disk to the qcow2 format:
/opt/qemu/bin/qemu-img convert -f vmdk -O qcow2 junos-vsrx-12.1X44-D10.4-domestic-disk1.vmdk hda.qcow2
Create the UNetLab image:
mkdir -p /opt/unetlab/addons/qemu/vsrx-12.1X44-D10.4-domestic
mv hda.qcow2 /opt/unetlab/addons/qemu/vsrx-12.1X44-D10.4-domestic
Clean and fix permissions:
cd ..
rm -rf tmp
/opt/unetlab/wrappers/unl_wrapper -a fixpermissions
Default username is admin without password.

15.05.2015

Скрипты втонастройки клиент/сервера Puppet script


Installing Puppet Master and Agents on Multiple VM Using Vagrant and VirtualBox


Automatically provision multiple VMs with Vagrant and VirtualBox. Automatically install, configure, and test Puppet Master and Puppet Agents on those VMs.



06.05.2015

Juniper virtual MX / vMX install

dependencies (Ubuntu 14.04):

sudo su - && apt-get update && apt-get install linux-headers-3.13.0-32-generic bridge-utils qemu-kvm libvirt-bin python python-netifaces vnc4server libyaml-dev python-yaml numactl libparted0-dev libpciaccess-dev libnuma-dev libyajl-dev libxml2-dev libglib2.0-dev libnl-dev libnl-dev python-pip python-dev libxml2-dev libxslt-dev -y



KVM install and check CPU on ESXI


Check that your CPU supports hardware virtualization

To run KVM, you need a processor that supports hardware virtualization. Intel and AMD both have developed extensions for their processors, deemed respectively Intel VT-x (code name Vanderpool) and AMD-V (code name Pacifica). To see if your processor supports one of these, you can review the output from this command:

egrep -c '(vmx|svm)' /proc/cpuinfo


If 0 it means that your CPU doesn't support hardware virtualization.

If 1 or more it does - but you still need to make sure that virtualization is enabled in the BIOS.

By default, if you booted into XEN kernel it will not display svm or vmx flag using the grep command. To see if it is enabled or not from xen, enter:

cat /sys/hypervisor/properties/capabilities


You must see hvm flags in the output.

Alternatively, you may execute:

kvm-ok