* Realize o download do CoreOS e disponibilize no compartilhamento ISO.
* Defina 2GB de memória
* Inicialmente gere a chave RSA para o ssh em uma estação Linux, esta chave sera usada para realizar a conexão no terminal do CoreOS.
$ ssh-keygen -t rsa -C "for CoreOS-001 Stable" -f ~/.ssh/CoreOS-001
Generating public/private rsa key pair.
Enter file in which to save the key (/home/<USER>/.ssh/id_rsa): < Pressione ENTER ou ajuste conforme necessário>
Enter passphrase (empty for no passphrase): <Insira ou deixe em branco>
Enter same passphrase again: <repita conforme acima>
Your identification has been saved in /home/abatista/.ssh/id_rsa.
Your public key has been saved in /home/abatista/.ssh/id_rsa.pub.
The key fingerprint is:
SHA256:/j0gNc0........zNpc for CoreOS Stable
The key's randomart image is: ....
* Agora visualize a chave e copie
$ cat ~/.ssh/CoreOS-001.pub
* Iniciar o processo de instalação de uma nova VM com o CoreOS e utilizando o template CoreOS.
* Durante os parâmetros de configuração da VM em Cloud-Config Parameters ajuste o parâmetro abaixo descomente e insera a chave RSA copiada anteriormente e altere o nome do servido etcd.
hostname: coreos001
- ssh-rsa <Your public key>
...
coreos:
units:
- name: etcd.service <- Alterar de etcd para etcd2.service Para versões CoreOS abaixo de 1745.7.0
- name: etcd.service <- Alterar de etcd para etcd-member.service Para versões CoreOS a partir de 1745.7.0
- name: etcd2.service <- Utilizando o XCP-NG 7.6+ funciona
- name: etcd-member.service <- Utilizando o XCP-NG 7.6+ funciona
....
locksmith: <- define a reincialização após atualização somente nas segundas entre 3:00 a 4:00.
reboot_strategy: "etcd-lock"
window_start: "Mon 3:00"
window_length: "1h"
Nota: A alteração do nome do serviço etcd no arquivo cloud-config é somente para versões CoreOS acima de 1409.2.0, sem essa alteração não é possível gerenciar os docker no XenCenter.
* Após conhecer o IP Libere o acesso a internet para a VM CoreOS para realizar o download dos pacotes.
$ sudo coreos-install -d /dev/xvda -o xen -C stable
$ sudo poweroff
* Após deligar acessar as propriedades da VM e ajustar:
- Container Management
* Enable container management for this VM
- Ou em modo texto
# ssh root@XENSERVER
# xe vm-param-set uuid=e15fb05f-57fd-50ad-a129-348a489d4554 other-config:xscontainer-monitor=True
* Desmonte a ISO
* Start VM CoreOS
* Em uma estação acesse o console do CoreOS e execute:
$ ssh core@<IP>
$ docker run --name hello -d busybox /bin/sh -c "while true; do echo Hello World; sleep 1; done"
* Opcional. Caso o acesso remoto falhe e apresenta a mensagem abaixo e solicitando a senha continuamente execute os comandos logo mais abaixo:
sign_and_send_pubkey: signing failed: agent refused operation
Password:
$ ssh-add <- Adiciona entradas RSA
$ ssh-add -l
https://cloud.ibm.com/docs/FileStorage?topic=FileStorage-mountingCoreOS
Referencias
*
* Deletar um Array RAID
- Descubra o caminho do Array e dois ajuste nos comandos abaixo:
# mdadm --stop /dev/mdXXX
# mdadm --remove /dev/mdXXX
TESTAR
* Those are not included in the guest tools ISO distributed with XCP-ng for legal reasons.
* Uma questão a ser observada é que o XCP não contem Windows Guest Tools nativo, portanto é necessário habilitar Windows Update tools nas propriedades avançadas da VM e depois realizar o Windows Update e baixar o Guest Tools e instalar.
* instalar xentools para o pfsense ou FreeNAS
[root@pfSense]/root: pkg install xe-guest-utilities
* Instalar o serviço zfs no XCP-ng siga os passos abaixo abaixo:
# yum install --enablerepo="xcp-ng-extras" blktap vhd-tool
# yum install --enablerepo="xcp-ng-extras" kmod-spl-4.4.0+10 kmod-zfs-4.4.0+10 spl zfs
# depmod -a && modprobe zfs
* Escolha um modo array de disco abaixo:
- Single disk (No RAID)
# zpool create -f Local_storage_2 /dev/disk1 <- Testar criar com o comando # zfs create "pool name"/zfsstorage
- RAID 0
# zpool create -f Local_storage_2 /dev/disk1 /dev/disk2
- RAID 1
# zpool create -f Local_storage_2 mirror /dev/disk2 /dev/disk3
# zpool add Local_storage_2 mirror /dev/disk4 /dev/disk5
- RAID 10
# zpool create -f Local_storage_2 mirror /dev/disk1 /dev/disk2 mirror /dev/disk3 /dev/disk4
- RAID 5
# zpool create -f Local_storage_2 raidz /dev/disk1 /dev/disk2 /dev/disk3 /dev/disk4
- RAID z2
# zpool create -f Local_storage_2 raidz2 /dev/disk1 /dev/disk2 /dev/disk3 <- Minimo de 3 drives
- RAID z3
# zpool create -f Local_storage_2 raidz3 /dev/disk1 /dev/disk2 /dev/disk3 /dev/disk4
- Add novos discos
# zpool add Local_storage_2 /dev/diskX
- Destruir pool
# zpool destroy Local_storage_2
* Finalize a criação do dataset
#
# zfs set sync=disabled "pool name"
# echo 5 > /sys/module/zfs/parameters/zfs_txg_timeout
# zfs set compression=lz4 "pool name"
# zfs set atime=off "pool name"
# zpool status
# xe sr-create host-uuid=<HOST_UUID> name-label=Local_storage_2 type=file other-config:o_direct=false device-config:location=/Local_storage_2
# zpool iostat -v 1
Reinstalação/Upgrade XenServer
Nota: O processo de reinstalação/update é basicamente o mesmo da instalação, porem NUNCA deve-se eliminar o POOL. No POOL existe todas as configurações ativas de storage e/ou vms, siga os passos abaixo para proceder a reinstalação/update.
Reinstalação
Desative o HA
Mova todas as vms de um host para o outro
Eleja o host com as vms como Master
Retire o host que nao possui nenhuma vm do POOL
Inicie o processo de instalação, seguindo os mesmos passos básicos de instalação
Após a instalação reconfigurar as networks
Fazer o upgrade de todos os Hotfix
Ingressar ao POOL
Atualização XenServer
Upgrade Instalação
O host master tem que ser atualizado por primeiro
Fazer backup do script de backup das vms que esta no caminho /home/backup
Desabilitar o HA
Migrar as vm´s para o host slave
Reiniciar o host master com o CD da nova versão do XenServer
Seguir os passos para realizar do upgrade da versão
Após o upgrade instalar os hotfix da versão do XenServer
Mover as vm´s para o host atualizado
Reiniciar o host slave com o CD da nova versão do XenServer
Seguir os passos para realizar do upgrade da versão
Após o upgrade instalar os hotfix da versão do XenServer
Habilitar o licenciamento que esta no 10.0.0.40:27000
Habilitar o HA
Balancear as vm´s nos hosts
(OPICIONAL)
Habilitar o multipathing
Instalação Hotfix
Ordem de instalação deve serguir a mesma forma como é realizada a atualização de verão, iniciar no host Master a aplicação dos Hotfix.
* Caso apresente alto consumo de armazenamento no /var/log execute os comandos abaixo para limpar logs mais velhos
# rm -rf /var/log/audit.log.[2-9].gz && rm -rf /var/log/boot.log.[2-9].gz && rm -rf /var/log/cron.[2-9].gz && rm -rf /var/log/daemon.log.[2-9].gz && rm -rf /var/log/interface-rename.log.[2-9].gz && rm -rf /var/log/kern.log.[2-9].gz && rm -rf /var/log/maillog.[2-9].gz && rm -rf /var/log/messages.[2-9].gz && rm -rf /var/log/secure.[2-9].gz && rm -rf /var/log/SMlog.[2-9].gz && rm -rf /var/log/spooler.[2-9].gz && rm -rf /var/log/user.log.[2-9].gz && rm -rf /var/log/VMSSlog.[2-9].gz && rm -rf /var/log/xcp-rrdd-plugins.log.[2-9].gz && rm -rf /var/log/xensource.log.[2-9].gz && rm -rf /var/log/xenstored-access.log.[2-9].gz && rm -rf /var/log/yum.log.[2-9].gz && rm -rf /var/log/crit.log.[2-9].gz
ARQUIVO MORTO
XOA
Metodo 2 (Em desenvolvimento)
https://github.com/Jarli01/xenorchestra_installer
curl https://raw.githubusercontent.com/Jarli01/xenorchestra_installer/master/xo_install.sh | bash
Metodo 3 (Em desenvolvimento)
# apt update
# apt install build-essential redis-server libpng-dev git python-minimal nfs-common curl apt-transport-https libvhdi-utils nfs-common lvm2 cifs-utils
# curl -sL https://deb.nodesource.com/setup_8.x | bash -
# curl -sS https://dl.yarnpkg.com/debian/pubkey.gpg | apt-key add -
# echo "deb https://dl.yarnpkg.com/debian/ stable main" | tee /etc/apt/sources.list.d/yarn.list
# apt update && apt install nodejs yarn
# cd /opt
# git clone -b master http://github.com/vatesfr/xen-orchestra
# sed -i 's/< 5/> 0/g' /opt/xen-orchestra/packages/xo-web/src/xo-app/settings/config/index.js
# cd xen-orchestra/
# yarn
# yarn build
# cd /packages/xo-server
# cp sample.config.toml .xo-server.toml
# sed -i "s|#'/' = '/path/to/xo-web/dist/'|'/' = '/opt/xen-orchestra/packages/xo-web/dist'|" .xo-server.toml
# ln -s /opt/xen-orchestra/packages/xo-server/xo-server.service /lib/systemd/system/xo-server.service
# systemctl daemon-reload
# systemctl enable xo-server.service
# systemctl start xo-server.service
https://mangolassi.it/topic/11913/xen-orchestra-plugin
* OPCIONAL - Alterar o tamanho da partição de instalação do Xen.
* Realizar o boot do XenServer pressionar F2 para abrir o modo "Standard" e digitar shell
Versão 6.5 e anterior
* Editar o arquivo # vi /opt/xensource/installer/constants.py e ajustar os parametros
root_size = 20480
swap_size = 1024
Versão 7.0
* Editar o arquivo # vi /opt/xensource/installer/constants.py e ajustar os parametros
root_mbr_size = 20480
root_gpt_size = 20480
root_backup_size = 20480
Versão 7.1 e superior
* Não necessita ajustes iniciais
Install Portainer.IO
* O Portainer é um gerenciador Docker em modo web. Para instalar acesse o console do CoreOS e execute o comando abaixo:
$ docker run -d -p 9000:9000 --name Portainer --restart always -v /var/run/docker.sock:/var/run/docker.sock portainer/portainer
* Após basta acessar via web http://<IP_HOST_DOCKER>:9000 e segir os passos para criação de senha e acesso.
* Acesse Settings > Authentication > LDAP authentication
LDAP URL: <IP>:386/3268
Reader DN: <USER>@dominio.local ou DOMAIN\<USER> ou cn=<USER>,dc=domain,dc=local
Password: <PASS>
Connectivity check: Clique em Test connectivity
Base DN: dc=dominio,dc=local
Username attribute: sAMAccountName
Filter: (memberOf=CN=GG_Grupo,OU=Groups,DC=dominio,DC=local)
Clique em Save settings
* Acesse Settings > User management e adicione um usuario do grupo
Username: <User>
Administrator: Enable
Clique em Add user
* Rodar como Standalone
$ docker run --name Wildfly -it jboss/wildfly
* Rodar como domain mode
$ docker run --name Wildfly -it jboss/wildfly /opt/jboss/wildfly/bin/domain.sh -b 0.0.0.0 -bmanagement 0.0.0.0