搜尋此網誌
2017年1月24日 星期二
YUM fastmirror
yum makecache fast
yum install -y yum-plugin-fastestmirror
完成 fastestmirror 的安裝後,要確定已被啟用。
編輯 /etc/yum/pluginconf.d/fastestmirror.conf 並確認擁有下面幾行:
[main]
verbose = 0
socket_timeout = 3
enabled = 1
hostfilepath = /var/cache/yum/timedhosts.txt
maxhostfileage = 1
另外,
大陸區可以先去阿里雲抓取 Mirror 定義檔
cd /etc/yum.repos.d/
wget http://mirrors.aliyun.com/repo/Centos-7.repo
mv CentOS-Base.repo CentOS-Base.repo.bak
cp Centos-7.repo /etc/yum.repos.d/CentOS-Base.repo
yum clern all
yum makecache fast
驗證一下,看看是否能順利安裝
yum -y install htop iftop multitail
接下來,EPEL 方面
mkdir /root/epel
cd /root/epel
wget http://dl.fedoraproject.org/pub/epel/7/x86_64/e/epel-release-7-9.noarch.rpm
yum -y localinstall epel-release-7-9.noarch.rpm
或者是
rpm -Uvh http://dl.fedoraproject.org/pub/epel/7/x86_64/e/epel-release-7-9.noarch.rpm
- The End -
參考 https://wiki.centos.org/zh-tw/PackageManagement/Yum/FastestMirror
yum install -y yum-plugin-fastestmirror
完成 fastestmirror 的安裝後,要確定已被啟用。
編輯 /etc/yum/pluginconf.d/fastestmirror.conf 並確認擁有下面幾行:
[main]
verbose = 0
socket_timeout = 3
enabled = 1
hostfilepath = /var/cache/yum/timedhosts.txt
maxhostfileage = 1
另外,
大陸區可以先去阿里雲抓取 Mirror 定義檔
cd /etc/yum.repos.d/
wget http://mirrors.aliyun.com/repo/Centos-7.repo
mv CentOS-Base.repo CentOS-Base.repo.bak
cp Centos-7.repo /etc/yum.repos.d/CentOS-Base.repo
yum clern all
yum makecache fast
驗證一下,看看是否能順利安裝
yum -y install htop iftop multitail
接下來,EPEL 方面
mkdir /root/epel
cd /root/epel
wget http://dl.fedoraproject.org/pub/epel/7/x86_64/e/epel-release-7-9.noarch.rpm
yum -y localinstall epel-release-7-9.noarch.rpm
或者是
rpm -Uvh http://dl.fedoraproject.org/pub/epel/7/x86_64/e/epel-release-7-9.noarch.rpm
- The End -
參考 https://wiki.centos.org/zh-tw/PackageManagement/Yum/FastestMirror
2017年1月22日 星期日
將 USB 當成 VMFS Datastore
參考 USB Devices as VMFS Datastore in vSphere ESXi 6.5
http://www.virten.net/2016/11/usb-devices-as-vmfs-datastore-in-vsphere-esxi-6-5/
參考 USB Devices as VMFS Datastore in vSphere ESXi 6.0
http://www.virten.net/2015/10/usb-devices-as-vmfs-datastore-in-vsphere-esxi-6-0/
先 SSH 登入 ESXI,停止 USB 服務
/etc/init.d/usbarbitrator stop
查現有的儲存媒體清單
ls /dev/disks/
假設USB裝置名稱是 t10.Generic_STORAGE_DEVICE__
而USB裝置的第一個 partition 是 t10.Generic_STORAGE_DEVICE__:1
如果直接對第一個 partition 格式化,指令:
vmkfstools -C vmfs5 -S USB-Datastore /dev/disks/t10.Generic_STORAGE_DEVICE__:1
成功會出現:
Successfully created new volume: 58854a69-906db2a6-d2df-3497f6831c8b
設置儲存裝置的磁碟分割格式為gtp 指令:
partedUtil mklabel /dev/disks/t10.Generic_STORAGE_DEVICE__ gpt
刪除一個 partition 指令:
partedUtil delete /dev/disks/t10.Generic_STORAGE_DEVICE__ 1
創建一個 partition 指令:
partedUtil setptbl /dev/disks/t10.Generic_STORAGE_DEVICE__ gpt "1 2048 60629309 AA31E02A400F11DB9590000C2911D1B8 0"
對第一個 partition 格式化指令:
vmkfstools -C vmfs5 -S USB-Datastore /dev/disks/t10.Generic_STORAGE_DEVICE__:1
格式化完成之後,就會出現 USB-Datastore 的磁碟
vmkfstools -C vmfs5 -S USB-Datastore /dev/disks/t10.Generic_STORAGE_DEVICE__:1
註:AA31E02A400F11DB9590000C2911D1B8 是 VMFS 代號
http://www.virten.net/2016/11/usb-devices-as-vmfs-datastore-in-vsphere-esxi-6-5/
參考 USB Devices as VMFS Datastore in vSphere ESXi 6.0
http://www.virten.net/2015/10/usb-devices-as-vmfs-datastore-in-vsphere-esxi-6-0/
先 SSH 登入 ESXI,停止 USB 服務
/etc/init.d/usbarbitrator stop
查現有的儲存媒體清單
ls /dev/disks/
假設USB裝置名稱是 t10.Generic_STORAGE_DEVICE__
而USB裝置的第一個 partition 是 t10.Generic_STORAGE_DEVICE__:1
如果直接對第一個 partition 格式化,指令:
vmkfstools -C vmfs5 -S USB-Datastore /dev/disks/t10.Generic_STORAGE_DEVICE__:1
成功會出現:
Successfully created new volume: 58854a69-906db2a6-d2df-3497f6831c8b
設置儲存裝置的磁碟分割格式為gtp 指令:
partedUtil mklabel /dev/disks/t10.Generic_STORAGE_DEVICE__ gpt
刪除一個 partition 指令:
partedUtil delete /dev/disks/t10.Generic_STORAGE_DEVICE__ 1
創建一個 partition 指令:
partedUtil setptbl /dev/disks/t10.Generic_STORAGE_DEVICE__ gpt "1 2048 60629309 AA31E02A400F11DB9590000C2911D1B8 0"
對第一個 partition 格式化指令:
vmkfstools -C vmfs5 -S USB-Datastore /dev/disks/t10.Generic_STORAGE_DEVICE__:1
格式化完成之後,就會出現 USB-Datastore 的磁碟
vmkfstools -C vmfs5 -S USB-Datastore /dev/disks/t10.Generic_STORAGE_DEVICE__:1
註:AA31E02A400F11DB9590000C2911D1B8 是 VMFS 代號
如何在 Synology 上設定 NFS 讓 ESXI 連結使用(傳輸速度超快)
先下載準備好 Synology NFS VAAI Plug-in
1. 將 esx-nfsplugin.vib 上傳至 ESXI 的 datastore1 根目錄下。
SSH 連線至您的 ESXi 主機,然後執行下列指令。請確認
esxcli software vib install -v /vmfs/volumes/datastore1/esx-nfsplugin.vib --no-sig-check
然後 ESXI需重新開機
2. ESXI重新開機後,SSH 登入 esxi
輸入下列指令來確認是否已成功安裝 Synology NFS VAAI VIB
esxcli software vib list | grep nfs
可以看到安裝成功的提示。
3. 至 Synology NAS 啟用 NFS 服務
控制台>文件服務>啟動NFS 服務及啟用NFSV4>確定
4. 至共享文件,編輯共享文件夾的NFS規則
IP 欄位填入 ESXI 主機的IP > 確定
底下會看到裝載路徑的提示,例如:
/volume3/images
5. 至ESXI 控制台裡面去新增新的 datastore
選掛接 NFS 資料存放區
NFS Server IP 填入 NAS 的IP
NFS 共用填入 /volume3/images
NFS 版本必須選 NFS3
參考 How to setup NFS on Synology
在 windows 下查看 NFS 分享清單
showmount -e 192.168.1.200
連線網路磁碟
mount \\192.168.1.200\volume3\images z:
- The End -
1. 將 esx-nfsplugin.vib 上傳至 ESXI 的 datastore1 根目錄下。
SSH 連線至您的 ESXi 主機,然後執行下列指令。請確認
esxcli software vib install -v /vmfs/volumes/datastore1/esx-nfsplugin.vib --no-sig-check
然後 ESXI需重新開機
2. ESXI重新開機後,SSH 登入 esxi
輸入下列指令來確認是否已成功安裝 Synology NFS VAAI VIB
esxcli software vib list | grep nfs
可以看到安裝成功的提示。
3. 至 Synology NAS 啟用 NFS 服務
控制台>文件服務>啟動NFS 服務及啟用NFSV4>確定
4. 至共享文件,編輯共享文件夾的NFS規則
IP 欄位填入 ESXI 主機的IP > 確定
底下會看到裝載路徑的提示,例如:
/volume3/images
5. 至ESXI 控制台裡面去新增新的 datastore
選掛接 NFS 資料存放區
NFS Server IP 填入 NAS 的IP
NFS 共用填入 /volume3/images
NFS 版本必須選 NFS3
參考 How to setup NFS on Synology
在 windows 下查看 NFS 分享清單
showmount -e 192.168.1.200
連線網路磁碟
mount \\192.168.1.200\volume3\images z:
- The End -
2017年1月20日 星期五
修復centos 7 開機grub失敗
用 Clonezilla 再生龍 製作 centos7 映像檔出來後,還原回去之後卻
出現 symbol grub_xputs not found 這字樣 就停在 grub>
解決方式:
1.先用 centos 開機救援光碟開機進入 linux rescue 救援模式
2.進行以下指令步驟
#chroot /mnt/sysimage (將/mnt/sysimage 設為 root (/))
#sudo su
[root#]grub2-mkconfig -o /boot/grub2/grub.cfg
[root#]grub2-install /dev/sda
exit
exit
reboot
開機之後,可能發現網卡編號已經被 GRUB 修改了,
安裝 NetworkManager-tui 解決網卡設置問題
yum install -y NetworkManager-tui
執行
nmtui
另外有網友還分享了這個也很棒 Super Grub2 Disk
參考原文1
參考原文2
GRUB 設置參考
出現 symbol grub_xputs not found 這字樣 就停在 grub>
解決方式:
1.先用 centos 開機救援光碟開機進入 linux rescue 救援模式
2.進行以下指令步驟
#chroot /mnt/sysimage (將/mnt/sysimage 設為 root (/))
#sudo su
[root#]grub2-mkconfig -o /boot/grub2/grub.cfg
[root#]grub2-install /dev/sda
exit
exit
reboot
開機之後,可能發現網卡編號已經被 GRUB 修改了,
安裝 NetworkManager-tui 解決網卡設置問題
yum install -y NetworkManager-tui
執行
nmtui
另外有網友還分享了這個也很棒 Super Grub2 Disk
參考原文1
參考原文2
GRUB 設置參考
強制每次VM 開機都先進入BIOS設定畫面
vmx 檔案加入一行
bios.forceSetupOnce = "TRUE"
強制以 CDROM 開機則加入這一行
bios.bootOrder = "CDROM"
bios.forceSetupOnce = "TRUE"
強制以 CDROM 開機則加入這一行
bios.bootOrder = "CDROM"
2017年1月18日 星期三
透過 Backup & Restore 加速 elasticsearch
直接將一台已經建立好索引的 ES,透過 FTP 方式將 NODE 資料,整個複製到一台新ES上,然後立刻讓新的 ES 能夠工作,一種人工手動複製的方法,適合實驗環境:
1. 先將 新ES 的服務停止:
2. 找出 源頭ES 的 NODE 資料,一般是指這個資料匣: /var/lib/elasticsearch/elasticsearch
然後將 elasticsearch 資料匣複製到 新ES上的
/var/lib/elasticsearch/
3. 啟動 新ES 的服務,並觀察 elasticsearch.log 內容
這樣就結束。
另外,以下是處理索引倉庫的部分, 僅參考用
在已經安裝好ES 的新機上
1. 備份 /var2/es_backup
2. 刪除 /var2/es_backup
3. 創建 /var2/es_backup
4. 改變 owner
chown -R elasticsearch:elasticsearch /var2/es_backup
5. 改變屬性
chmod -R 777 /var2/es_backup
chmod +t /var2/es_backup
6. 將資料FTP過來
7. 檢查
curl -XGET "localhost:9200/_snapshot/es_backup/_all"
8. 準備復原資料
curl -XPOST "localhost:9200/_all/_close"
curl -XPUT localhost:9200/_cluster/settings -d '{
"persistent" : {
"cluster.routing.allocation.node_concurrent_recoveries" : "5"
}
}'
curl -XPUT localhost:9200/_cluster/settings -d '{
"persistent" : {
"indices.recovery.max_bytes_per_sec": "200mb",
"indices.recovery.concurrent_streams": 5
}
}'
curl -XPOST "localhost:9200/_snapshot/es_backup/20170101/_restore?wait_for_completion=true"
- The End -
1. 先將 新ES 的服務停止:
2. 找出 源頭ES 的 NODE 資料,一般是指這個資料匣: /var/lib/elasticsearch/elasticsearch
然後將 elasticsearch 資料匣複製到 新ES上的
/var/lib/elasticsearch/
3. 啟動 新ES 的服務,並觀察 elasticsearch.log 內容
這樣就結束。
另外,以下是處理索引倉庫的部分, 僅參考用
在已經安裝好ES 的新機上
1. 備份 /var2/es_backup
2. 刪除 /var2/es_backup
3. 創建 /var2/es_backup
4. 改變 owner
chown -R elasticsearch:elasticsearch /var2/es_backup
5. 改變屬性
chmod -R 777 /var2/es_backup
chmod +t /var2/es_backup
6. 將資料FTP過來
7. 檢查
curl -XGET "localhost:9200/_snapshot/es_backup/_all"
8. 準備復原資料
curl -XPOST "localhost:9200/_all/_close"
curl -XPUT localhost:9200/_cluster/settings -d '{
"persistent" : {
"cluster.routing.allocation.node_concurrent_recoveries" : "5"
}
}'
curl -XPUT localhost:9200/_cluster/settings -d '{
"persistent" : {
"indices.recovery.max_bytes_per_sec": "200mb",
"indices.recovery.concurrent_streams": 5
}
}'
curl -XPOST "localhost:9200/_snapshot/es_backup/20170101/_restore?wait_for_completion=true"
- The End -
訂閱:
文章 (Atom)