Rock Cluster
ใช้ Rock Cluster ใช้ในการเรียนการสอน MPI และ ติดตั้ง CUDA สำหรับนักเรียนประมาณปีละ 200 กว่าๆ คน ปี2012-2023
อันนี้เอาไว้สอน Parallel Programming Class เป็น Open MPI และ Cuda Emulator
อันนี้ใช้เป็น PC ทั้งหมด 4-5 เครื่อง ก็พอรับไหวแล้วคับ
OS: CentOS 6.3
Software: Rock 5.5, Cudatoolkit 3.0
Install แบ่งออกเป็น 2 ส่วนคือ ติดตั้ง Frontend 1 เครื่องและ ที่เหลือติดตั้ง Compute เพิ่มเติมตามที่ต้องการ และทำการติดตั้ง CUDA Driver/Toolkit
1. Rocks Cluster Frontend Node
ใส่ CD Rocks Cluster ที่เครื่อง frontend และหลังจากเครื่องทำงาน
build
หลังจากนั้น ระบบจะเริ่มทำการติดตั้ง
Configure TCP/IP
โดย สามารถเลือกได้หลายรูปแบบดังต่อไปนี้
enable IPv4 support
select manual configuration for the IPv4 support (no DHCP) และ
disable IPv6 support
การเลือก Rolls ของ เครื่อง (base hpc[OpenMP] ganglia[System Monitoring] และ webserver)
การใส้ข้อมูลสำหรับ Cluster Information
การตั้งค่า public cluster network
การตั้งค่า private cluster network
ตั้งค่า Gateway และ DNS
กำหนด Root Password
ตั้งค่าเวลา
ระบบทำการติดตั้ง Rock Cluster ที่เครื่อง Frontend Node
เมื่อระบบทำการติดตั้งสำเร็จ ระบบจะทำการ Reboot เครื่อง
2. Rocks Cluster Compute Node
กำหนดคำสั่งเพื่อเพิ่มเครื่อง Compute Node
Login เข้าที่เครื่อง Frontend node โดยใช้ root และสั้ง Run “insert-ethers” เพื่อ ให้ DHCP กับ เครื่อง Compute node รวมทั้งใส่ข้อมูลของ Rocks ลงใน Database SQL และหน้าจอจะแสดงดังตัวอย่าง
insert-ethers
เลือก OK ละจอจะแสดงผลต่อไปดังนี้เพื่อรอการเข้ามาลงทะเบียนของเครื่อง Compute Node
สั่งติดตั้งที่เครื่อง Compute Node
หลังจากนั้น ไปที่เครื่องที่ต้องการทำเป็น Compute Node ใส่ CD เพื่อให้ทำการ Install ระบบจะทำการติดตั้งเองโดยอัตโนมัติ
เมื่อเครื่อง Frontend Node มองเห็นการเชื่อมต่อกัยเครื่อง Compute Node
และทำการเลือกเพื่อเริ่มการติดตั้ง “*” ระบบจะติดตั้งโดยอัตโนมัติ จนเสร็จ
ตรวจทดสอบ Compute Node หลังจากการติดตั้ง
ในตัวอย่างข้างต้น การmonitor การติดตั้งเครื่อง Compute Node ผ่านเครื่อง Frontend Node โดยใช้คำสั้ง “rocks-console compute-0-0”
rocks-console compute-0-0
หลังจากการติดตั้งเสร็จสิ้น ให้ออกจาก insert-ethers โดยกด 'F8' key
-ติดตั้ง NVIDIA Driver/ Cuda ToolKit 3.0
sh NVIDIA-Linux-x86-319.37.run
yum install kernel-devel kernel-headers gcc
NVIDIA-Linux-x86-319.37.run -k $(uname -r)
cuda-samples-linux-5.5.22-16488124.run
cuda-linux-rel-5.5.22-16488124.run
export PATH=/usr/local/cuda-5.5/bin:$PATH
export LD_LIBRARY_PATH=/usr/local/cuda-5.5/lib:$LD_LIBRARY_PATH
sh devdriver_3.0_linux_32_195.36.15.run -k $(uname –r)
sh cudatoolkit_3.0_linux_32_rhel5.3.run
#export PATH=/usr/local/cuda/bin:$PATH
#export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/usr/local/cuda/lib
ใช้ Ganglia monitoring system เป็นระบบเพื่อ ตรวจสอบการทำงานของระบบ ผ่าน Web Browser
โดยเพิ่ม Roll ไปตั้งแต่ตอนเริ่มต้น หรือ Install เพิ่มตอนหลังก็ได้
นอกจากนี้แล้วตอนที่ใช้ทดสอบเพิ่มเติมหรืออยากติดตั้งระบบใหม่ก็ใช้ XEN Server ดูก็ได้ทำให้ได้อารมไปอีกความรู้สึก1 พอใช้งานได้เลย