사용 설명서 이더넷 iSCSI 어댑터 및 이더넷 FCoE 어댑터 QLogic BCM57xx 및 BCM57xxx BC0054508-03 J Dell 의 인가를 받아 제 3 자 정보가 사용자에게 전해집니다 .
사용 설명서 – 이더넷 iSCSI 어댑터 및 이더넷 FCoE 어댑터 QLogic BCM57xx 및 BCM57xxx 문서 개정 이력 개정판 A, 2015 년 2 월 18 일 개정판 B, 2015 년 7 월 29 일 개정판 C, 2016 년 3 월 24 일 개정판 D, 2016 년 4 월 8 일 개정판 E, 2017 년 2 월 2 일 개정판 F, 2017 년 8 월 25 일 개정판 G, 2017 년 12 월 19 일 개정판 H, 2018 년 3 월 15 일 개정판 J, 2018 년 4 월 13 일 변경사항 변경사항 단계 1 변경됨 xxii 페이지의 " 문서 다운로드 " Linux 및 Windows 에서 NPIV( 파이버 채널 - 링크 서비스 규격을 통해 ) 에 대한 지원 추가됨 4 페이지의 "FCoE" 첫 번째 단락 마지막 문장에서 "Windows Server 2016 이상 버전은 QLogic 의 QLASP 팀 구성 드라 이버를 지원하지 않습니다 .
사용 설명서 – 이더넷 iSCSI 어댑터 및 이더넷 FCoE 어댑터 QLogic BCM57xx 및 BCM57xxx 표 8-1 에서 ESXi 6.
목차 머리말 열람 대상 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 안내서 내용 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 관련 자료 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 문서 규약 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 문서 다운로드. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
사용 설명서 — 이더넷 iSCSI 어댑터 및 이더넷 FCoE 어댑터 QLogic BCM57xx 및 BCM57xxx 3 Windows 의 가상 LAN VLAN 개요 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 팀에 VLAN 추가 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 5 하드웨어 설치 시스템 요구 사항 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 하드웨어 요구 사항 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 운영 체제 요구 사항.
사용 설명서 — 이더넷 iSCSI 어댑터 및 이더넷 FCoE 어댑터 QLogic BCM57xx 및 BCM57xxx Linux 드라이버 소프트웨어 설치 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 소스 RPM 패키지 설치 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . KMP 패키지 설치. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 소스 TAR 파일로 드라이버 구축 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 이진 DKMS RPM 드라이버 패키지 설치 . . . . . . . . . . . . . . . . . . . . . . . 이진 KMOD 및 KMP 드라이버 패키지 설치. . . . . .
사용 설명서 — 이더넷 iSCSI 어댑터 및 이더넷 FCoE 어댑터 QLogic BCM57xx 및 BCM57xxx NIC 감지 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 링크 연결 및 속도 표시 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 링크 해제 표시 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . bnx2i 드라이버 메시지. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . BNX2I 드라이버 사인온 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
사용 설명서 — 이더넷 iSCSI 어댑터 및 이더넷 FCoE 어댑터 QLogic BCM57xx 및 BCM57xxx 채널 본딩을 사용하여 팀 구성 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 통계 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Linux iSCSI Offload . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Open-iSCSI 사용자 응용 프로그램 . . . . . . . . . . . . . . . . . . . . . . . . . . . 사용자 응용 프로그램 iscsiuio . . . . . . . . . . . . . . . . . . . . . .
사용 설명서 — 이더넷 iSCSI 어댑터 및 이더넷 FCoE 어댑터 QLogic BCM57xx 및 BCM57xxx FCoE 지원 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 드라이버 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 지원되는 배포판 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . FCoE 활성화 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 설치 점검 사항 . . . . . . . . . . . . . . . . . . . . . .
사용 설명서 — 이더넷 iSCSI 어댑터 및 이더넷 FCoE 어댑터 QLogic BCM57xx 및 BCM57xxx 11 iSCSI 부트 이미지를 만드는 “DD” 방법 . . . . . . . . . . . . . . . . . . . iSCSI 부트 문제 해결. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . iSCSI Crash Dump . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Windows Server 의 iSCSI Offload . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . iSCSI Offload 구성. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
사용 설명서 — 이더넷 iSCSI 어댑터 및 이더넷 FCoE 어댑터 QLogic BCM57xx 및 BCM57xxx 팀 구성 및 기타 고급 네트워크 속성 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Checksum Offload( 체크섬 오프로드 ). . . . . . . . . . . . . . . . . . . . . . . . . IEEE 802.1p QoS Tagging( 태그 ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . Large Send Offload( 대형 전송 오프로드 ) . . . . . . . . . . . . . . . . . . . . . Jumbo Frames( 대용량 프레임 ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . IEEE 802.1Q VLAN . . . . . . . . . . . . .
사용 설명서 — 이더넷 iSCSI 어댑터 및 이더넷 FCoE 어댑터 QLogic BCM57xx 및 BCM57xxx 12 NIC 분할 및 대역폭 관리 개요 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . NIC 분할에 지원되는 운영 체제. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . NIC 분할을 위한 구성 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 14 188 188 189 Linux QCS 설치 개요 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
사용 설명서 — 이더넷 iSCSI 어댑터 및 이더넷 FCoE 어댑터 QLogic BCM57xx 및 BCM57xxx CTRL+R 방법 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . One-Time Disabled(1 회 비활성화됨 ). . . . . . . . . . . . . . . . . . . . . . . . . Windows Server 2008 R2 및 Windows Server 2008 SP2 FCoE 부트 설치. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Windows Server 2012, 2012 R2 및 2016 FCoE 부팅 설치 . . . . . . . . . Linux FCoE 부트 설치 . . . . . . . . . . . . . . . . . . . . . . . .
사용 설명서 — 이더넷 iSCSI 어댑터 및 이더넷 FCoE 어댑터 QLogic BCM57xx 및 BCM57xxx Wake On LAN 전원 요구 사항 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 환경 사양 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 261 262 규정사항 제품 안전성 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . AS/NZS (C-Tick). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . FCC 표시 . . . . .
사용 설명서 — 이더넷 iSCSI 어댑터 및 이더넷 FCoE 어댑터 QLogic BCM57xx 및 BCM57xxx 19 문제 해결 하드웨어 진단. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . QCS 진단 테스트 실패. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . QCS 네트워크 테스트 실패 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 포트 LED 검사 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 문제 해결 검사 목록 . . . . . . . . . . . . . . . . . . . . . . . . .
사용 설명서 — 이더넷 iSCSI 어댑터 및 이더넷 FCoE 어댑터 QLogic BCM57xx 및 BCM57xxx 그림 목록 그림 3-1 6-1 6-2 6-3 6-4 6-5 8-1 8-2 9-1 9-2 10-1 10-2 10-3 10-4 10-5 10-6 10-7 10-8 10-9 10-10 10-11 10-12 10-13 10-14 11-1 11-2 11-3 11-4 11-5 11-6 11-7 11-8 11-9 11-10 14-1 14-2 14-3 14-4 14-5 14-6 14-7 14-8 14-9 페이지 태그 지정 기능이 있는 여러 VLAN 을 지원하는 서버의 예. . . . . . . . . . . . . . . . . . . . CCM MBA 구성 메뉴 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 시스템 설정 , 장치 설정 . . . . . . . . . . . .
사용 설명서 — 이더넷 iSCSI 어댑터 및 이더넷 FCoE 어댑터 QLogic BCM57xx 및 BCM57xxx 14-10 14-11 14-12 14-13 14-14 14-15 14-16 14-17 14-18 14-19 14-20 14-21 14-22 14-23 14-24 14-25 14-26 14-27 14-28 14-29 14-30 14-31 14-32 14-33 14-34 14-35 14-36 14-37 14-38 14-39 FCoE 부트 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . EVBD 드라이버 설치 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . bxfcoe 드라이버 설치 . . . . . . . . . . .
사용 설명서 — 이더넷 iSCSI 어댑터 및 이더넷 FCoE 어댑터 QLogic BCM57xx 및 BCM57xxx 표 목록 표 1-1 1-2 2-1 3-1 4-1 4-2 7-1 8-1 9-1 10-1 10-2 10-3 10-4 10-5 11-1 11-2 11-3 11-4 11-5 11-6 11-7 11-8 11-9 11-10 12-1 12-2 13-1 13-2 13-3 14-1 17-1 17-2 17-3 17-4 17-5 17-6 17-7 17-8 17-9 17-10 17-11 17-12 17-13 페이지 RJ45 포트 LED 로 알 수 있는 네트워크 링크 및 활동 상태 . . . . . . . . . . . . . . . . . . . 포트 LED 를 통해 표시되는 네트워크 링크 및 활동 . . . . . . . . . . . . . . . . . . . . . . . . . 스마트 로드 밸런싱 . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
사용 설명서 — 이더넷 iSCSI 어댑터 및 이더넷 FCoE 어댑터 QLogic BCM57xx 및 BCM57xxx 17-14 17-15 17-16 18-1 18-2 18-3 18-4 18-5 18-6 18-7 18-8 19-1 19-2 BCM957810A1006G 환경 사양 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . BCM957810A1008G 환경 사양 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . BCM957840A4007G 환경 사양 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . QLogic 57800S 1GB 및 10GBASE-T 랙 네트워크 도터 카드의 물리적 특성. . . . . .
머리말 이 섹션은 본 설명서의 열람 대상 , 내용 , 문서 규약 및 레이저 안전 정보에 대한 정 보를 제공합니다 . 주 QLogic® 은 현재 전체 QLogic 어댑터를 위한 유일한 GUI 관리 도구로서 QConvergeConsole®(QCC) GUI 를 지원하고 있습니다 . QLogic Control Suite(QCS) GUI 는 57xx/57xxx 컨트롤러를 기반으로 한 QLogic 어댑터에서 더 이상 지원되지 않으며 , QCC GUI 관리 도구로 바뀌었습니다 . QCC GUI 는 모든 QLogic 어댑터를 단일 창구를 통해 관리할 수 있는 GUI 입니다 . Windows® 환경에서 QCS CLI 및 관리 에이전트 설치 프로그램을 실행할 경 우에는 QCS GUI( 시스템에 설치된 경우 ) 를 비롯해 관련 구성 요소가 시스 템에서 제거됩니다 . 열람 대상 이 설명서는 컴퓨터 네트워킹 장비의 설치 및 유지보수를 담당하는 사람을 대상으 로 작성되었습니다 .
머리말 관련 자료 관련 자료 자세한 내용은 마이그레이션 가이드 : QLogic/Broadcom NetXtreme I/II 어댑터 ( 문 서 번호 BC0054606-00) 를 참조하십시오 . 마이그레이션 가이드에서는 특정 Broadcom® 이더넷 자산의 QLogic 확보 및 최종 사용자 영향에 대한 개요를 제공 하며 Broadcom 과 QLogic 이 함께 작성한 가이드입니다 . 문서 규약 이 설명서는 다음 문서 규약을 사용합니다 . 주 주의 기호가 있을 경우 추가 정보를 제공합니다 . 기호 ( 경고 기호 없음 ) 는 장비 손상 또는 데이터 손실을 초래 할 수 있는 위험이 존재함을 가리킵니다 . ! 주의 ! 경고 기호 ( 경고 기호 있음 ) 는 경미하거나 완화된 부상을 초래할 수 있는 위험이 존재함을 가리킵니다 . 기호는 심각한 부상이나 사망을 초래할 수 있는 위험이 존재 함을 가리킵니다 .
머리말 문서 다운로드 파일 구조 어디에서건 루트 디렉터리로 되돌아가려면 cd /root 를 입력 하고 ENTER 를 누르십시오 . 다음 명령을 실행합니다 . sh ./install.bin 키 이름과 키 스트로크는 다음과 같이 대문자로 표시됩니다 . CTRL+P 키를 누릅니다 . 위쪽 화살표 키를 누릅니다 . 기울임꼴로 표시된 텍스트는 용어, 강조, 변수 또는 문서 제목을 가리킵니다. 예: 라이선스 동의의 전체 목록은 QLogic Software End User License Agreement(QLogic 소프트웨어 최종 사용자 라이선스 동의 ) 를 참조하 십시오 . 바로 가기 키는 무엇입니까 ? 날짜 유형을 입력하려면 mm/dd/yyyy(mm은 월, dd는 날짜, yyyy는 연도 를 가리킴 ) 로 입력하십시오 .
머리말 레이저 안전 정보 레이저 안전 정보 본 제품은 광섬유 전도체를 통한 통신에 등급 1 레이저 광학 트랜스시버를 사용합 니다 . 미 보건부 (DHHS) 는 등급 1 레이저가 위험하지 않은 것으로 간주합니다 . 국제 전기 표준회의 (IEC) 825 레이저 안전성 규정은 제품이 등급 1 레이저를 사용 한다는 것을 영어 , 독일어 , 핀란드어 , 프랑스어로 명시하여 라벨로 부착할 것을 요구합니다 . 트랜스시버에 라벨을 부착하는 것은 비실용적이므로 , 다음의 라벨이 본 매뉴얼에 제공되어 있습니다 .
1 기능 및 특징 이 장에서는 어댑터에 관한 다음 정보를 제공합니다 . 기능 설명 2 페이지의 " 기능 " 6 페이지의 " 지원되는 운영 환경 " 6 페이지의 " 네트워크 링크 및 활동 표시 " 기능 설명 QLogic BCM57xx 및 BCM57xxx 어댑터는 표준 이더넷 네트워크에서 고속 데이터 네트워킹과 스토리지 네트워킹을 동시에 수행할 수 있는 새로운 차원의 GbE(Gigabit Ethernet) 및 10GbE C-NIC(Converged Network Interface Controller) 입니다 . C-NIC 는 데이터 센터에 널리 사용되는 프로토콜에 대해 다음과 같은 가 속화 기능을 제공합니다 .
1– 기능 및 특징 기능 QLogic BCM57xx 및 BCM57xxx 어댑터에는 반이중 및 전이중 기능 모두를 지원하 는 10Mbps, 100Mbps, 1000Mbps 또는 10Gbps Ethernet MAC 과 10Mbps, 100Mbps, 1000Mbps 또는 10Gbps 물리적 계층 (PHY) 이 있습니다 . 속도 자동 협 상의 경우 트랜시버는 IEEE 802.3 표준과 완벽하게 호환됩니다 . QLogic 팀 구성 소프트웨어를 사용하면 네트워크를 가상 LAN(VLAN) 으로 분할하 고 여러 네트워크 어댑터를 팀으로 그룹화하여 네트워크 로드 밸런싱 및 결함 허용 기능을 제공할 수 있습니다 . 팀 구성에 대한 자세한 내용은 장 2 Windows Server 에서 팀 구성 및 장 11 QLogic 팀 구성 서비스를 참조하십시오 . VLAN 에 대한 내용은 장 3 Windows 의 가상 LAN 을 참조하십시오 .
1– 기능 및 특징 기능 수신측 배율 조정 (Receive Side Scaling; RSS) 관리 : QLogic Control Suite(QCS) 진단 및 구성 소프트웨어 제품군 (5 페이지 의 "QLogic Control Suite CLI" 참조 ) PXE 2.0 사양 지원 WoL(Wake on LAN) 지원 UMP(Universal Management Port) 지원 SMBus 컨트롤러 ACPI(Advanced Configuration and Power Interface) 1.1a와 호환 (다중 전력 모드 ) (5 페이지의 " 전원 관리 " 참조 ) 지능형 플랫폼 관리 인터페이스 (IPMI) 지원 고급 네트워크 기능 : 최대 9,600 바이트의 Jumbo frames( 대용량 프레임 ). OS 및 링크 파트 너가 Jumbo frames( 대용량 프레임 ) 를 지원해야 합니다 .
1– 기능 및 특징 기능 64 비트 기준 주소 레지스터 (BAR) 지원 EM64T 프로세서 지원 iSCSI 및 FCoE 부트 지원 가상화 Microsoft® VMware® Linux® XenServer® 단일 루트 I/O 가상화 (SR-IOV) iSCSI 국제 인터넷 표준화 기구 (Internet Engineering Task Force, IETF) 는 표준화된 iSCSI 를 제공합니다 . SCSI 는 블록 수준 전송을 사용하여 시스템이 스토리지 장 치와 통신하도록 하는 널리 사용되는 프로토콜입니다 . 따라서 스토리지 장치에 저 장된 주소 데이터는 하나의 전체 파일이 아닙니다 . iSCSI 는 TCP/IP 네트워크에서 SCSI 요청 / 응답 응용 프로그램 프로토콜 및 표준 명령 세트를 매핑합니다 . iSCSI 는 TCP 를 유일한 전송 프로토콜로 사용하기 때문에 TCP 처리에서 제공하 는 하드웨어 가속화 이점을 활용할 수 있습니다 .
1– 기능 및 특징 기능 파이버 채널 트래픽 전용 대기열 세트 Data Center Bridging(DCB) 은 우선 순위 흐름 제어 (PFC) 를 통해 손실 없는 작동을 제공합니다 . DCB 는 향상된 전송 선택 (ETS) 을 통해 FCoE 트래픽에 대한 링크 대역폭 공 유를 할당합니다 . Linux 및 Windows 에서 기술 위원회 T11 파이버 채널 - 링크 서비스 (FC-LS) 규격 , N_Port ID 가상화 (NPIV) 를 지원합니다 . 전원 관리 시스템 전원이 꺼질 경우 어댑터 속도 설정이 WoL 에 대해 구성된 속도로 연결됩 니다 . 주 Dell™ 의 WOL 은 시스템에서 한 번에 한 개의 어댑터만 지원됩니다 . 특정 시스템의 WoL 지원 여부에 관해서는 시스템 설명서를 참조하십시오 . 적응 인터럽트 주파수 어댑터 드라이버는 트래픽 조건에 따라 지능적으로 호스트 인터럽트 주파수를 조 절하여 전체 응용 프로그램 처리량을 향상합니다 .
1– 기능 및 특징 지원되는 운영 환경 지원되는 운영 환경 QLogic BCM57xx 및 BCM57xxx 어댑터의 소프트웨어는 다음 운영 체제에서 사용 할 수 있습니다 . Microsoft Windows(32 비트 및 64 비트 확장 ) Linux(64 비트 확장 ) ESXi™ Server(VMware) Citrix® XenServer 네트워크 링크 및 활동 표시 구리선 기반 이더넷 연결의 경우 표 1-1 에 설명되어 있는 바와 같이 네트워크 링크 및 활동 상태가 RJ-45 커넥터에 있는 LED 를 통해 표시됩니다 . 표 1-1.
2 Windows Server 에서 팀 구성 Microsoft Windows Server® 시스템에서의 팀 구성에는 QLogic Advanced Server Program 개요 (QLASP), 로드 밸런싱 및 결함 허용이 포함됩니다 . Windows Server 2016 이상은 QLogic 의 QLASP 팀 구성 드라이버를 지원하지 않습니다 . QLASP 개요 8 페이지의 " 로드 밸런싱 및 결함 허용 " 주 이 장에서는 Windows Server 시스템의 어댑터 팀 구성에 대해 설명합니다 . Linux 운영 체제에서 사용되는 유사한 기술 ( 채널 본딩 ) 에 대한 자세한 정보 는 운영 체제 설명서를 참조하십시오 . QLASP 개요 QLASP 은 Windows 운영 체제 제품군용 QLogic 팀 구성 소프트웨어입니다 . QLASP 설정은 QLogic Control Suite(QCS) CLI 를 사용하여 구성합니다 .
2–Windows Server 에서 팀 구성 로드 밸런싱 및 결함 허용 주 Windows Server 2012 및 그 이후 버전은 NIC 팀이라고 하는 내장 팀 구성 지 원을 제공합니다 . 사용자가 동일한 어댑터에서 동시에 NIC 팀 및 QLASP 를 통해 팀을 활성화하는 것은 권장되지 않습니다 . Windows Server 2016 은 QLogic 의 QLASP 팀 구성 드라이버를 지원하지 않 습니다 . 로드 밸런싱 및 결함 허용 팀 구성은 트래픽 로드 밸런싱 및 결함 허용을 제공합니다 ( 네트워크 연결 실패 시 중복 어댑터 작업 제공 ). 여러 Gigabit Ethernet 네트워크 어댑터가 동일한 시스템 에 설치된 경우 , 팀으로 그룹화하여 가상 어댑터를 작성할 수 있습니다 . 팀은 2~8개의 네트워크 인터페이스로 구성되며 각 인터페이스는 기본 인터페이스 또는 대기 인터페이스로 지정될 수 있습니다 .
2–Windows Server 에서 팀 구성 로드 밸런싱 및 결함 허용 스마트 로드 밸런싱과 장애 조치 스마트 로드 밸런싱과 장애 조치는 Broadcom® 이 IP 흐름을 기반으로 구현한 로드 밸런싱입니다 . 이 기능은 여러 어댑터 ( 팀 멤버 ) 에 대한 IP 트래픽의 밸런싱을 양 방향으로 지원합니다 . 이 유형에서 팀 내의 모든 어댑터에는 별도의 MAC 주소가 있습니다 . 이 팀 유형은 다른 팀 멤버 또는 상시 대기 멤버에 자동 결함 감지 및 동 적 장애 조치를 제공합니다 . 장애 조치는 계층 (Layer) 3 프로토콜 (IP, IPX 및 NetBIOS Extended User Interface[NetBEUI]) 과 상관없이 실행됩니다 . 오히려 기 존 계층 2 및 3 스위치와 함께 실행됩니다 . 팀이 작동하는 데 스위치 구성 ( 예 , 트 렁크 , 링크 집계 ) 은 필요하지 않습니다 .
2–Windows Server 에서 팀 구성 로드 밸런싱 및 결함 허용 일반 트렁킹 (FEC/GEC)/802.3ad-Draft Static 일반 트렁킹 (FEC/GEC)/802.3ad-Draft Static 팀 유형은 팀의 모든 어댑터가 동일 한 MAC 주소에 대한 패킷을 수신하도록 구성된다는 점에서 링크 집계 (802.3ad) 와 매우 유사합니다 . 그러나 , 일반 트렁킹 (FEC/GEC)/802.3ad-Draft Static) 팀 유 형은 LACP 또는 마커 프로토콜 지원을 제공하지 않습니다 . 이 팀 유형은 어댑터 링크 파트너가 독점적인 트렁킹 메커니즘을 지원하기 위해 정적으로 구성되는 다 양한 환경을 지원합니다 . 예를 들어 , 이 팀 유형은 Lucent® OpenTrunk™ 또는 Cisco® Fast EtherChannel (FEC) 지원 시 사용할 수 있습니다 . 기본적으로 이 모 드는 링크 집계 (802.3ad) 팀 유형의 라이트 버전입니다 .
2–Windows Server 에서 팀 구성 로드 밸런싱 및 결함 허용 스마트 로드 밸런싱 , 장애 조치 및 SLB (Auto-Fallback Disable) 팀 유형의 제한 사항 스마트 로드 밸런싱 (SLB) 은 프로토콜별 스키마입니다 . 표 2-1 은 IP 지원 수준 목 록을 나타냅니다 . 표 2-1.
2–Windows Server 에서 팀 구성 로드 밸런싱 및 결함 허용 팀 구성 및 Large Send Offload( 대형 전송 오프로드 )/Checksum Offload( 체크섬 오프로드 ) 지원 모든 팀 멤버가 LSO(Large Send Offload, 대형 전송 오프로드 ) 및 Checksum Offload( 체크섬 오프로드 ) 기능을 지원하고 이를 위해 구성된 경우에만 팀에 이 두 속성을 사용할 수 있습니다 .
3 Windows 의 가상 LAN 이 장에서는 Windows 에서 VLAN 을 추가해 팀을 구성하는 것에 대한 정보를 제공 합니다 . VLAN 개요 16 페이지의 " 팀에 VLAN 추가 " VLAN 개요 가상 LAN(VLAN) 을 사용하면 사용자는 물리적 LAN 을 논리적 부분으로 분할하여 작업 그룹의 논리 세그먼트를 생성하고 각 논리 세그먼트에 보안 정책을 적용할 수 있습니다 . 정의된 각 VLAN 은 별도의 네트워크로 동작하며 해당 트래픽과 브로드 캐스트도 다른 트래픽 및 브로드캐스트와 격리되어 있으므로 각 논리 그룹 내의 대 역폭 효율성이 높아집니다 . 시스템에서 사용 가능한 메모리 크기에 따라 서버의 각 QLogic 어댑터에 최대 64 개의 VLAN(63 개는 태그 지정됨 , 1 개는 태그 지정되 지 않음 ) 을 정의할 수 있습니다 . VLAN 을 팀에 추가하고 여러 개의 VLAN 에 서로 다른 VLAN ID 를 지정할 수 있습 니다 .
3–Windows 의 가상 LAN VLAN 개요 그림 3-1. 태그 지정 기능이 있는 여러 VLAN 을 지원하는 서버의 예 그림 3-1 은 VLAN 을 사용하는 네트워크의 예를 보여 줍니다 . 이 네트워크 예에서 물리적인 LAN 은 스위치 , 2 개의 서버 및 5 개의 클라이언트로 구성되어 있습니다 . LAN 은 3 개의 서로 다른 VLAN 으로 논리적으로 구성되어 있으며 각각 다른 IP 서 브넷을 나타냅니다 . 표 3-1 은 이 네트워크의 기능을 설명합니다 . 표 3-1. VLAN 네트워크 토폴로지 예 구성요소 설명 VLAN #1 주 서버 , PC #3 및 PC #5 로 구성된 IP 서브넷 . 이 서브넷은 엔지니 어링 그룹을 나타냅니다 . VLAN #2 주 서버 , 공유된 미디어를 통한 PC #1 과 PC #2, 그리고 PC #5 를 포함합니다 . 이 VLAN 은 소프트웨어 개발 그룹입니다 . VLAN #3 주 서버 , 계정 서버 및 PC #4 를 포함합니다 .
3–Windows 의 가상 LAN VLAN 개요 표 3-1. VLAN 네트워크 토폴로지 예 ( 계속 ) 구성요소 설명 주 서버 모든 VLAN 및 IP 서브넷에서 액세스해야 하는 사용 빈도가 높은 서버입니다 . 주 서버에는 QLogic 어댑터가 설치되어 있습니다 . IP 서브넷 세 개가 모두 물리적인 단일 어댑터 인터페이스를 통해 액세스됩니다 . 서버는 스위치 포트와 연결되어 있고 , VLAN #1, #2 및 #3 에 대해 구성되어 있습니다 . 어댑터와 연결된 스위치 포트 모 두에는 태그가 설정되어 있습니다 . 두 장치의 태그 지정 VLAN 기능 덕택에 , 서버는 이 네트워크에 있는 3 개의 IP 서브넷에서 모두 통신 할 수 있으나 이들 간의 브로드캐스트는 별도로 유지합니다 . 계정 서버 VLAN #3 에만 사용할 수 있습니다 . 계정 서버는 VLAN #1 및 #2 의 모든 트래픽에서 격리되어 있습니다 . 이 서버와 연결된 스위치 포트 는 태그가 해제되어 있습니다 .
3–Windows 의 가상 LAN 팀에 VLAN 추가 팀에 VLAN 추가 각 팀에는 최대 64 개의 VLAN(63 개의 VLAN 은 태그가 지정되고 1 개의 VLAN 은 태그가 지정되지 않음 ) 을 지원합니다 . QLogic 어댑터와 Alteon® AceNIC 어댑터 만 VLAN 이 포함된 팀에 구성될 수 있다는 점에 유의하십시오 . 어댑터에 대한 여 러 VLAN 과 함께 , 단일 어댑터가 있는 서버에는 여러 IP 서브넷에 대한 논리 존재 가 있을 수 있습니다 . 한 팀에 여러 개의 VLAN 이 있을 경우 , 서버는 여러 IP 서브 넷에 대해 하나의 논리 존재를 두고 로드 밸런싱 및 장애 조치의 이점을 누릴 수 있 습니다 . 주 장애 조치 팀의 멤버인 어댑터가 VLAN 역시 지원하도록 구성할 수 있습니다 . Intel LOM 이 장애 조치 팀의 일부인 경우 VLAN 은 Intel LOM 에 지원되지 않 으므로 VLAN 은 해당 팀에 대해 구성될 수 없습니다 .
4 하드웨어 설치 이 장은 QLogic BCM57xx 및 BCM57xxx 추가 기능 네트워크 인터페이스 카드에 적용됩니다 . 하드웨어 설치에는 다음이 포함됩니다 . 시스템 요구 사항 19 페이지의 " 안전 주의사항 " 19 페이지의 " 설치 전 검사 목록 " 20 페이지의 " 애드 인 NIC 의 설치 " 주 Service Personnel: 이 제품은 RAL(Restricted Access Location) 에서만 설 치할 수 있습니다 . 시스템 요구 사항 QLogic BCM57xx 및 BCM57xxx 어댑터를 설치하기 전에 시스템이 이 섹션에 설명 된 하드웨어 및 운영 체제 요구 사항을 만족하는지 확인하십시오 . 하드웨어 요구 사항 운영 체제 요구 사항을 충족시키는 IA32 또는 EMT64 기반 컴퓨터 비어 있는 PCI Express 슬롯 1개. 어댑터에 장착된 PCI Express 지원에 따라, 다음 유형 중 하나에 속하는 슬롯이 제공됩니다 .
4– 하드웨어 설치 시스템 요구 사항 운영 체제 요구 사항 주 Dell Update Packages Version xx.xx.xxx 사용자 가이드 는 이더넷 어댑터 사 용자 안내서와 동일한 주기로 업데이트되지 않으므로 이 섹션에 나열된 운영 체제를 최신 정보로 간주하십시오 . 이 섹션은 지원되는 각 OS 요구 사항에 대해 설명합니다 . 일반 사항 다음 호스트 인터페이스가 필요합니다 . PCI Express v1.0a, x1 이상 호스트 인터페이스 Microsoft Windows 다음 Microsoft Windows 버전 중 하나입니다 . Windows Server 2016 Windows Server 2012 R2 Windows Server 2012 Windows Server 2008 R2 SP1 Windows Server 2008 SP2 x64 Windows Server 2008 SP2 x32 Linux 다음 Linux 버전 중 하나입니다 .
4– 하드웨어 설치 안전 주의사항 VMware ESXi 6.5 U1 VMware ESXi 6.0 U3 VMware ESXi 6.0 U2 Citrix XenServer 다음 XenServer 버전입니다 . Citrix XenServer 6.5 안전 주의사항 ! 경고 어댑터가 전압이 흐르는 시스템에 설치되어 있으면 위험할 수 있습니다 . 시 스템의 케이스를 열기 전에 , 사용자를 보호하고 시스템 구성 요소의 손상을 방지하려면 아래의 주의사항을 준수하십시오 . 손과 손목에서 금속 물체나 귀금속을 제거합니다 . 절연 및 비전도성 도구만 사용하십시오 . 내부 구성 요소를 만지기 전에 시스템 전원이 꺼져 있고 플러그가 뽑혀 있 는지 확인합니다 . 어댑터는 정전기가 없는 상태에서 설치 또는 제거해야 합니다 . 올바르게 접지된 손목 스트랩이나 기타 개인용 정전기 방지 장치 및 정전기 방지 매 트를 사용하는 것이 좋습니다 . 설치 전 검사 목록 1.
4– 하드웨어 설치 애드 인 NIC 의 설치 6. 특히 어댑터의 가장자리 커넥터에 손상된 흔적이 없는지 검사합니다. 손상된 어댑터를 설치하려고 시도하지 마십시오 . 애드 인 NIC 의 설치 대부분의 시스템에서 QLogic BCM57xx 및 BCM57xxx 어댑터 ( 애드 인 NIC) 를 설 치할 때 다음 지침에 따릅니다 . 특정 시스템에서 해당 작업을 수행하는 방법에 대 한 자세한 내용은 시스템과 함께 제공된 설명서를 참조하십시오 . 애드 인 NIC 설치 1. 안전 주의사항 및 설치 전 검사 목록를 숙지합니다 . 어댑터를 설치하기 전에 시스템 전원이 꺼져 있고 전원 콘센트에서 전원 코드가 뽑혀 있으며 전기 접 지 절차가 올바르게 수행되고 있는지 확인합니다 . 2. 시스템 케이스를 열고 어댑터에 따라 PCIe® 1.0a x1, PCIe 1.0a x4, PCIe Gen2 x8, PCIe Gen3 x8 또는 다른 적합한 슬롯을 선택합니다 .
4– 하드웨어 설치 애드 인 NIC 의 설치 네트워크 케이블 연결 QLogic BCM57xx 및 BCM57xxx 어댑터는 시스템을 이더넷 구리선 세그먼트에 장 착하기 위한 RJ45 커넥터 또는 시스템을 이더넷 광섬유 세그먼트에 장착하기 위한 광섬유 커넥터가 있습니다 . 주 이 섹션은 블레이드 서버에는 적용되지 않습니다 . 구리선 구리선 연결 방법 1. 적합한 케이블을 선택합니다 . 표 4-1 에는 100/1000BASE-T 및 10GBASE-T 포트 연결에 필요한 구리 케이블 요구 사항이 나열되어 있습니다 . 표 4-1.
4– 하드웨어 설치 애드 인 NIC 의 설치 표 4-2. 1000/2500BASE-X 광섬유 사양 포트 유형 커넥터 1000BASE-X 매체 LC™ 연결 시스템이 사용된 소형 폼팩 터 (SFF) 트랜시버 (Infineon® 부품 번호 V23818-K305-L57) 2500BASE-X a LC™ 연결 시스템이 사용된 소형 폼팩 터 (SFF) 트랜시버 (Finisar® 부품 번호 FTLF8542E2KNV) a 멀티모드 광섬유 (MMF) 최대 거리 550m(1804ft) 62.5/50µm 등급 인덱스 광 섬유에 최적화된 시스템 멀티모드 광섬유 (MMF) 550m(1804ft) 62.5/50µm 등급 인덱스 광 섬유에 최적화된 시스템 전기적 사양은 IEEE 802.3ae-2002(XAUI) 를 준수합니다 . 2500BASE-X 는 QLogic 에서 2.5Gbp(3.125GBd) 작동을 설 명하기 위해 사용되는 용어입니다 . 2.
5 관리 관리에 대한 정보는 다음과 같습니다 . CIM 24 페이지의 " 호스트 버스 어댑터 BIOS" CIM CIM(Common Information Model) 은 DMTF(Distributed Management Task Force) 에서 정의한 산업 표준입니다 . Microsoft 는 Windows 서버 플랫폼에 CIM 을 구현 합니다 . QLogic 은 Windows Server 및 Linux 플랫폼에서 CIM 을 지원합니다 . 주 Linux 기반 시스템에서 CIM Provider 를 설치하는 자세한 방법은 장 13 Linux QCS 설치를 참조하십시오 . QLogic 의 CIM 구현은 CIM 클라이언트 응용 프로그램을 통한 다양한 정보 제공 클 래스를 제공합니다 . QLogic CIM 데이터 제공업체는 데이터만 제공하며 , 사용자 는 QLogic CIM 제공업체가 제공한 정보를 검색하여 선호하는 CIM 클라이언트 소 프트웨어를 선택할 수 있습니다 .
5– 관리 호스트 버스 어댑터 BIOS QLASP 는 이벤트 로그를 통해 이벤트를 제공합니다 . 이러한 이벤트를 검사 또는 모니터링하려면 Windows Server 플랫폼에서 제공하는 이벤트 뷰어나 CIM 을 사 용하십시오 . QLogic CIM 제공업체 역시 CIM 일반 이벤트 모델을 통해 이벤트 정 보를 제공합니다 . 이러한 이벤트는 __InstanceCreationEvent, __InstanceDeletionEvent 와 __InstanceModificationEvent 이며 CIM 에서 정의합니다 . 이벤트를 올바르게 수신하려면 CIM 의 클라이언트 응용 프로그 램이 아래 표시된 예와 같은 질의를 사용하여 해당 이벤트를 등록해야 합니다 .
6 Boot Agent 드라이버 소프트 웨어 이 장은 클라이언트와 서버 환경 모두에서 MBA 를 설정하는 방법에 대해 설명합니 다. 개요 26 페이지의 " 클라이언트 환경에서 MBA 설정 " 32 페이지의 "Linux 서버 환경에서 MBA 설정 " 개요 QLogic BCM57xx 및 BCM57xxx 어댑터는 PXE(Preboot Execution Environment, 사전 부팅 실행 환경 ), RPL(Remote Program Load, 원격 프로그램 로드 ), iSCSI 및 BOOTP(Bootstrap Protocol, 부트스트랩 프로토콜 ) 를 지원합니다 . QLogic MBA(Multi-Boot Agent) 는 네트워크 컴퓨터가 네트워크에 있는 원격 서버에서 제 공하는 이미지를 사용하여 부팅하도록 하는 소프트웨어 모듈입니다 . QLogic MBA 드라이버는 PXE 2.1 사양을 따르며 분할 이진 이미지로 출시됩니다 .
6–Boot Agent 드라이버 소프트웨어 클라이언트 환경에서 MBA 설정 WDS(Windows Deployment Service). Microsoft WDS 를 통해 운영 체제를 로드할 때 기본 네트워크 연결성 이상으로 기능을 확장하려면 EVBD 또는 NDIS(Network Driver Interface Specification) 드라이버를 사용하여 WinPE(3.0 버전 이상 ) 이미지를 생성합니다 . 클라이언트 환경에서 MBA 설정 MBA 클라이언트를 클라이언트 환경에 설정하려면 다음을 수행합니다 . 1. MBA 드라이버 구성 . 2. 부트 순서에 대한 BIOS 설정 . MBA 드라이버 구성 이 섹션은 QLogic 네트워크 어댑터의 애드 인 NIC 모델에 있는 MBA 드라이버 구 성에 관련됩니다 . QLogic 네트워크 어댑터의 LOM 모델에 있는 MBA 드라이버 구 성은 해당 시스템 설명서를 참조하십시오 .
6–Boot Agent 드라이버 소프트웨어 클라이언트 환경에서 MBA 설정 그림 6-1. CCM MBA 구성 메뉴 3. Boot Protocol( 부트 프로토콜 ) 항목에 액세스하려면 위쪽 화살표와 아래쪽 화살표 키를 누릅니다 . Preboot Execution Environment(PXE, 사전 부팅 실행 환경 ) 가 아닌 다른 부트 프로토콜을 사용할 수 있는 경우 오른쪽 화살 표나 왼쪽 화살표를 눌러 FCoE 또는 iSCSI 중에서 원하는 부트 프로토콜을 선택합니다 . 주 iSCSI 및 FCoE 부트 가능 LOM 의 경우 부트 프로토콜은 BIOS 를 통해 설정됩니다 . 자세한 내용은 해당 시스템 설명서를 참조하십시오 . 주 시스템에 어댑터가 여러 개이고 구성하고 있는 어댑터가 어느 것인지 모르는 경우 CTRL+F6 키를 누르면 어댑터의 포트 LED 가 깜박이기 시 작합니다 . 4.
6–Boot Agent 드라이버 소프트웨어 클라이언트 환경에서 MBA 설정 UEFI 사용 UEFI 를 사용한 MBA 드라이버 구성 방법 : 1. 시스템을 다시 시작합니다 . 2. 시스템 BIOS System Setup( 시스템 설정 ) 의 Device Settings( 장치 관리 자 ) 구성 메뉴로 이동합니다 ( 그림 6-2 참조 ). 그림 6-2. 시스템 설정 , 장치 설정 3. MBA 설정을 변경하려는 장치를 선택합니다 ( 그림 6-3 참조 ).
6–Boot Agent 드라이버 소프트웨어 클라이언트 환경에서 MBA 설정 그림 6-3. 장치 설정 4. Main Configuration Page( 기본 구성 페이지 ) 에서 NIC Configuration(NIC 구성 ) 을 선택합니다 ( 그림 6-4 참조 ).
6–Boot Agent 드라이버 소프트웨어 클라이언트 환경에서 MBA 설정 그림 6-4. 기본 구성 페이지 5. NIC Configuration(NIC 구성 ) 페이지 ( 그림 6-5 참조 ) 에서 Preboot Execution Environment(PXE, 사전 부팅 실행 환경 ) 이외의 부트 프로토콜 이 사용 가능할 경우 , Legacy Boot Protocol( 레거시 부트 프로토콜 ) 드롭 다운 메뉴를 사용하여 원하는 부트 프로토콜을 선택합니다 . 이 경우 다른 부 트 프로토콜에 iSCSI 및 FCoE 가 포함됩니다 . BCM57xxx 의 1GbE 포트는 PXE 및 iSCSI 원격 부트만 지원합니다 .
6–Boot Agent 드라이버 소프트웨어 클라이언트 환경에서 MBA 설정 그림 6-5. NIC 구성 주 iSCSI 및 FCoE 부트 가능 LOM 의 경우 부트 프로토콜은 BIOS 를 통해 설정됩니다 . 자세한 내용은 해당 시스템 설명서를 참조하십시오 . 6. 위쪽 화살표 , 아래쪽 화살표 , 왼쪽 화살표 , 오른쪽 화살표 키를 사용하여 다 른 메뉴 항목의 값으로 이동하여 변경합니다 . 7. Main( 주 ) 메뉴로 이동하려면 Back( 뒤로 ) 을 선택합니다 . 8. 저장 후 종료하려면 Finish( 마침 ) 를 선택합니다 . BIOS 설정 MBA 로 네트워크에서 부팅하려면 MBA 활성화 어댑터를 BIOS 에서 처음 부팅 가 능한 장치로 설정합니다 . 이 절차는 시스템 BIOS 종류에 따라 다릅니다 . 자세한 내용은 시스템 사용자 설명서를 참조하십시오 .
6–Boot Agent 드라이버 소프트웨어 Linux 서버 환경에서 MBA 설정 Linux 서버 환경에서 MBA 설정 Red Hat Enterprise Linux 배포판은 PXE Server 를 지원합니다 . 따라서 네트워크 를 통해 원격으로 완벽하게 Linux 를 설치할 수 있습니다 . 배포판은 다음의 Red Hat CD 디스크 1 번에 있는 부트 이미지 부팅 커널 (vmlinuz) 및 초기 RAM 디스크 (initrd) 와 함께 제공됩니다 . /images/pxeboot/vmlinuz /images/pxeboot/initrd.img PXE 서버를 Linux 에 설치하는 방법은 Red Hat 설명서를 참조하십시오 . 단 , Red Hat Enterprise Linux 와 함께 배포된 Initrd.img 파일에는 QLogic BCM57xx 및 BCM57xxx 어댑터용 Linux 네트워크 드라이버가 없습니다 . 이 버전 에는 표준 배포판이 아닌 드라이버용 드라이버 디스크가 필요합니다 .
7 Linux 드라이버 소프트웨어 Linux 드라이버 소프트웨어 정보에는 다음이 포함됩니다 . 소개 34 페이지의 " 제한 사항 " 35 페이지의 " 패키지 " 36 페이지의 "Linux 드라이버 소프트웨어 설치 " 41 페이지의 "Linux 드라이버 언로드 / 제거 " 43 페이지의 "PCI 파일 패치 적용 ( 옵션 )" 44 페이지의 " 네트워크 설치 " 44 페이지의 " 옵션 속성 값 설정 " 49 페이지의 " 드라이버 기본값 " 50 페이지의 " 드라이버 메시지 " 56 페이지의 " 채널 본딩을 사용하여 팀 구성 " 56 페이지의 " 통계 " 56 페이지의 "Linux iSCSI Offload" 소개 이 섹션에서는 표 7-1 에 나타난 QLogic BCM57xx 및 BCM57xxx 네트워크 어댑터 용 Linux 드라이버에 대해 설명합니다 . 표 7-1.
7–Linux 드라이버 소프트웨어 제한 사항 표 7-1. QLogic BCM57xx 및 BCM57xxx Linux 드라이버 ( 계속 ) Linux 드라이버 설명 cnic C-NIC 드라이버는 QLogic 의 상위 계층 프로토콜 ( 예 : 스토리지 ) 드라이버와 QLogic 의 BCM57xx 및 BCM57xxx 1Gb 및 10Gb 네트워크 어댑터 간에 인터페이스 를 제공합니다 . C-NIC 모듈은 다운스트림에서 bnx2 및 bnx2x 네트워크 드라이버 , 그리고 업스트림에서 bnx2fc(FCoE) 및 bnx2i(iSCSI) 드라이버와 함께 작동합니다 . bnx2i BCM57xx 및 BCM57xxx 1Gb 및 10Gb 네트워크 어댑터에서 iSCSI 오프로드를 허용 하기 위해 사용되는 Linux iSCSI 호스트 버스 어댑터 드라이버 bnx2fc Linux SCSI 스택과 QLogic FCoE 펌웨어 / 하드웨어 간에 변환 계층을 제공하는 데 사용되는 Linux FCoE 커널 모드 드라이버 .
7–Linux 드라이버 소프트웨어 패키지 bnx2fc 드라이버 제한 사항 이 드라이버의 현재 버전은 RHEL 6.1 배포판에 포함된 2.6.32 이상의 2.6.x 커널에 서 테스트되었습니다 . 오래된 커널에서는 bnx2fc 드라이버가 컴파일되지 않을 수 있습니다 . 테스트는 i386 및 x86_64 아키텍처 , RHEL 6.1, RHEL 7.0 및 SLES 11 SP1 이상 배포판에서 주로 실행되었습니다 . 패키지 Linux 드라이버는 다음의 패키지 형식으로 릴리스됩니다 . DKMS(Dynamic Kernel Module Support) 패키지 netxtreme2-version.dkms.noarch.rpm netxtreme2-version.dkms.src.rpm KMP(Kernel Module Package) SLES: netxtreme2-kmp-[kernel]-version.i586.rpm netxtreme2-kmp-[kernel]-version.x86_64.
7–Linux 드라이버 소프트웨어 Linux 드라이버 소프트웨어 설치 Linux 드라이버는 FCoE 인터페이스를 제어하는 프론트엔드로 Open-FCoE 사용 자 공간 관리 도구에 종속됩니다 . Open-FCoE 도구의 패키지 이름은 RHEL 6.4 의 경우 fcoe-utils 이고 레거시 버전의 경우 open-fcoe 입니다 . Linux 드라이버 소프트웨어 설치 Linux 드라이버 소프트웨어 설치 절차에는 다음 절차가 포함됩니다 . 소스 RPM 패키지 설치 소스 TAR 파일로 드라이버 구축 이진 DKMS RPM 드라이버 패키지 설치 이진 KMOD 및 KMP 드라이버 패키지 설치 주 bnx2x, bnx2i 또는 bnx2fc 드라이버가 로드되고 Linux 커널이 업데이트된 경 우 , 드라이버 모듈을 다시 컴파일해야 합니다 . 또한 이 경우 드라이버 모듈 은 소스 RPM 또는 TAR 패키지를 사용해 설치되어 있습니다 .
7–Linux 드라이버 소프트웨어 Linux 드라이버 소프트웨어 설치 3. 다음의 새로 컴파일된 RPM 을 설치합니다 . rpm -ivh RPMS//netxtreme2-..rpm 충돌이 보고된 경우 일부 Linux 배포판에 --force 옵션을 설치해야 합니다 . 4. FCoE 오프로드의 경우 , Open-FCoE 유틸리티를 설치합니다 . RHEL 6.4 및 레거시 버전의 경우 , 다음 명령 중 하나를 사용합니다 . yum install fcoe-utils-.rhel.64.brcm...rpm rpm -ivh fcoe-utils-.rhel.64.brcm...rpm RHEL 6.4 및 레거시 버전의 경우 , 배포판에 포함된 fcoe-utils 또는 open-fcoe 버전으로 충분하며 즉시 사용 가능한 업그레이드는 제공되지 않 습니다 .
7–Linux 드라이버 소프트웨어 Linux 드라이버 소프트웨어 설치 10. SLES 의 경우 , YaST(openSUSE 및 SUSE Linux Enterprise 배포판용 설치 및 구성 도구 ) 를 사용하여 이더넷 인터페이스를 구성한 후 정적 IP 주소를 설 정하거나 인터페이스에서 DHCP 를 활성화하여 자동으로 부팅을 시작합니 다. 11. FCoE offload 및 iSCSI-offload-TLV 의 경우 , QLogic 수렴형 네트워크 어댑터 인터페이스에서 lldpad 를 비활성화합니다 . 이는 QLogic 이 Offload 된 DCBX 클라이언트를 활용하기 때문에 필수입니다 . lldptool set-lldp –i adminStatus=disasbled 12. FCoE offload 및 iSCSI-offload-TLV 의 경우 , /var/lib/lldpad/lldpad.
7–Linux 드라이버 소프트웨어 Linux 드라이버 소프트웨어 설치 KMP 패키지 설치 주 이 절차의 예제는 bnx2x 드라이버뿐만 아니라 bxn2fc 및 bnx2i 드라이버에도 적용됩니다 . KMP 패키지 설치 방법 : 1. KMP 패키지를 설치합니다 . rpm -ivh rmmod bnx2x 2. 다음과 같이 드라이버를 로드합니다 . modprobe bnx2x 소스 TAR 파일로 드라이버 구축 주 이 절차에 사용된 예제는 bnx2 드라이버뿐만 아니라 bnx2i 및 bnx2fc 드라이 버에도 적용됩니다 . TAR 파일로부터 드라이버 구축 방법 : 1. 디렉터리를 생성하고 해당 디렉터리에 TAR 파일 압축을 풉니다 . tar xvzf netxtreme2-version.tar.gz 2. 드라이버 bnx2x.ko( 또는 bnx2x.o) 를 실행 중인 커널의 로드 가능한 모듈 로 구축합니다 . cd netxtreme2-version make 3.
7–Linux 드라이버 소프트웨어 Linux 드라이버 소프트웨어 설치 5. 드라이버와 man 페이지를 설치합니다 . make install 주 설치된 드라이버 위치는 위의 RPM 지침을 참조하십시오 . 6. 사용자 데몬 (iscsiuio) 을 설치합니다 . QLogic iSCSI Offload 기능을 사용하기 위해 필요한 소프트웨어 구성 요소를 로드 하는 방법에 대한 지침은 41 페이지의 " 필요한 iSCSI 소프트웨어 구성 요소 로드 및 실행 " 를 참조하십시오 . 드라이버 구축 후 네트워크 프로토콜과 주소를 구성하려면 해당 운영 체제와 함께 제공된 설명서를 참조합니다 . 이진 DKMS RPM 드라이버 패키지 설치 DKMS(Dynamic Kernel Module Support) 는 커널을 업그레이드할 때마다 수행하 는 모듈의 재구축을 단순화하기 위한 것입니다 . 업그레이드하려면 커널 종속형 모 듈 소스가 상주할 수 있는 프레임워크를 생성해야 합니다 .
7–Linux 드라이버 소프트웨어 필요한 iSCSI 소프트웨어 구성 요소 로드 및 실행 이진 KMOD 및 KMP 드라이버 패키지 설치 이진 KMOD 및 KMP 드라이버 패키지 설치 방법 : 1. KMOD 및 KMP RPM 드라이버 패키지를 설치합니다 . SUSE: netxtreme2-kmp-default-_-...rpm Red Hat: kmod-netxtreme2-...rpm 2. 메시지 로그를 확인하여 네트워크 어댑터가 iSCSI 를 지원하는지 확인합니 다 . bnx2i: dev eth0 does not support iSCSI 메시지가 표시되면 iSCSI 가 지원되지 않는 것입니다 . 이 메시지는 다음 메시지와 함께 인터페 이스가 열릴 때까지 표시되지 않을 수 있습니다 . ifconfig eth0 up 3.
7–Linux 드라이버 소프트웨어 Linux 드라이버 언로드 / 제거 RPM 설치에서 드라이버 언로드 / 제거 주 이 절차에 사용된 예제는 bnx2x 드라이버뿐만 아니라 bnx2fc 및 bnx2i 드 라이버에도 적용됩니다 . 2.6 커널에서는 드라이버 모듈을 언로드하기 전에 eth# 인터페이스를 비 활성화할 필요가 없습니다 . C-NIC 드라이버가 로드되면 bnx2x 드라이버를 언로드하기 전에 C-NIC 드라이버를 언로드하십시오 . bnx2i 드라이버를 언로드하기 전에 대상에 연결된 실행 중인 모든 iSCSI 세션을 연결 해제합니다 . 드라이버를 언로드하려면 ifconfig 를 입력해 드라이버로 열린 모든 eth# 인터페 이스를 비활성화한 후 다음 명령을 실행합니다 . rmmod bnx2x 주 이전 명령 역시 C-NIC 모듈을 제거합니다 . RPM 으로 드라이버를 설치한 경우 다음 명령을 실행하여 제거합니다 .
7–Linux 드라이버 소프트웨어 PCI 파일 패치 적용 ( 옵션 ) RPM 패키지에 포함된 QCS 제거 다음 명령을 실행하여 Linux RPM 패키지에 포함된 QCS CLI 및 / 또는 연결되어 있 는 RPC 에이전트를 제거합니다 . % rpm -e .rpm 여기에서 은 다음 중 하나입니다 . QCS CLI QCS-CLI--.rpm RPC 에이전트 qlnxremote-..rpm PCI 파일 패치 적용 ( 옵션 ) 주 이 절차에 사용된 예제는 bnx2x 드라이버뿐만 아니라 bnx2fc 및 bnx2i 드라이 버에도 적용됩니다 . Red Hat kudzu 등 하드웨어 감지 유틸리티의 경우 효과적으로 bnx2x 지원 장치를 식별하려면 , PCI 공급업체 및 장치 정보를 포함하는 파일 여러 개를 업데이트해야 합니다 . 보완 TAR 파일에 제공된 스크립트를 실행하여 업데이트를 적용하십시오 .
7–Linux 드라이버 소프트웨어 네트워크 설치 네트워크 설치 NFS, FTP 또는 HTTP( 네트워크 부트 디스크나 PXE 사용 ) 를 통해 네트워크를 설 치할 경우 , bnx2x 드라이버가 포함된 디스크 드라이버가 필요합니다 . 최신 Red Hat 및 SUSE 버전의 드라이버 디스크 이미지가 포함되어 있습니다 . Makefile 및 make 환경을 수정하여 다른 Linux 버전용 부트 드라이버를 컴파일할 수 있습니 다 . 자세한 내용은 Red Hat 웹 사이트를 참조하십시오 . http://www.redhat.com 옵션 속성 값 설정 여러 드라이버에 옵션 속성이 있습니다 . bnx2x 드라이버 매개변수 bnx2i 드라이버 매개변수 bnx2fc 드라이버 매개변수 bnx2x 드라이버 매개변수 bnx2x 드라이버 매개변수는 다음 섹션에 설명되어 있습니다 .
7–Linux 드라이버 소프트웨어 옵션 속성 값 설정 또는 modprobe bnx2x int_mode=1 int_mode 매개변수를 2 로 설정하여 시스템의 모든 BCM57xx 및 BCM57xxx 어댑 터에서 MSI 모드를 강제로 사용하도록 합니다 . insmod bnx2x.ko int_mode=2 또는 modprobe bnx2x int_mode=2 int_mode 매개변수를 3 으로 설정하여 시스템의 모든 BCM57xx 및 BCM57xxx 어 댑터에서 MSI-X 모드를 강제로 사용하도록 합니다 . dropless_fc dropless_fc 매개변수는 BCM57xx 및 BCM57xxx 어댑터에서 보조 Flow Control 메커니즘을 활성화하는 데 사용할 수 있습니다 . 칩 내장 버퍼 (BRB) 가 일 정 수준의 용량에 도달하면 기본 Flow Control 메커니즘이 중지 프레임을 전송합니 다 . 이는 성능을 대상으로 하는 Flow Control 메커니즘입니다 .
7–Linux 드라이버 소프트웨어 옵션 속성 값 설정 pri_map 옵션 매개변수 pri_map 은 VLAN PRI 값 또는 IP DSCP 값을 하드웨어의 같거나 다른 CoS 에 매핑하는 데 사용합니다 . 이 32 비트 매개변수는 드라이버에 의해 각 4 비트의 8 개 값으로 평가됩니다 . 각 니블은 해당 우선 순위에 대해 원하는 하드웨 어 대기열 수를 설정합니다 . 예를 들어 , pri_map 을 0x11110000 으로 설정하면 CoS 0 에 우선 순위 0~3 을 매핑하고 CoS 1 에 우선 순위 4~7 을 매핑할 수 있습니 다. bnx2i 드라이버 매개변수 옵션 매개변수인 en_tcp_dack, error_mask1 및 error_mask2 는 bnx2i 의 insmod 또는 modprobe 명령의 명령행 인수로 제공할 수 있습니다 .
7–Linux 드라이버 소프트웨어 옵션 속성 값 설정 time_stamps Enable TCP TimeStamps(TCP 타임스탬프 활성화 ) 는 오프로드된 iSCSI 연결의 TCP 타임스탬프 기능을 활성화 / 비활성화합니다 . 기본값 : TCP 타임스탬프 옵션이 비활성화됩니다 (DISABLED). 예 : insmod bnx2i.ko time_stamps=1 또는 modprobe bnx2i time_stamps=1 sq_size Configure SQ size(SQ 크기 구성 ) 는 오프로드된 연결의 전송 대기열 크기를 선 택하는 데 사용하며 SQ 크기는 대기열에 들어갈 수 있는 최대 SCSI 명령을 결정합 니다 . SQ 크기는 오프로드가 가능한 연결 품질과 관련이 있어서 QP 크기가 증가 할수록 지원되는 연결 품질이 떨어집니다 . 기본값을 사용할 경우 BCM5708 어댑 터는 연결 28 개를 오프로드할 수 있습니다 .
7–Linux 드라이버 소프트웨어 옵션 속성 값 설정 last_active_tcp_port Last active TCP port( 마지막 활성 TCP 포트 ) 상태 매개변수는 iSCSI Offload 연 결에 사용된 마지막 TCP 포트 번호를 지정하는 데 사용합니다 . 기본값 : 해당 없음 유효값 : 해당 없음 참고 : 이 매개변수는 읽기 전용입니다 . ooo_enable Enable TCP out-of-order(TCP out-of-order 활성화 ) 기능은 오프로드된 iSCSI 연 결의 TCP out-of-order RX 처리 기능을 활성화 / 비활성화합니다 . 기본값 : TCP out-of-order 기능이 활성화됩니다 (ENABLED). 예 : insmod bnx2i.
7–Linux 드라이버 소프트웨어 드라이버 기본값 드라이버 기본값 드라이버에 대한 기본 설치는 다음의 섹션에 포함되어 있습니다 . bnx2 드라이버 기본값 bnx2x 드라이버 기본값 bnx2 드라이버 기본값 Speed( 속도 ): 보급된 모든 속도 자동 협상 Flow Control( 흐름 제어 ): 보급된 RX 및 TX 자동 협상 MTU: 1500( 범위 : 46~9000) RX Ring Size(RX 링 크기 ): 255( 범위 : 0~4080) RX Jumbo Ring Size(RX 점보 링 크기 ): 0( 범위 : 0~16320), MTU 및 RX 링 크기 에 따라 드라이버에서 조정함 TX Ring Size(TX 링 크기 ): 255( 범위 : (MAX_SKB_FRAGS+1)~255) MAX_SKB_FRAGS 는 커널 및 아키텍처별로 다릅니다 . x86 용 2.6 커널에서 MAX_SKB_FRAGS 는 18 입니다 .
7–Linux 드라이버 소프트웨어 드라이버 메시지 bnx2x 드라이버 기본값 Speed( 속도 ): 보급된 모든 속도 자동 협상 Flow Control( 흐름 제어 ): 보급된 RX 및 TX 자동 협상 MTU: 1500( 범위 : 46~9600) RX Ring Size(RX 링 크기 ): 4078( 범위 : 0~4078) TX Ring Size(TX 링 크기 ): 4078( 범위 : (MAX_SKB_FRAGS+4)~4078) MAX_SKB_FRAGS 는 커널 및 아키텍처별로 다릅니다 . x86 용 2.6 커널에서 MAX_SKB_FRAGS 는 18 입니다 .
7–Linux 드라이버 소프트웨어 드라이버 메시지 CNIC 드라이버 로그인 (bnx2 만 해당 ) QLogic BCM57xx and BCM57xxx cnic v1.1.19 (Sep 25, 2007) NIC 감지 eth#: QLogic BCM57xx and BCM57xxx xGb (B1) PCI-E x8 found at mem f6000000, IRQ 16, node addr 0010180476ae cnic: Added CNIC device: eth0 링크 연결 및 속도 표시 bnx2x: eth# NIC Link is Up, 10000 Mbps full duplex 링크 해제 표시 bnx2x: eth# NIC Link is Down MSI-X Enabled Successfully bnx2x: eth0: using MSI-X bnx2i 드라이버 메시지 bnx2i 드라이버 메시지는 다음을 포함합니다 .
7–Linux 드라이버 소프트웨어 드라이버 메시지 드라이버에서 C-NIC 장치에 iSCSI Offload 가 활성화되지 않음을 감지 bnx2i: iSCSI not supported, dev=eth3 bnx2i: bnx2i: LOM is not enabled to offload iSCSI connections, dev=eth0 bnx2i: dev eth0 does not support iSCSI 최대 허용 iSCSI 연결 Offload 제한 초과 bnx2i: alloc_ep: unable to allocate iscsi cid bnx2i: unable to allocate iSCSI context resources 대상 노드로의 네트워크 라우트 및 전송 이름 바인딩이 서로 다른 장치임 bnx2i: conn bind, ep=0x...
7–Linux 드라이버 소프트웨어 드라이버 메시지 C-NIC 가 iSCSI 프로토콜 위반을 감지함 - 치명적인 오류 bnx2i: iscsi_error - wrong StatSN rcvd bnx2i: iscsi_error - hdr digest err bnx2i: iscsi_error - data digest err bnx2i: iscsi_error - wrong opcode rcvd bnx2i: iscsi_error - AHS len > 0 rcvd bnx2i: iscsi_error - invalid ITT rcvd bnx2i: iscsi_error - wrong StatSN rcvd bnx2i: iscsi_error - wrong DataSN rcvd bnx2i: iscsi_error - pend R2T violation bnx2i: iscsi_error - ERL0, UO bnx2i: iscsi_error - ERL0, U1 bnx2i: iscsi_error - ERL0, U2 bnx2i: iscs
7–Linux 드라이버 소프트웨어 드라이버 메시지 C-NIC 가 iSCSI 프로토콜 위반을 감지함 — 치명적이지 않은 경고 bnx2i: iscsi_warning - invalid TTT bnx2i: iscsi_warning - invalid DataSN bnx2i: iscsi_warning - invalid LUN field 주 드라이버가 특정 위반을 치명적인 오류가 아닌 경고로 취급하도록 구성해야 합니다 .
7–Linux 드라이버 소프트웨어 드라이버 메시지 드라이버가 FCoE Offload 활성화된 C-NIC 장치와 핸드셰이크 실패 bnx2fc: init_failure due to invalid opcode bnx2fc: init_failure due to context allocation failure bnx2fc: init_failure due to NIC error bnx2fc: init_failure due to completion status error bnx2fc: init_failure due to HSI mismatch FCoE 시작에 필요한 유효한 라이선스 없음 bnx2fc: FCoE function not enabled bnx2fC: FCoE not supported on 최대 허용 가능한 FCoE Offload 연결 제한 또는 메모리 제한을 초과하여 세션 실패 bnx2fc: Failed to allocate conn id for port_id
7–Linux 드라이버 소프트웨어 채널 본딩을 사용하여 팀 구성 잘못된 계층 2 수신 프레임 드롭 bnx2fc: FPMA mismatch... drop packet bnx2fc: dropping frame with CRC error 호스트 버스 어댑터 및 lport 할당 실패 bnx2fc: Unable to allocate hba bnx2fc: Unable to allocate scsi host NPIV 포트 생성 bnx2fc: Setting vport names, , 채널 본딩을 사용하여 팀 구성 Linux 드라이버를 설치한 경우 본딩 커널 모듈과 채널 본딩 인터페이스를 사용하여 여러 어댑터를 팀으로 구성할 수 있습니다 . 자세한 내용은 해당 운영 체제 설명서 의 채널 본딩 정보를 참조하십시오 . 통계 자세한 통계 및 구성 정보는 ethtool 유틸리티를 사용하여 볼 수 있습니다 . 자세한 내용은 ethtool man 페이지를 참조하십시오 .
7–Linux 드라이버 소프트웨어 Linux iSCSI Offload 사용자 응용 프로그램 iscsiuio iSCSI 연결 생성을 시도하기 전에 iscsiuio 데몬을 설치하여 실행합니다 . 데몬의 지 원이 없으면 드라이버가 iSCSI 대상에 연결을 설정할 수 없습니다 . iscsiuio 데몬 설치 및 실행 : 1. 다음과 같이 iscsiuio 소스 패키지를 설치합니다 . # tar -xvzf iscsiuio-.tar.gz 2. 다음과 같이 iscsiuio 의 압축을 푼 디렉터리 CD: # cd iscsiuio- 3. 다음과 같이 컴파일하고 설치합니다 . # ./configure # make # make install 4. 다음과 같이 iscsiuio 버전이 소스 패키지와 일치하는지 확인합니다 . # iscsiuio -v 5. 다음과 같이 iscsiuio 를 시작합니다 .
7–Linux 드라이버 소프트웨어 Linux iSCSI Offload 소프트웨어 초기자를 다시 사용하려면 다음을 입력하십시오 . iscsiadm -m iface -I -n iface.transport_name -v tcp -o update 여기서 iface 파일에는 다음 정보가 포함됩니다 . iface.net_ifacename = ethX iface.iscsi_ifacename = iface.transport_name = tcp iSCSI Offload 를 위한 VLAN 구성 (Linux) 네트워크의 iSCSI 트래픽을 다른 트래픽과 분리하기 위해 VLAN 에서 격리할 수 있 습니다 . 이 경우 어댑터에서 iSCSI 인터페이스를 해당 VLAN 의 멤버로 만들어야 합니다 . iSCSI VLAN 을 구성하려면 iSCSI 용 iface 파일에 VLAN ID 를 추가합니다 .
7–Linux 드라이버 소프트웨어 Linux iSCSI Offload sendtargets 로 iSCSI 대상 검색 iscsiadm -m discovery --type sendtargets -p -I iscsiadm 명령으로 대상 로그인 iscsiadm --mode node --targetname --portal --login 시스템에 활성화된 모든 드라이브 표시 fdisk -l 최대 Offload iSCSI 연결 bnx2i 는 128 개의 사용 명령을 포함하는 드라이버 매개변수의 기본 집합으로 QLogic BCM5771x 어댑터에서 128 개의 연결을 오프로드할 수 있습니다 . 이 연결 수는 절대 제한 (Hard Limit) 은 아니며 단순한 칩 내장 리소스 할당 산술치 입니다 . bnx2i 는 공유된 대기열 크기를 줄여 더 많은 연결을 오프로드할 수 있습니 다 .
8 VMware 드라이버 소프트웨어 이 장에서는 VMware 드라이버 소프트웨어에 관한 다음 정보를 제공합니다 . 패키지 네트워킹 지원 , 드라이버 66 페이지의 "FCoE 지원 " 68 페이지의 "iSCSI 지원 " 주 이 장의 내용은 현재 지원되는 VMware 버전인 ESXi 6.0 U2, ESXi 6.5 및 ESXi 6.7 에 주로 적용됩니다 . ESXi 6.7 은 모든 프로토콜에 기본 드라이버를 사용합니다 . 패키지 VMware 드라이버는 표 8-1 에 나온 패키지 형식으로 릴리스됩니다 . 표 8-1. VMware 드라이버 패키지 형식 드라이버 압축된 ZIP QLG-NetXtremeIIversion.zip(ESXi 6.0, ESXi 6.5) 압축된 ZIP QLG-qcnic-offline_bundle.zip(ESXi 6.
8–VMware 드라이버 소프트웨어 네트워킹 지원 , 드라이버 드라이버 다운로드 , 설치 및 업데이트 BCM57xx 및 BCM57xxx 10GbE 네트워크 어댑터용 VMware ESXi 드라이버를 다 운로드 , 설치 또는 업데이트하려면 http://www.vmware.com/support 를 참조하십 시오 . 이 패키지는 두 번 압축되었습니다 . ESXi 호스트에 이 패키지를 복사하기 전에 패키지 압축을 푸십시오 . 드라이버 매개변수 일부 옵션 매개변수를 vmkload_mod 명령의 명령행 인수로 제공할 수 있습니다 . esxcfg-module 명령을 실행하여 이 매개변수를 설정합니다 . 자세한 내용을 확 인하려면 다음 명령을 실행하십시오 . esxcfg-module -h. int_mode 옵션 매개변수 int_mode 는 MSI-X 이외의 인터럽트 모드 사용을 강제하는 데 사 용됩니다 . 커널에서 MSI-X 가 지원되는 경우 드라이버는 기본적으로 MSI-X 를 활 성화하려고 합니다 .
8–VMware 드라이버 소프트웨어 네트워킹 지원 , 드라이버 pri_map VLAN PRI 값 또는 IP DSCP 값을 하드웨어의 같거나 다른 CoS 에 매핑하는 데 사 용하려면 옵션 매개변수 pri_map 을 사용합니다 . 이 32 비트 매개변수는 드라이 버에 의해 각 4 비트의 8 개 값으로 평가됩니다 . 각 니블은 해당 우선 순위에 대해 필요한 하드웨어 대기열 수를 설정합니다 . 예를 들어 , pri_map 매개변수를 0x22221100 으로 설정하면 CoS 0 에 우선 순위 0~1 을 , CoS 1 에 우선 순위 2~3 을 , CoS 2 에 우선 순위 4~7 을 매핑할 수 있습니 다 . 다른 예는 , pri_map 매개변수를 0x11110000 으로 설정하면 CoS 0 에 우선 순위 0~3 을 매핑하고 CoS 1 에 우선 순위 4~7 을 매핑할 수 있습니다 .
8–VMware 드라이버 소프트웨어 네트워킹 지원 , 드라이버 enable_default_queue_filters 옵션 매개변수 enable_default_queue_filters 는 기본 대기열에서 분류 필터를 활성화합니다 . 하드웨어는 총 512 개의 분류 필터를 어댑터 포트 간에 동일 하게 나누어 지원합니다 . 예를 들어 , 쿼드 포트 어댑터라면 포트당 128 개의 필터 가 있게 됩니다 . NPAR 구성의 경우 , 필터가 기본 대기열에 적용되어 동일한 물리 적 포트에 속하는 파티션 간에 트래픽 스위칭을 지원합니다 . 필터 수가 하드웨어 제한을 초과하는 경우 Rx filters on NetQ Rx Queue 0 exhausted 라는 메시지가 vmkernel 로그에 표시됩니다 . 이 메시지는 하드웨어 필 터 제한에 도달했으며 더 이상 항목을 추가할 수 없음을 나타냅니다 .
8–VMware 드라이버 소프트웨어 네트워킹 지원 , 드라이버 Coalesce TX Microseconds( 통합 TX 마이크로초 ): 50( 범위 : 0~12288) MSI-X: 활성화 (2.6 커널에서 지원되는 경우 ) TSO: 활성화 WoL: 비활성화 드라이버 언로드 및 제거 bnx2x VMware ESXi 드라이버를 제거하려면 다음 명령을 실행합니다 . vmkload_mod -u bnx2x 드라이버 메시지 다음 bnx2x VMware ESXi 드라이버 메시지는 파일 /var/log/vmkernel.log 에 기록되는 가장 일반적인 샘플 메시지입니다 . dmesg -n 명령을 실행 하면 콘솔에 표시되는 메시지 단계를 조절할 수 있습니다 . 대부분의 시스템은 기 본적으로 레벨 6 으로 설정됩니다 . 모든 메시지를 보려면 수준을 보다 높게 설정하 십시오 . 드라이버 사인온 QLogic BCM57xxx 10Gigabit Ethernet Driver bnx2x 0.40.
8–VMware 드라이버 소프트웨어 네트워킹 지원 , 드라이버 메모리 제한 로그 파일에 다음과 같은 메시지가 기록되면 ESXi 호스트에 심각한 부하가 가해지 고 있음을 의미합니다 . 부하를 줄이려면 NetQueue 를 비활성화하십시오 . Dec 2 18:24:20 ESX4 vmkernel: 0:00:00:32.342 cpu2:4142)WARNING: Heap: 1435: Heap bnx2x already at its maximumSize. Cannot expand. Dec 2 18:24:20 ESX4 vmkernel: 0:00:00:32.342 cpu2:4142)WARNING: Heap: 1645: Heap_Align(bnx2x, 4096/4096 bytes, 4096 align) failed. caller: 0x41800187d654 Dec 2 18:24:20 ESX4 vmkernel: 0:00:00:32.
8–VMware 드라이버 소프트웨어 FCoE 지원 FCoE 지원 이 섹션에서는 QLogic FCoE C-NIC 지원을 위해 VMware 소프트웨어 패키지를 설 치하는 것과 관련된 내용 및 절차에 대해 설명합니다 . 드라이버 QLogic BCM57xx 및 BCM57xxx FCoE 드라이버에는 bnx2x 드라이버와 bnx2fc 드 라이버가 포함됩니다 . bnx2x 드라이버는 모든 PCI 장치 리소스 ( 레지스터 , 호스트 인터페이스 대기 열 등 ) 를 관리하고 , QLogic 의 BCM57xx 및 BCM57xxx 10G 장치에 대한 계 층 2 VMware 하위 수준 네트워크 드라이버 역할도 합니다 . 이 드라이버는 하 드웨어를 직접 제어하고 , VMware 호스트 네트워킹 호스트를 위해 이더넷 패 킷을 보내고 받는 작업을 담당합니다 . 또한 bnx2x 드라이버는 자신 ( 계층 2 네트워킹 ) 과 bnx2fc(FCoE 프로토콜 ) 및 C-NIC 드라이버를 위해 인터럽트 를 받아 처리합니다 .
8–VMware 드라이버 소프트웨어 FCoE 지원 출력 예 : vmnic4 User Priority: 3 Source MAC: FF:FF:FF:FF:FF:FF Active: false Priority Settable: false Source MAC Settable: false VLAN Range Settable: false VN2VN Mode Enabled: false 2. 다음과 같이 FCoE 인터페이스를 활성화합니다 . # esxcli fcoe nic discover -n vmnicX 여기서 X 는 단계 1 에서 결정된 인터페이스 번호입니다 . 3. 다음과 같이 해당 인터페이스가 작동 중인지 확인합니다 .
8–VMware 드라이버 소프트웨어 iSCSI 지원 주 Software FCoE라는 레이블은 Inbox FCoE 라이브러리 및 유틸리티에 종속 되는 초기자를 설명하기 위해 사용되는 VMware 용어입니다 . QLogic 의 FCoE 솔루션은 전적으로 상태 연결에 기반하는 하드웨어 Offload 솔루션으 로 , 비 Offload 소프트웨어 초기자에 의해 발생하는 CPU 부담을 크게 줄이도 록 설계되어 있습니다 . 설치 점검 사항 드라이버가 올바로 설치되었는지 확인하고 호스트 포트가 스위치에 나타나도록 하 려면 아래의 절차를 따르십시오 . 드라이버가 올바로 설치되었는지 확인하려면 : 1. 다음 명령 중 하나를 실행하여 스위치 패브릭 로그인 (FLOGI) 데이터베이스 에 호스트 포트가 표시되는지 확인합니다 . show flogi database (Cisco FCF 일 경우 ) fcoe -loginshow (Brocade FCF 일 경우 ) 2.
8–VMware 드라이버 소프트웨어 iSCSI 지원 iSCSI Offload 를 위한 VLAN 구성 (VMware) 네트워크의 iSCSI 트래픽을 다른 트래픽과 분리하기 위해 VLAN 에서 격리할 수 있 습니다 . 이 경우 어댑터에서 iSCSI 인터페이스를 해당 VLAN 의 멤버로 만들어야 합니다 . V-Sphere 클라이언트 (GUI) 를 사용하여 VLAN 을 구성하려면 : 1. ESXi 호스트를 선택합니다 . 2. Configuration( 구성 ) 탭을 클릭합니다 . 3. Configuration( 구성 ) 페이지에서 Networking( 네트워킹 ) 링크를 선택한 다 음 Properties( 속성 ) 를 클릭합니다 . 4. 선택한 vSwitch Properties(vSwitch 속성 ) 에서 Ports( 포트 ) 페이지를 선택 하고 가상 스위치나 포트 그룹을 클릭한 다음 Edit( 편집 ) 를 클릭합니다 . 5.
8–VMware 드라이버 소프트웨어 iSCSI 지원 그림 8-2. VM 네트워크 속성 : 예 2 6. VMKernel 에서 VLAN 을 구성합니다 .
9 Windows 드라이버 소프트웨어 Windows 드라이버 소프트웨어 정보에는 다음 내용이 포함됩니다 . 드라이버 소프트웨어 설치 76 페이지의 " 드라이버 소프트웨어 수정 " 77 페이지의 " 드라이버 소프트웨어 복구 또는 다시 설치 " 78 페이지의 " 장치 드라이버 제거 " 78 페이지의 " 어댑터 속성 보기 또는 변경 " 78 페이지의 " 전원 관리 옵션 설정 " 80 페이지의 "QCC GUI, QCC PowerKit 및 QCS CLI 와 함께 사용할 통신 프 로토콜 구성 " 드라이버 소프트웨어 설치 주 이 지침은 QLogic BCM57xx 및 BCM57xxx 어댑터가 출고 시 설치되지 않은 경우를 전제로 한 것입니다 . 어댑터가 설치되어 출고된 경우 드라이버 소프 트웨어도 설치되어 있습니다 .
9–Windows 드라이버 소프트웨어 드라이버 소프트웨어 설치 주 드라이버 소프트웨어를 설치하기 전에 , Windows 운영 체제가 최신 서비 스 팩이 적용된 최신 버전으로 업그레이드되었는지 확인합니다 . Windows 운영 체제에서 QLogic BCM57xx 및 BCM57xxx 컨트롤러를 사 용하려면 네트워크 장치 드라이버를 물리적으로 설치해야 합니다 . 드라 이버는 설치 CD 에 포함되어 있습니다 . TCP/IP 오프로드 엔진 (TOE) 을 사용하려면 Windows Server 2008, Windows Server 2008 R2 또는 Windows Server 2012 또는 Windows 2016 을 설치해야 합니다 . 또한 마더보드에 라이센스 키가 설치되어 있 어야 합니다 (LOM 의 경우 ). 애드 인 NIC 의 경우 라이선스 키는 하드웨 어에 사전 프로그래밍되어 있습니다 .
9–Windows 드라이버 소프트웨어 드라이버 소프트웨어 설치 QLogic BCM57xx 및 BCM57xxx 드라이버 및 관리 응용 프로그램 설치 방법 : 1. 새 하드웨어 검색 마법사가 나타나면 취소를 클릭합니다 . 2. 드라이버 소스 미디어 또는 소프트웨어 드라이버 패키지를 다운로드한 위치 중 하나에서 다음을 수행합니다 . a. 운영 체제가 있는 폴더를 엽니다 . b. MUPS 폴더를 연 다음 , 운영 체제 구성에 따라 폴더의 압축을 풉니다 . c. Setup.exe 파일을 두 번 클릭합니다 . QLogic 드라이버 및 관리 응용 프로그램의 InstallShield 마법사에 시작 창이 표시됩니다 . 3. InstallShield 마법사 메시지 ( 그림 9-1) 에서 다음과 같이 사용하고자 하는 어 댑터 관리 유틸리티를 선택합니다 . QConvergeConsole GUI 를 사용하려면 예를 클릭합니다 .
9–Windows 드라이버 소프트웨어 드라이버 소프트웨어 설치 9. 설치 프로그램을 닫으려면 Finish( 마침 ) 를 클릭합니다 . 10. 설치 프로그램에서 시스템을 다시 시작할 필요가 있는지 확인합니다. 화면에 나타나는 지시를 따릅니다 . iSCSI Crash Dump 에 대한 Microsoft iSCSI 소프트웨어 초기자 설치 방법 : 지원되는 경우 QLogic iSCSI Crash Dump 유틸리티를 사용하려면 다음 설치 순서 를 따르는 것이 중요합니다 . 1. 설치 프로그램을 실행합니다 . 2. 패치 (MS KB939875) 와 함께 Microsoft iSCSI 소프트웨어 초기자를 설치합 니다 . 주 설치 프로그램을 통해 장치 드라이버를 업그레이드하는 경우 QCC GUI Configurations(GUI 구성 ) 페이지의 Advanced( 고급 ) 섹션에서 iSCSI Crash Dump 를 다시 활성화하십시오 . 장치 드라이버 설치 방법 ( 설치 프로그램 실행 후 ): 1.
9–Windows 드라이버 소프트웨어 드라이버 소프트웨어 설치 표 9-1. Windows 운영 체제 및 iSCSI Crash Dump ( 계속 ) 운영 체제 MS iSCSI 소프트웨어 초기 자 필요 여부 Microsoft 패치 (MS KB939875) 필요 여부 Windows Server 2012 이상 예 (OS 에 들어 있음 ) 아니오 Offload iSCSI(OIS) Windows Server 2008 아니오 아니오 Windows Server 2008 R2 아니오 아니오 Windows Server 2012 이상 아니오 아니오 자동 설치 사용 주 모든 명령은 대소문자를 구분합니다 . 자동 설치에 대한 자세한 지침과 정보를 보려면 Driver_Management_Apps_Installer 폴더의 silent.txt 파일 을 참조하십시오 . 설치 프로그램 소스 폴더에서 자동 설치 수행 방법 : 다음 명령을 실행합니다 .
9–Windows 드라이버 소프트웨어 드라이버 소프트웨어 수정 주 REINSTALL 스위치는 동일한 설치 프로그램이 이미 시스템에 설치된 경우에 만 사용해야 합니다 . 이전 버전의 설치 프로그램을 업그레이드하는 경우 위 에 나열된 setup /s /v/qn 을 사용합니다 . 기능별로 자동 설치 실행 방법 : 아래 나열된 기능을 포함하려면 ADDSOURCE 를 사용합니다 . 플랫폼에 따라 다음 명령을 실행합니다 . IA32 플랫폼 : setup /s /v"/qn ADDSOURCE=Driversi32,BACSi32,BASPi32,SNMPi32,CIMi32" AMD/EM64T 플랫폼 : setup /s /v"/qn ADDSOURCE=Driversa64,BACSa64,BASPa64,SNMPa64,CIMa64" 다음 명령행 구문은 플랫폼에 따라 QLogic 드라이버만 설치합니다 .
9–Windows 드라이버 소프트웨어 드라이버 소프트웨어 복구 또는 다시 설치 3. 계속하려면 Next( 다음 ) 를 클릭합니다 . 4. Modify, Add, or Remove( 수정 , 추가 또는 제거 ) 를 클릭하여 프로그램 기 능을 변경합니다 . 주 새 어댑터의 드라이버를 설치하는 경우에는 이 옵션을 사용할 수 없습 니다 . 새 어댑터의 드라이버 설치에 대한 자세한 내용은 77 페이지의 " 드라이버 소프트웨어 복구 또는 다시 설치 " 를 참조하십시오 . 5. 계속하려면 Next( 다음 ) 를 클릭합니다 . 6. 아이콘을 클릭하여 기능 설치 방법을 변경합니다 . 7. 다음을 클릭합니다 . 8. Install( 설치 ) 을 클릭합니다 . 9. 설치 프로그램을 닫으려면 Finish( 마침 ) 를 클릭합니다 . 10. 설치 프로그램에서 시스템을 다시 시작할 필요가 있는지 확인합니다. 화면에 나타나는 지시를 따릅니다 .
9–Windows 드라이버 소프트웨어 장치 드라이버 제거 장치 드라이버 제거 장치 드라이버를 제거하면 설치된 관리 응용 프로그램도 제거됩니다 . 주 Windows Server 2008 과 Windows Server 2008 R2 는 장치 드라이버를 이전 에 설치된 드라이버로 교체하기 위한 장치 드라이버 롤백 기능을 제공합니다. 그러나 롤백 기능을 개별 구성 요소 중 하나에서 사용할 경우 BCM57xx 및 BCM57xxx 장치의 복잡한 소프트웨어 아키텍처로 인해 문제가 발생할 수 있 습니다 . 따라서 QLogic 은 드라이버 설치 프로그램 사용을 통해서만 드라이 버 버전을 변경하는 것을 권장합니다 . 장치 드라이버 제거 방법 : 1. 제어판에서 프로그램 추가 또는 제거를 클릭합니다 . 2. QLogic 드라이버 및 관리 응용 프로그램(QLogic Drivers and Management Applications) 을 클릭하고 Remove( 제거 ) 를 클릭합니다 .
9–Windows 드라이버 소프트웨어 전원 관리 옵션 설정 주 블레이드 서버에서는 전원 관리 옵션을 사용할 수 없습니다 . 그림 9-2. 장치 전원 관리 옵션 설정 주 전원 관리 페이지는 전원 관리를 지원하는 서버에만 사용할 수 있습니다 . 컴퓨터가 대기 상태일 때 WoL(Wake on LAN)을 활성화하려면 Allow the device to wake the computer( 이 장치를 사용하여 컴퓨터의 대기 모드 를 종료할 수 있음 ) 확인란을 선택합니다 Only allow a magic packet to wake the computer( 매직 패킷에서만 컴 퓨터의 대기 모드를 종료할 수 있음 ) 확인란을 선택한 경우 컴퓨터는 Magic Packet 을 통해서만 대기 상태에서 빠져나올 수 있습니다 .
9–Windows 드라이버 소프트웨어 QCC GUI, QCC PowerKit 및 QCS CLI 와 함께 사용할 통신 프로토콜 구성 QCC GUI, QCC PowerKit 및 QCS CLI 와 함께 사용 할 통신 프로토콜 구성 QCC GUI, QCC PowerKit 및 QCS CLI 관리 응용 프로그램은 RPC 에이전트와 클 라이언트 소프트웨어라는 두 가지 주요 구성 요소로 이루어져 있습니다 . RPC 에 이전트는 하나 이상의 수렴형 네트워크 어댑터가 포함되어 있는 서버나 관리 호스 트에 설치됩니다 . RPC 에이전트는 수렴형 네트워크 어댑터에 대한 정보를 수집하 고 , 클라이언트 소프트웨어가 설치되어 있는 관리 PC 에서 해당 정보를 검색할 수 있게 합니다 . 클라이언트 소프트웨어를 사용하면 RPC 에이전트에서 정보를 볼 수 있고 수렴형 네트워크 어댑터를 구성할 수 있습니다 . 관리 소프트웨어에는 QCC GUI 및 QCS CLI 가 포함되어 있습니다 .
10 iSCSI 프로토콜 이 장에서는 iSCSI 프로토콜에 대한 다음 정보를 제공합니다 . iSCSI 부트 111 페이지의 "iSCSI Crash Dump" 111 페이지의 "Windows Server 의 iSCSI Offload" iSCSI 부트 QLogic BCM57xx 및 BCM57xxx GbE(Gigabit Ethernet) 어댑터는 디스크 없는 시 스템에 대한 운영 체제의 네트워크 부트를 위해 iSCSI 부트를 지원합니다 . iSCSI 부트를 사용하면 표준 IP 네트워크상 원격에 위치한 iSCSI 대상 컴퓨터에서 Windows, Linux 또는 VMware 운영 체제 부트가 가능합니다 . Windows 와 Linux 운영 체제의 경우 , 비 Offload(Microsoft/Open-iSCSI 초기자라 고도 함 ) 와 Offload(QLogic 의 Offload iSCSI 드라이버 또는 HBA) 의 두 가지 경로 로 부팅하도록 iSCSI 부트를 구성할 수 있습니다 .
10–iSCSI 프로토콜 iSCSI 부트 SLES 10.x 및 SLES 11( 비 Offload 경로만 지원 ) IPv4용 VMware ESXi 5.0 이상(비Offload 경로만 지원) 및 IPv6용 ESXi 6.0 이 상 계층 2 경로에서 VMware ESX 또한 SLES 11SP3, SLES12.0 이상부터 , RHEL 6.5, 6.6, 7, 7.1 이상부터 , Windows 2012, Windows 2012 R2 이상부터 그리고 ESXi 6.0 U2, 6.5 이상부터는 어댑터가 미지정 경로 유형에 대해서도 iSCSI 부트를 지원합니다 . iSCSI 부트 설정 iSCSI 부트 설정은 다음을 포함합니다 . iSCSI 대상 구성 iSCSI 부트 매개변수 구성 iSCSI 부트 이미지 준비 부팅 iSCSI 대상 구성 iSCSI 대상 구성은 대상 공급업체에 따라 다릅니다 .
10–iSCSI 프로토콜 iSCSI 부트 iSCSI 부트 매개변수 구성 iSCSI 부트 매개변수를 구성하려면 1. NIC 구성 페이지의 Legacy Boot Protocol( 레거시 부트 프로토콜 ) 드롭다운 메뉴 에서 iSCSI 를 선택합니다 ( 그림 10-1 참조 ). 그림 10-1. 레거시 부트 프로토콜 선택 그림 10-1 에 보이는 것과 같이 BCM57xx 및 BCM57xxx 어댑터일 때는 iSCSI 프로토콜에서 UEFI 가 지원되지 않습니다 .
10–iSCSI 프로토콜 iSCSI 부트 2. CCM, UEFI( 그림 10-2 참조 ), QCC GUI 또는 QCS CLI 에서 정적 및 동적 구 성에 따라 QLogic iSCSI 부트 소프트웨어를 구성합니다 . 그림 10-2. UEFI, iSCSI 구성 General Parameters( 일반 매개변수 ) 창 ( 그림 10-3 참조 ) 에서 사용할 수 있는 구성 옵션은 표 10-1 에 나와 있습니다 . 그림 10-3.
10–iSCSI 프로토콜 iSCSI 부트 표 10-1 에는 IPv4 및 IPv6 모두의 매개변수가 나와 있습니다 . IPv4 또는 IPv6 전용 매개변수는 따로 표시되어 있습니다 . 주 IPv6 iSCSI 부팅의 사용 가능 여부는 플랫폼 및 장치마다 다릅니다 . 표 10-1. 구성 옵션 옵션 설명 TCP/IP parameters through DHCP(DHCP 를 통한 TCP/ IP 매개변수 ) 이 옵션은 IPv4 에 한정됩니다 . iSCSI 부트 호스트 소프트웨어가 DHCP( 사용 ) 를 통해 IP 주소 정보를 획득할지 또는 정적 IP 구성 ( 사용 안 함 ) 을 사용할지 여부를 제어합니다 . IP Autoconfiguration (IP 자동 구성 ) 이 옵션은 IPv6 에 한정됩니다 . DHCPv6 가 있고 사용되는 (Enabled) 경우 iSCSI 부트 호스트 소프트웨어가 무상태 링크 로컬 주소 및 / 또는 상태 저장 주소를 구성할지 여부를 제어합니다 .
10–iSCSI 프로토콜 iSCSI 부트 표 10-1. 구성 옵션 ( 계속 ) 옵션 설명 DHCP Vendor ID (DHCP 공급업체 ID) iSCSI 부트 호스트 소프트웨어가 DHCP 도중에 Vendor Class ID( 공급업체 클 래스 ID) 를 해석하는 방법을 제어합니다 . DHCP 오퍼 패킷의 Vendor Class ID( 공급업체 클래스 ID) 필드가 이 필드의 값과 일치하면 iSCSI 부트 호스트 소프트웨어가 DHCP Option 43 필드에서 필요한 iSCSI 부트 확장자를 찾습니 다 . DHCP 를 사용하지 않으면 이 값을 설정할 필요가 없습니다 . Link Up Delay Time ( 링크 연결 지연 시간 ) 이더넷 링크가 설정된 후 네트워크를 통해 데이터를 전송하기 전에 iSCSI 부 트 호스트 소프트웨어 대기 시간 ( 초 단위 ) 을 제어합니다 . 유효한 값은 0 ~ 255 입니다 .
10–iSCSI 프로토콜 iSCSI 부트 정적 iSCSI 부트 구성 정적 구성에서는 82 페이지의 "iSCSI 대상 구성 " 에서 얻은 시스템 IP 주소 , 시스 템 초기자 IQN 및 대상 매개변수 데이터를 입력해야 합니다 . 구성 옵션에 대한 자 세한 내용은 85 페이지의 표 10-1 을 참조하십시오 . 정적 구성을 사용하여 iSCSI 부트 매개변수를 구성하는 방법 : 1. General Parameters Menu( 일반 매개변수 메뉴 ) 페이지에서 다음과 같이 설 정합니다 .
10–iSCSI 프로토콜 iSCSI 부트 주 CD/DVD-ROM이나 장착된 부팅 가능한 OS 설치 이미지를 사용하여 빈 iSCSI 대상 LUN 에 OS 를 최초로 설치하는 경우 Boot from Target( 대 상에서 부팅 ) 옵션을 One Time Disabled(1 회 비활성화됨 ) 로 설정하 십시오 . 이렇게 설정할 경우 성공적으로 로그인하고 연결이 설정된 후 시스템이 구성된 iSCSI 대상에서 부팅되지 않도록 합니다 . 이 설정은 다음에 시스템이 재부팅된 후 Enabled( 활성화됨 ) 로 전환됩니다 . Enabled( 활성화됨 ) 는 iSCSI 대상에 연결하고 iSCSI 대상에서 부팅을 시도함을 의미합니다 . Disabled( 비활성화됨 ) 는 iSCSI 대상에 연결하 고 해당 장치에서 부팅하지 않으나 부트 시퀀스에서 부트 벡터를 부팅 가능한 다음 장치로 핸드오프함을 의미합니다 . 2. ESC 키를 선택하여 Main( 주 ) 메뉴로 돌아갑니다 . 3.
10–iSCSI 프로토콜 iSCSI 부트 주 IP 주소를 정확하게 입력합니다 . 중복되거나 잘못된 세그먼트 / 네트워크 할당을 찾아내기 위해 IP 주소에서 오류를 확인하는 과 정이 없습니다 . Subnet Mask( 서브넷 마스크 ) Subnet Mask Prefix( 서브넷 마스크 접두사 ) Default Gateway( 기본 게이트웨이 ) Primary DNS( 주 DNS) Secondary DNS( 보조 DNS) iSCSI Name(iSCSI 이름 ) ( 클라이언트 시스템이 사용할 iSCSI 초기자 이름 ) CHAP ID CHAP Secret(CHAP 암호 ) 5. ESC 키를 선택하여 Main( 주 ) 메뉴로 돌아갑니다 . 6. Main( 주 ) 메뉴에서 iSCSI First Target Parameters(iSCSI 첫 번째 대상 매 개변수 ) 를 선택합니다 .
10–iSCSI 프로토콜 iSCSI 부트 a. Connect( 연결 ) 를 활성화하여 iSCSI 대상에 연결합니다 . b. iSCSI 대상을 구성할 때 사용한 값을 사용하여 다음 값을 입력합니다 . IP 주소 TCP Port(TCP 포트 ) Boot LUN( 부팅 LUN) iSCSI Name(iSCSI 이름 ) CHAP ID CHAP Secret(CHAP 암호 ) 8. ESC 키를 선택하여 Main( 주 ) 메뉴로 돌아갑니다 . 9. ( 옵션 ) iSCSI Second Target Parameter(iSCSI 두 번째 대상 매개변수 ) 창에 서 위 단계를 반복하여 두 번째 iSCSI 대상을 구성합니다 . 10. ESC 키를 선택하고 Exit and Save Configuration( 구성 저장 후 종료 ) 을 선 택합니다 . 11. F4 키를 눌러 MBA 구성을 저장합니다 .
10–iSCSI 프로토콜 iSCSI 부트 DHCP Option 17 을 사용할 경우 , 대상 정보는 DHCP 서버가 제공하며 초기자 iSCSI 이름은 Initiator Parameters( 초기자 매개변수 ) 화면에서 프로그래밍된 값에 서 검색됩니다 . 아무 값도 선택하지 않으면 컨트롤러가 다음 이름으로 기본 설정 됩니다 . iqn.1995-05.com.qlogic.<11.22.33.44.55.66>.iscsiboot 여기서 문자열 11.22.33.44.55.66 은 컨트롤러의 MAC 주소에 해당합니다 . DHCP Option 43(IPv4 전용 ) 을 사용할 경우 , Initiator Parameters( 초기자 매개변 수 ), 1st Target Parameters( 첫 번째 대상 매개변수 ) 또는 2nd Target Parameters ( 두 번째 대상 매개변수 ) 화면의 모든 설정은 무시되며 지울 필요가 없습니다 . 동적 구성을 사용하여 iSCSI 부트 매개변수를 구성하는 방법 : 1. 2.
10–iSCSI 프로토콜 iSCSI 부트 주 Initiator Parameters( 초기자 매개변수 ) 및 1st Target Parameters( 첫 번째 대상 매개변수 ) 화면의 정보는 무시되며 지울 필요가 없습니다 . 3. Exit and Save Configurations( 구성 저장 후 종료 ) 를 선택합니다 . CHAP 인증 활성화 CHAP 인증이 대상 및 초기자에 활성화되어 있는지 확인합니다 . CHAP 인증 사용 : 1. iSCSI General Parameters Menu(iSCSI 일반 매개변수 ) 화면에서 CHAP Authentication(CHAP 인증 ) 을 Enabled( 활성화됨 ) 로 설정합니다 . 2. iSCSI Initiator Parameters(iSCSI 초기자 매개변수) 창에서 다음과 같이 값을 입력합니다 . CHAP ID( 최대 128 바이트 ) CHAP Secret(CHAP 암호 ) ( 인증이 필요한 경우 길이가 12 자 이상이어 야함) 3.
10–iSCSI 프로토콜 iSCSI 부트 DHCP 서버가 iSCSI 부트를 지원하도록 구성하는 방법은 IPv4 와 IPv6 에서 서로 다릅니다 . IPv4 를 위한 DHCP iSCSI 부트 구성 IPv6 를 위한 DHCP iSCSI 부트 구성 IPv4 를 위한 DHCP iSCSI 부트 구성 DHCP 프로토콜에는 DHCP 클라이언트에 구성 정보를 제공하는 여러 옵션이 있습 니다 . iSCSI 부트의 경우 , QLogic 어댑터는 다음과 같은 DHCP 구성을 지원합니 다. DHCP Option 17(DHCP 옵션 17), 루트 경로 DHCP Option 43(DHCP 옵션 43), 공급업체 정보 DHCP Option 17(DHCP 옵션 17), 루트 경로 Option 17 은 iSCSI 대상 정보를 iSCSI 클라이언트에게 전달할 때 사용됩니다 . 루트 경로 형식은 IETC RFC 4173 에 다음과 같이 정의되어 있습니다 .
10–iSCSI 프로토콜 iSCSI 부트 DHCP Option 43(DHCP 옵션 43), 공급업체 정보 DHCP Option 43( 공급업체 정보 ) 은 DHCP Option 17 보다 많은 구성 옵션을 iSCSI 클라이언트에 제공합니다 . 이 구성에서는 부팅에 사용할 수 있는 2 개의 iSCSI 대상 IQN 과 함께 iSCSI 부트 클라이언트에 초기자 IQN 을 할당하는 3 개의 하위 옵션이 추가로 제공됩니다 . iSCSI 대상 IQN 은 DHCP Option 17 과 형식이 같 은 반면 iSCSI 초기자 IQN 은 해당 초기자의 IQN 에 불과합니다 . 주 DHCP Option 43 은 IPv4 에서만 지원됩니다 . 표 10-3 에는 하위 옵션이 나와 있습니다 . 표 10-3.
10–iSCSI 프로토콜 iSCSI 부트 DHCPv6 Option 17(DHCPv6 옵션 17), 공급업체 정보 주 DHCPv6 표준 루트 경로 옵션은 아직 사용할 수 없습니다 . QLogic 은 동적 iSCSI 부트 IPv6 지원에 대해 Option 16 또는 Option 17 을 사용할 것을 권장 합니다 . DHCPv6 Option 16(DHCPv6 옵션 16), 공급업체 클래스 옵션 DHCPv6 Option 16( 공급업체 클래스 옵션 ) 이 있고 구성된 DHCP Vendor ID(DHCP 공급업체 ID) 매개 변수와 일치하는 문자열을 포함해야 합니다 . DHCP Vendor ID(DHCP 공급업체 ID) 값은 QLGC ISAN 이며 iSCSI Boot Configuration(iSCSI 부트 구성 ) 메뉴의 General Parameters( 일반 매개변수 ) 에 표시됩니다 . Option 16 의 내용은 <2-byte length> 여야 합니다 .
10–iSCSI 프로토콜 iSCSI 부트 DHCP 서버 구성 Option 16 또는 Option 17 을 지원하도록 DHCP 서버를 구성합니다 . 주 DHCPv6 Option 16 및 Option 17 형식은 RFC 3315 에 정의되어 있습니다 . iSCSI 부트 이미지 준비 Windows Server 2008 R2 및 SP2 iSCSI 부트 설정 Windows Server 2012, 2012 R2 및 2016 iSCSI 부팅 설치 Linux iSCSI 부트 설정 SUSE 11.
10–iSCSI 프로토콜 iSCSI 부트 기타 필요한 소프트웨어 : Bindview.exe (Windows Server 2008 R2 에만 해당 . KB976042 참조 ) Windows Server 2008 R2 및 SP2 iSCSI 부트 설정 방법 : 1. 부팅할 시스템 (" 원격 시스템 ") 에서 로컬 하드 드라이브를 모두 제거합니다 . 2. 최신 QLogic MBA 및 iSCSI 부트 이미지를 어댑터의 NVRAM 에 로드합니다 . 3. QLogic MBA 가 첫 번째 부팅 가능 장치로 지정되고 CD-ROM 이 두 번째 부 팅 가능 장치로 지정되도록 원격 시스템의 BIOS 를 구성합니다 . 4. 원격 장치로부터 연결을 허용하도록 iSCSI 대상을 구성합니다 . 대상에서 새 로운 OS 설치를 위한 디스크 공간이 충분한지 확인합니다 . 5. 원격 시스템을 부팅합니다 .
10–iSCSI 프로토콜 iSCSI 부트 15. a. All Services( 모든 서비스 ) 를 선택합니다 . b. WFP Lightweight Filter(WFP 경량 필터 ) 아래에 AUT 용 Binding paths( 경로 바인딩 ) 이 나타나야 합니다 . 마우스 오른쪽 단추로 클릭 하여 해당 서비스를 비활성화하고 응용 프로그램을 닫습니다 . OS 및 시스템이 작동하고 원격 시스템 IP 등을 ping 하여 트래픽을 전달할 수 있는지 확인합니다 . Windows Server 2012, 2012 R2 및 2016 iSCSI 부팅 설치 Windows Server 2012/2012 R2 와 2016 은 오프로드 또는 비오프로드 경로를 통한 부팅 및 설치를 지원합니다 . 최신 QLogic 드라이버가 삽입된 " 통합 설치 " DVD 를 사용해야 합니다 (104 페이지의 "QLogic 드라이버를 Windows 이미지 파일로 삽입 ( 적용 )" 참조 ). 또한 support.microsoft.
10–iSCSI 프로토콜 iSCSI 부트 10. DVD 에서 부팅하고 설치를 시작합니다 . 11. 모든 설치 질문에 적절하게 답변합니다 ( 설치할 운영 체제를 선택하고 라이 선스 조건에 동의하는 것 등 ). Where do you want to install Windows?(Windows 를 설치할 위치를 지정 하십시오 ) 창이 나타나면 대상 드라이브가 표시됩니다 . 대상 드라이브는 iSCSI 부트 프로토콜을 통해 연결되며 원격 iSCSI 대상에 위치합니다 . 12. Next( 다음 ) 를 선택하여 Windows Server 2012 또는 2016 설치를 계속합니 다. Windows Server 2012 또는 2016 DVD 설치 프로세스가 시작된 후 몇 분이 지 나면 시스템이 재부팅됩니다 . 재부팅 후 , Windows Server 2012 또는 2016 설치 루틴이 재개되고 설치가 완료됩니다 . 13.
10–iSCSI 프로토콜 iSCSI 부트 6. SUSE 11.x 의 경우 , installation( 설치 ) 을 선택하고 부트 옵션에서 iscsi=1 netsetup=1 을 입력합니다 . 드라이버를 업데이트하려면 F6 드라이버 옵션 에서 YES( 예 ) 를 선택합니다 . 7. networking device 프롬프트에서 원하는 네트워크 어댑터 포트를 선택 하고 OK( 확인 ) 를 클릭합니다 . 8. configure TCP/IP 프롬프트에서 시스템이 IP 주소를 획득하는 방식을 구 성한 후 OK( 확인 ) 를 클릭합니다 . 9. 정적 IP 를 선택한 경우 iSCSI 초기자에 대한 IP 정보를 입력해야 합니다 . 10. (RHEL) 미디어 테스트를 " 건너 뛰려면 " 선택합니다 . 11. 필요에 따라 설치를 계속합니다 . 이때 드라이브를 사용할 수 있습니다 . 파일 복사가 완료되면 CD/DVD 를 제거하고 시스템을 재부팅합니다 . 12.
10–iSCSI 프로토콜 iSCSI 부트 12. Offload 및 / 또는 비 Offload initrd 이미지를 /boot 폴더로 복사합니다 . 13. 새 initrd 이미지를 가리키도록 grub 메뉴를 변경합니다 . 14. CHAP 를 활성화하려면 iscsid.conf 를 수정해야 합니다 (Red Hat 에만 해당 ). 15. 다시 부팅합니다 . 16. ( 옵션 ) CHAP 매개변수를 변경합니다 . 17. iSCSI 부트 이미지 부팅을 계속 진행하고 생성한 이미지 중 하나를 선택합니 다 ( 비 Offload 또는 Offload). iSCSI Boot Parameters(iSCSI 부트 매개변수 ) 섹션에서 선택한 것과 일치해야 합니다 . iSCSI Boot Parameters(iSCSI 부트 매개변수 ) 섹션에서 HBA Boot Mode(HBA 부트 모 드 ) 가 활성화된 경우 Offload 이미지를 부팅해야 합니다 .
10–iSCSI 프로토콜 iSCSI 부트 # Short-Description: iSCSI initiator daemon root-fs support # Description: Starts the iSCSI initiator daemon if the # root-filesystem is on an iSCSI device # ### END INIT INFO ISCSIADM=/sbin/iscsiadm ISCSIUIO=/sbin/iscsiuio CONFIG_FILE=/etc/iscsid.conf DAEMON=/sbin/iscsid ARGS="-c $CONFIG_FILE" # Source LSB init functions . /etc/rc.status # # This service is run right after booting.
10–iSCSI 프로토콜 iSCSI 부트 # Reset status of this service rc_reset # We only need to start this for root on iSCSI if ! grep -q iscsi_tcp /proc/modules ; then if ! grep -q bnx2i /proc/modules ; then rc_failed 6 rc_exit fi fi case "$1" in start) echo -n "Starting iSCSI initiator for the root device: " iscsi_load_iscsiuio startproc $DAEMON $ARGS rc_status -v iscsi_mark_root_nodes ;; stop|restart|reload) rc_failed 0 ;; status) echo -n "Checking for iSCSI initiator service: " if checkproc $DAEMON ; then rc_status -
10–iSCSI 프로토콜 iSCSI 부트 Windows OS 이미지에서 기본 드라이버 제거 1. 임시 폴더를 만듭니다 ( 예 : D:\temp). 2. 임시 폴더에 다음 하위 폴더 2 개를 생성합니다 . Win2008R2Copy Win2008R2Mod 3. DVD 설치 미디어의 모든 내용을 Win2008R2Copy 폴더로 복사합니다 . 4. 관리자 모드로 모든 프로그램에서 Windows AIK 명령 프롬프트를 열고 다음 명령을 실행합니다 . attrib -r D:\Temp\Win2008R2Copy\sources\boot.wim 5. 다음 명령을 실행하여 boot.wim 이미지를 마운트합니다 . dism /Mount-WIM /WimFile:D:\Temp\Win2008R2Copy\sources\boot.wim /index:1 / MountDir:D:\Temp\Win2008R2Mod 6. boot.wim 이미지가 Win2008R2Mod 폴더에 마운트되었습니다 .
10–iSCSI 프로토콜 iSCSI 부트 QLogic 드라이버를 Windows 이미지 파일에 삽입하려면 적용 가능한 Windows Server 버전 (2008 R2, 2008 SP2, 2012, 또는 2012 R2) 에 대한 올바른 드라이버 설치 패키지를 확보해야 합니다 . 그런 다음 , 이들 드라이버 패키지를 작업 디렉터리에 넣습니다 . 예를 들어 , Windows Server 버전에 적용 가능한 모든 드라이버 패키지와 파일을 단계 3 의 예 시 폴더 위치에 복사합니다 . C:\Temp\drivers 마지막으로 이들 드라이버를 Windows 이미지 (WIM) 파일에 삽입한 후 , 업데이트 된 이미지에서 해당 Windows Server 버전을 설치합니다 . QLogic 드라이버를 Windows 이미지 파일로 삽입 : 1. Windows Server 2008 R2 및 SP2 의 경우 Windows AIK 를 설치합니다 .
10–iSCSI 프로토콜 iSCSI 부트 7. 다음 명령을 실행하여 boot.wim 이미지를 마운트합니다 . dism /mount-wim /wimfile:.\src\sources\boot.wim /index:2 /mountdir:.\mnt 참고 : 인덱스 값은 항상 "2" 를 사용해야 합니다 . 8. 다음 명령을 실행하여 현재 마운트된 이미지에 아래의 드라이버를 추가합니 다. dism /image:.\mnt /add-driver /driver:C:\Temp\drivers /Recurse /ForceUnsigned 9. 다음 명령을 실행하여 boot.wim 이미지를 언마운트합니다 . dism /unmount-wim /mountdir:.\mnt /commit 10. 다음 명령을 실행하여 install.wim 이미지에서 원하는 SKU 의 인덱스를 결정합니다 . dism /get-wiminfo /wimfile:.\src\sources\install.
10–iSCSI 프로토콜 iSCSI 부트 17. 이전 단계에서 만든 DVD 를 사용하여 해당 Windows Server 버전을 설치합 니다 . 부팅 iSCSI 부트에 대해 시스템을 준비하고 iSCSI 대상에 운영 체제가 있는 경우 마지막 단계는 실제 부팅을 수행하는 것입니다 . 시스템은 네트워크를 통해 Windows 또는 Linux 로 부팅하며 로컬 디스크 드라이브처럼 작동합니다 . 1. 서버를 재부팅합니다 . 2. CTRL+S 키를 누릅니다 . 3. Offload 경로를 통해 부팅하려면 HBA Boot Mode(HBA 부트 모드 ) 를 Enabled( 활성화됨 ) 로 설정합니다 . 비 Offload 경로를 통해 부팅하려면 HBA Boot Mode(HBA 부트 모드 ) 를 Disabled( 비활성화됨 ) 로 설정합니다 . ( 어댑터가 Multi-Function( 다기능 ) 모드인 경우 이 매개변수를 변경할 수 없습니다 .
10–iSCSI 프로토콜 iSCSI 부트 iSCSI 부트 이미지를 만드는 “DD” 방법 원격 iSCSI 대상에 직접 설치가 옵션이 아닐 경우 그러한 이미지를 생성하는 다른 방법으로 “DD” 방법을 사용합니다 . 이 방법에서는 이미지를 로컬 하드 드라이브에 직접 설치하고 다음 부팅 시 iSCSI 부트 이미지를 만듭니다 . “DD” 방법을 사용하여 iSCSI 부트 이미지 생성 : 1. 로컬 하드 드라이브에 Linux OS를 설치하고 Open-ISCSI 초기자가 최신인지 확인합니다 . 2. 네트워크 서비스의 모든 실행 수준이 On 인지 확인합니다 . 3. iSCSI 서비스의 2, 3, 5 실행 수준이 On 인지 확인합니다 . 4. iscsiuio 를 업데이트합니다 . iscsiuio 패키지는 QLogic CD 에 있습니다 . SUSE 10 의 경우 이 단계는 필요하지 않습니다 . 5. Linux 시스템에 linux-nx2 패키지를 설치합니다 . 이 패키지는 QLogic CD 에 있습니다 .
10–iSCSI 프로토콜 iSCSI 부트 17. /boot 파티션을 iSCSI 대상에 언마운트합니다 . 18. (Red Hat 만 해당 ) CHAP 를 활성화하기 위해 iSCSI 대상에서 iscsid.conf 파일의 CHAP 섹션을 수정해야 합니다 . 필요에 따라 단방향 또는 양방향 CHAP 정보로 iscsid.conf 파일을 편집합니다 . 19. 시스템을 종료하고 로컬 하드 드라이브 연결을 해제합니다 . 이제 iSCSI 대상에 대한 iSCSI 부트가 준비되었습니다 . 20. ( 옵션 ) 필요시 CHAP 매개 변수를 포함한 iSCSI 부트 매개변수를 구성합니 다 (82 페이지의 "iSCSI 대상 구성 " 참조 ). 21. iSCSI 부트 이미지 부팅을 계속 진행하고 생성한 이미지 중 하나를 선택합니 다 ( 비 Offload 또는 Offload). iSCSI Boot Parameters(iSCSI 부트 매개변수 ) 섹션에서 선택한 것과 일치해야 합니다 .
10–iSCSI 프로토콜 iSCSI 부트 문제 : Windows Plug-and-Play(PnP) 를 통해 QLogic 드라이버를 설치할 때 파란 시스템 화면이 나타납니다 . 해결책 : 설치 프로그램을 통해 드라이버를 설치합니다 . 문제 : 정적 IP 구성의 경우 계층 2 iSCSI 부트에서 QLogic iSCSI 호스트 버스 어댑 터로 전환할 때 IP 주소 충돌이 수신됩니다 . 해결책 : OS 에서 네트워크 속성의 IP 주소를 변경합니다 . 문제 : iSCSI 부트 LUN 을 255 로 구성한 후 iSCSI 부트를 수행할 때 파란 시스템 화면이 나타납니다 . 해결책 : QLogic 의 iSCSI 솔루션이 0 에서 255 사이의 LUN 범위를 지원하지만 Microsoft iSCSI 소프트웨어 초기자는 255 의 LUN 을 지원하지 않습니다 . LUN 을 0 에서 254 사이의 값으로 구성합니다 . 문제 : 계층 2 iSCSI 부트 설치 후 NDIS 미니포트에 코드 31 노란색 느낌표가 나타 납니다 .
10–iSCSI 프로토콜 iSCSI Crash Dump iSCSI Crash Dump QLogic iSCSI Crash Dump 유틸리티를 사용할 경우 iSCSI Crash Dump 드라이버 를 설치해야 합니다 . 자세한 내용은 72 페이지의 " 설치 프로그램 사용 " 를 참조하 십시오 . Windows Server 의 iSCSI Offload iSCSI Offload 는 호스트 프로세서에서 iSCSI 호스트 버스 어댑터로 iSCSI 프로토 콜 처리 오버헤드를 오프로드하여 네트워크 성능과 처리량을 향상시키는 한편 서 버 프로세서 사용량을 최적화하는 데 도움을 주는 기술입니다 . 이 섹션에서는 Windows Server 시스템에 설치된 BCM57xx 및 BCM57xxx 네트워 크 어댑터 제품군을 위한 QLogic 의 iSCSI Offload 기능에 대해 다룹니다 . Linux iSCSI Offload 의 경우 56 페이지의 "Linux iSCSI Offload" 를 참조하십시오 .
10–iSCSI 프로토콜 Windows Server 의 iSCSI Offload QCC 를 사용하여 QLogic iSCSI 구성 QConvergeConsole(QCC) GUI 를 사용하여 모든 QLogic 네트워크 어댑터와 고급 기능을 관리합니다 . 자세한 내용은 QCC GUI 온라인 도움말을 참조하십시오 . 1. QCC GUI 를 엽니다 . 2. QLogic BCM57xx 및 BCM57xxx C-NIC iSCSI 어댑터를 선택합니다 . C-NIC iSCSI 어댑터가 없으면 VBD 장치를 선택하고 Configuration( 구성 ) 페이지의 Resource Reservations( 리소스 예약 ) 섹션에서 iSCSI Offload Engine(iSCSI Offload 엔진 ) 을 선택하여 iSCSI Offload 를 활성화합니다 . 3. Configurations( 구성 ) 탭을 클릭합니다 . 4.
10–iSCSI 프로토콜 Windows Server 의 iSCSI Offload 그림 10-6.
10–iSCSI 프로토콜 Windows Server 의 iSCSI Offload 3. 초기자 노드 이름 변경 대화 상자 ( 그림 10-7 참조 ) 에서 초기자 IQN 이름을 입력하고 OK( 확인 ) 을 클릭합니다 . 그림 10-7. 초기자 노드 이름 변경 4. iSCSI 초기자 속성 ( 그림 10-8) 에서 Discovery( 검색 ) 탭을 클릭하고 Target Portals( 대상 포털 ) 아래 Add( 추가 ) 를 클릭합니다 . 그림 10-8.
10–iSCSI 프로토콜 Windows Server 의 iSCSI Offload 5. 대상 포털 추가 대화 상자 ( 그림 10-9) 에서 대상의 IP 주소를 입력하고 Advanced( 고급 ) 을 클릭합니다 . 그림 10-9. 대상 포털 추가 대화 상자 6. 고급 설정 대화 상자에서 다음과 같이 일반 페이지를 완료합니다 . a. Local adapter( 로컬 어댑터 ) 에서 QLogic BCM57xx 및 BCM57xxx C-NIC iSCSI 어댑터를 선택합니다 . b. Source IP( 원본 IP) 에서 어댑터의 IP 주소를 선택합니다 . c. OK( 확인 ) 을 클릭하여 고급 설정 대화 상자를 닫고 변경 내용을 저장 합니다 .
10–iSCSI 프로토콜 Windows Server 의 iSCSI Offload 그림 10-10 은 이러한 예를 나타냅니다 . 그림 10-10.
10–iSCSI 프로토콜 Windows Server 의 iSCSI Offload 7. iSCSI 초기자 속성에서 Discovery( 검색 ) 탭을 클릭하고 검색 페이지에서 OK( 확인 ) 을 클릭하여 대상 포털을 추가합니다 . 그림 10-11 은 이러한 예를 나타냅니다 . 그림 10-11. iSCSI 초기자 속성 : 발견 페이지 8. iSCSI 초기자 속성에서 Targets( 대상 ) 탭을 클릭합니다 .
10–iSCSI 프로토콜 Windows Server 의 iSCSI Offload 9. 대상 페이지에서 대상을 선택하고 Log On( 로그온 ) 을 클릭하여 QLogic iSCSI 어댑터를 통해 iSCSI 대상에 로그인합니다 . 그림 10-12 은 이러한 예를 나타냅니다 . 그림 10-12. iSCSI 초기자 속성 : 대상 페이지 10. 대상에 로그온 대화 상자 ( 그림 10-13) 에서 Advanced( 고급 ) 을 클릭합니다 . 그림 10-13.
10–iSCSI 프로토콜 Windows Server 의 iSCSI Offload 11. 고급 설정 대화 상자에서 QLogic BCM57xx 및 BCM57xxx C-NIC iSCSI 어댑 터를 Local adapter( 로컬 어탭터 ) 로 선택하고 OK( 확인 ) 을 클릭합니다 . 그림 10-14 은 이러한 예를 나타냅니다 . 그림 10-14. 고급 설정 : 일반 페이지 , 로컬 어댑터 12. OK( 확인 ) 을 클릭하여 Microsoft 초기자를 닫습니다 . 13. iSCSI 파티션을 포맷하려면 디스크 관리자를 사용하십시오 .
10–iSCSI 프로토콜 Windows Server 의 iSCSI Offload 주 팀 구성은 iSCSI 어댑터를 지원하지 않습니다 . 팀 구성은 부트 경로에 포함된 NDIS 어댑터를 지원하지 않습니다 . 팀 구성은 팀 유형이 SLB 인 경우에 한해 iSCSI 부트 경로에 포함되지 않 은 NDIS 어댑터를 지원합니다 . iSCSI Offload FAQ 질문 : iSCSI Offload 용 IP 주소는 어떻게 할당합니까 ? 답변 : QLogic Control Suite(QCS) 의 Configurations( 구성 ) 페이지를 사용합니다 . 질문 : 무슨 도구를 사용하여 대상에 대한 연결을 설정해야 합니까 ? 답변 : Microsoft iSCSI 소프트웨어 초기자 ( 버전 2.08 이상 ) 를 사용합니다 . 질문 : 연결의 오프로드 여부는 어떻게 확인합니까 ? 답변 : Microsoft iSCSI 소프트웨어 초기자를 사용합니다 .
10–iSCSI 프로토콜 Windows Server 의 iSCSI Offload 표 10-5. Offload iSCSI (OIS) 드라이버 이벤트 로깅 메시지 ( 계속 ) 메시지 번호 심각도 메시지 3 오류 최대 명령 시퀀스 번호는 로그인 응답 시 예상된 명령 시퀀스 번호보다 연속적 으로 크지 않습니다 . 덤프 데이터는 예상 명령 시퀀스 번호 뒤에 최대 명령 시 퀀스 번호를 포함합니다 . 4 오류 MaxBurstLength 는 FirstBurstLength 보다 연속적으로 크지 않습니다 . 덤프 데이터는 FirstBurstLength 뒤에 MaxBurstLength 를 포함합니다 . 5 오류 초기자 포털을 설정하지 못했습니다 . 덤프 데이터에 오류 상태가 표시됩니다 . 6 오류 초기자가 iSCSI 연결에 대한 리소스를 할당할 수 없습니다 . 7 오류 초기자가 iSCSI PDU 를 보낼 수 없습니다 . 덤프 데이터에 오류 상태가 표시 됩니다 .
10–iSCSI 프로토콜 Windows Server 의 iSCSI Offload 표 10-5. Offload iSCSI (OIS) 드라이버 이벤트 로깅 메시지 ( 계속 ) 메시지 번호 심각도 18 오류 초기자에 헤더 요약이 필요하지만 대상이 이를 제공하지 않습니다 . 19 오류 초기자에 데이터 요약이 필요하지만 대상이 이를 제공하지 않습니다 . 20 오류 대상에 대한 연결이 끊어졌습니다 . 초기자가 연결을 다시 시도합니다 . 21 오류 헤더에 지정된 데이터 세그먼트 길이가 대상에서 선언된 MaxRecvDataSegmentLength 를 초과합니다 . 22 오류 지정된 PDU 에 대한 헤더 요약 오류가 발견되었습니다 . 덤프 데이터에 헤더 와 요약이 포함되어 있습니다 . 23 오류 대상에서 잘못된 iSCSI PDU 를 보냈습니다 . 덤프 데이터에 전체 iSCSI 헤더 가 포함되어 있습니다 .
10–iSCSI 프로토콜 Windows Server 의 iSCSI Offload 표 10-5. Offload iSCSI (OIS) 드라이버 이벤트 로깅 메시지 ( 계속 ) 메시지 번호 심각도 메시지 36 오류 초기자 CHAP 암호가 사양에 필요한 최소 크기인 12 바이트보다 작습니다 . 덤 프 데이터에 지정된 CHAP 암호가 포함되어 있습니다 . 37 오류 FIPS 서비스를 초기화할 수 없습니다 . 영구 로그온이 처리되지 않습니다 . 38 오류 초기자에 로그온 인증을 위한 CHAP 가 필요하지만 대상이 CHAP 를 제공하 지 않습니다 . 39 오류 초기자가 대상을 재설정하도록 작업 관리 명령을 보냅니다 . 덤프 데이터에 대 상 이름이 지정되어 있습니다 . 40 오류 대상에 CHAP 를 사용한 로그온 인증이 필요하지만 초기자가 CHAP 를 수행 하도록 구성되어 있지 않습니다 .
10–iSCSI 프로토콜 Windows Server 의 iSCSI Offload 표 10-5. Offload iSCSI (OIS) 드라이버 이벤트 로깅 메시지 ( 계속 ) 메시지 번호 심각도 메시지 54 오류 초기자 서비스가 암호화 또는 해독된 데이터 요청에 대해 제시간에 응답하지 못했습니다 . 55 오류 초기자가 대상에 데이터를 보내도록 리소스를 할당하지 못했습니다 . 56 오류 초기자가 입 / 출력 (I/O) 실패로 인해 사용자 가상 주소를 커널 가상 주소에 매 핑하지 못했습니다 . 57 오류 초기자가 입 / 출력 (I/O) 실패로 인해 요청 처리에 필요한 리소스를 할당할 수 없습니다 . 58 오류 초기자가 입 / 출력 (I/O) 실패로 인해 요청을 처리할 태그를 할당할 수 없습니 다. 59 오류 대상이 초기자가 전체 기능 단계로 전환되기 전에 연결을 끊었습니다 . 60 오류 대상이 Data_IN PDU 대신 SCSI 응답 PDU 에 데이터를 보냅니다 .
10–iSCSI 프로토콜 Windows Server 의 iSCSI Offload 표 10-5. Offload iSCSI (OIS) 드라이버 이벤트 로깅 메시지 ( 계속 ) 메시지 번호 심각도 메시지 71 정보 초기자가 요청 수신 시 세션 복구를 시작하지 않았습니다 . 덤프 데이터에 오 류 상태가 포함되어 있습니다 . 72 오류 예기치 않은 대상 포털 IP 형식입니다 . 덤프 데이터에 예상한 IP 형식이 있습 니다 .
11 QLogic 팀 구성 서비스 이 장에서는 Windows Server 시스템 (Windows Server 2016 이상 제외 ) 에서 어댑 터에 대해 팀을 구성하는 방법을 설명합니다 . 기타 운영 체제에서 사용되는 유사 한 기술 (Linux 채널 본딩 등 ) 에 대한 자세한 정보는 해당 운영 체제 설명서를 참조 하십시오 . 요약 142 페이지의 " 팀 구성 메커니즘 " 153 페이지의 " 팀 구성 및 기타 고급 네트워크 속성 " 156 페이지의 " 일반 네트워크 고려 사항 " 165 페이지의 " 응용 프로그램 고려 사항 " 173 페이지의 " 팀 구성 문제 해결 " 176 페이지의 "FAQ" 179 페이지의 " 이벤트 로그 메시지 " 요약 다음은 QLogic 팀 구성 서비스에 대한 요약을 제공합니다 .
11–QLogic 팀 구성 서비스 요약 이 섹션에서는 Dell 의 서버 및 스토리지 제품과 함께 제공되는 QLogic 소프트웨어 의 네트워크 팀 구성 서비스를 작업할 때 적용되는 기술 및 구현 고려 사항에 대해 설명합니다 . QLogic 팀 구성 서비스는 둘 이상의 어댑터로 구성된 팀에 결함 허용 및 링크 집계를 제공하기 위한 것입니다 . 이 문서에 제공된 정보는 IT 전문가가 네 트워크 결함 허용 및 로드 밸런싱이 필요한 시스템 응용 프로그램을 배포하고 제반 문제를 해결하는 과정에 도움을 주기 위한 것입니다 . 용어 표 11-1 은 팀 구성에 사용되는 용어를 정의합니다 . 표 11-1.
11–QLogic 팀 구성 서비스 요약 표 11-1. 용어 ( 계속 ) 용어 정의 계층 4 하드웨어에 오프로드되는 네트워크 트래픽 . 성능 향상을 위해 계층 3(IP) 및 계층 4(TCP) 처리는 대부분 하드웨어에서 수행됩 니다 . LACP Link Aggregation Control Protocol( 링크 집계 제어 프로토콜 ) 링크 집계 (802.
11–QLogic 팀 구성 서비스 요약 이 절에서는 팀 구성의 개념에 관한 다음의 정보를 제공합니다 . 네트워크 주소 지정 팀 구성 및 네트워크 주소 팀 구성 유형 설명 네트워크 주소 지정 팀 구성의 작동 원리를 이해하려면 이더넷 네트워크에서 노드의 통신이 이루어지 는 방식을 이해해야 합니다 . 이 문서는 독자가 IP 및 이더넷 네트워크 통신의 기본 원리에 익숙하다는 가정을 기반으로 하고 있습니다 . 아래 정보는 이더넷 네트워크에 사용되는 네트워크 주소 지정 개념의 상위 레벨 개 요를 설명합니다 . 컴퓨터 시스템 같은 호스트 플랫폼의 모든 이더넷 네트워크 인 터페이스에는 글로벌 고유 계층 2 주소와 하나 이상의 글로벌 고유 계층 3 주소가 있어야 합니다 . 계층 2 는 데이터 링크 계층이며 계층 3 은 OSI 모델에서 정의된 바 와 같이 네트워크 계층입니다 . 계층 2 주소는 하드웨어에 할당되며 MAC 주소 또 는 물리적 주소로 참조되는 경우도 있습니다 .
11–QLogic 팀 구성 서비스 요약 팀 구성 및 네트워크 주소 어댑터 팀은 단일 가상 네트워크 인터페이스 역할을 수행하며 팀 구성이 안된 어댑 터와는 달리 다른 네트워크 장치와 구분되지 않습니다 . 가상 네트워크 어댑터는 하나의 계층 2 와 하나 이상의 계층 3 주소를 보급합니다 . 팀 구성 드라이버는 초기 화 시 팀 MAC 주소가 되도록 팀을 구성하는 물리적 어댑터 중 하나에서 MAC 주소 를 한 개 선택합니다 . 이 주소는 보통 드라이버가 초기화하는 첫 번째 어댑터에서 가져옵니다 . 팀을 호스트하는 시스템은 ARP 요청을 받으면 ARP Reply 의 소스 MAC 주소로 사용할 MAC 주소 한 개를 팀의 실제 어댑터에서 선택합니다 . Windows 운영 체제에서 IPCONFIG /all 명령을 실행하면 가상 어댑터의 IP 주소 및 MAC 주소가 표시되며 개별 물리적 어댑터의 주소는 표시되지 않습니다 .
11–QLogic 팀 구성 서비스 요약 표 11-2 는 팀 구성 유형 및 해당 분류 요약을 보여 줍니다 . 표 11-2. 사용 가능한 팀 구성 유형 팀 구성 유형 a 스위치 종속형 a 스위치의 LACP 지원 요구 로드 밸런싱 장애 조치 스마트 로드 밸런싱과 장애 조치 ( 로드 밸런 싱 팀 멤버 2~8 개 사용 ) ✔ ✔ SLB(Auto-Fallback Disable) ✔ ✔ ✔ ✔ ✔ ✔ 링크 집계 (802.3ad) ✔ 일반 트렁킹 (FEC/GEC)/802.3adDraft Static ✔ ✔ 스위치가 특정 팀 유형을 지원해야 합니다 . 스마트 로드 밸런싱과 장애 조치 스마트 로드 밸런싱과 장애 조치 팀 유형에서는 로드 밸런싱이 구성된 경우 로드 밸 런싱과 장애 조치 모두를 제공하고 결함 허용이 구성된 경우에는 장애 조치만 제공 합니다 . 이 팀 유형은 모든 이더넷 스위치에 사용할 수 있으며 스위치에 대한 트렁 킹 구성이 필요하지 않습니다 .
11–QLogic 팀 구성 서비스 요약 전송 로드 밸런싱은 소스 및 대상 IP 주소와 TCP/UDP 포트 번호를 사용하여 해시 테이블을 작성하는 방법으로 수행합니다 . 동일한 소스와 대상 IP 주소 및 TCP/UDP 포트 번호의 조합은 보통 동일한 해시 인덱스를 사용하므로 팀에서 동일 한 포트를 가리킵니다 . 지정된 소켓의 모든 프레임을 전송하기 위해 포트를 선택 하면 물리적 어댑터의 고유한 MAC 주소가 프레임에 포함되며 팀 MAC 주소는 포 함되지 않습니다 . 이는 IEEE 802.3 표준 호환을 위해 필요합니다 . 두 어댑터가 동 일한 MAC 주소를 사용해 전송하는 경우 MAC 주소가 중복될 수 있으며 이는 스위 치가 처리할 수 없습니다 . 주 IPv6 는 ARP 를 지원하지 않으므로 IPv6 주소가 지정된 트래픽에 대한 로드 밸런싱은 SLB 가 수행합니다 .
11–QLogic 팀 구성 서비스 요약 이는 ARP 가 라우팅 가능한 프로토콜이 아니기 때문입니다 . ARP 에는 IP 헤더가 없으므로 라우터 또는 기본 게이트웨이로 전송되지 않습니다 . ARP 는 로컬 서브 넷 프로토콜일 뿐입니다 . 특히 G-ARP 는 브로드캐스트 패킷이 아니기 때문에 라 우터가 처리하지 않으며 해당 ARP 캐시도 업데이트하지 않습니다 . 라우터가 다른 네트워크 장치에 사용되는 ARP 를 처리하는 경우는 프록시 ARP 를 활성화하고 호스트에 기본 게이트웨이가 없는 경우뿐입니다 . 그러나 이러한 경우 는 거의 없으며 대부분의 응용 프로그램에 권장되지 않습니다 . 전송 로드 밸런싱은 소스 및 대상 IP 주소와 TCP/UDP 포트 번호를 기반으로 하므 로 라우터를 통한 전송 트래픽은 로드 밸런싱됩니다 . 라우터는 소스 및 대상 IP 주 소를 변경하지 않으므로 로드 밸런싱 알고리즘은 예상대로 작동합니다 .
11–QLogic 팀 구성 서비스 요약 링크 집계 (IEEE 802.3ad LACP) 링크 집계는 LACP( 링크 집계 제어 프로토콜 ) 를 사용하여 팀을 구성할 포트를 협 상한다는 점을 제외하고는 일반 트렁킹과 유사합니다 . 팀이 작동하려면 LACP 를 링크의 양쪽 끝에서 활성화해야 합니다 . LACP 를 링크의 양쪽 끝에서 사용할 수 없는 경우 802.3ad 는 링크의 양쪽 끝이 연결 상태이기만 하면 되는 수동 집계를 제 공합니다 . 수동 집계는 LACP 메시지 교환을 수행하지 않고 구성원 링크를 활성화 하기 위해 제공되므로 , LACP 협상 링크로서 신뢰적이며 활동적이라고 간주해서 는 안 됩니다 . LACP 는 집계할 수 있는 구성원 링크를 자동으로 결정하여 해당 링 크를 집계합니다 . LACP 는 프레임이 손실되거나 중복되지 않도록 링크 집계를 위 한 물리적 링크를 제어된 방식으로 추가 또는 제거하기 위해 제공됩니다 .
11–QLogic 팀 구성 서비스 요약 소프트웨어 구성 요소 팀 구성은 Windows 운영 체제 환경의 NDIS 중급 드라이버를 통해 구현됩니다 . 이 소프트웨어 구성 요소는 미니포트 드라이버 , NDIS 계층 및 프로토콜 스택에 작동 하여 팀 구성 아키텍처를 활성화합니다 (143 페이지의 그림 11-2 참조 ). 미니포트 드라이버는 호스트 LAN 컨트롤러를 직접 제어하여 송신 , 수신 및 인터럽트 처리 등의 기능을 활성화합니다 . 중급 드라이버는 미니포트 드라이버 및 프로토콜 계층 사이에 장착되어 여러 미니포트 드라이버 인스턴스를 멀티플렉싱하고 단일 어댑터 처럼 보이는 가상 어댑터를 NDIS 계층에 만듭니다 . NDIS 는 라이브러리 기능 집 합을 통해 미니포트 드라이버 간 또는 중급 드라이버 및 프로토콜 스택 간의 통신을 활성화합니다 . 프로토콜 스택은 IP, IPX 및 ARP 를 구현합니다 . IP 주소 등의 프로 토콜 주소가 각 미니포트 장치 인스턴스에 할당됩니다 .
11–QLogic 팀 구성 서비스 요약 표 11-3. QLogic 팀 구성 소프트웨어 구성 요소 ( 계속 ) 소프트웨어 구성 요소 QLogic 이름 시스템 아키 텍처 Windows 파 일 이름 32 비트 , 64 비 트 qlasp.sys Windows Server 2008 R2 64 비트 qlasp.sys Windows Server 2012 및 2012 R2 64 비트 qlasp.sys Windows Server 2008 — qcs.exe Windows Server 2008 R2 — qcs.exe Windows Server 2012 및 2012 R2 — qcs.exe 네트워크 어댑터 또는 운영 체제 Windows Server 2008 중급 드라이 버 구성 사용자 인터페이스 QLASP QLogic Control Suite(QCS) 하드웨어 요구사항 팀 구성에 대한 하드웨어 요구 사항에는 다음이 포함됩니다 .
11–QLogic 팀 구성 서비스 요약 리피터를 사용하려면 충돌 도메인 내에 참여하는 각 스테이션이 Half-duplex( 반이 중 ) 모드로 작동해야 합니다 . IEEE 802.3 사양에서 GbE 어댑터에 대한 Half-duplex( 반이중 ) 모드가 지원된다 해도 , 대부분의 GbE 어댑터 제조업체는 이 모드를 지원하지 않습니다 . 따라서 Half-duplex( 반이중 ) 모드는 여기에서 고려하 지 않습니다 . 허브에 걸친 팀 구성은 SLB 팀만에 대한 문제 해결 ( 네트워크 분석기 연결 등 ) 을 위해 지원됩니다 . 스위칭 허브 리피터 허브와는 달리 스위칭 허브 ( 간단하게 스위치라고도 함 ) 를 사용하면 Ethernet 네트워크를 여러 충돌 도메인으로 분해할 수 있습니다 . 스위치는 Ethernet MAC 주소만을 기반으로 하여 호스트 간에 Ethernet 패킷을 전달합니다 .
11–QLogic 팀 구성 서비스 요약 팀 유형별 지원 기능 표 11-4 에는 Dell 에서 지원하는 각 팀 유형의 기능이 비교되어 있습니다 . 이 표를 사용하여 사용자의 응용 프로그램에 가장 적절한 팀 유형을 결정할 수 있습니다 . 팀 구성 소프트웨어는 단일 팀에서 최대 8 개 포트 , 그리고 단일 시스템에서 최대 16 개 팀을 지원합니다 . 이러한 팀은 지원되는 팀 구성 유형의 조합일 수 있지만 이 경우 각 팀은 별도의 네트워크 또는 서브넷에 있어야 합니다 . 표 11-4. 팀 유형 비교 팀 유형 결함 허용 로드 밸런싱 스위치 종속형 정적 트렁킹 스위치 독립형 동적 링크 집계 (IEEE 802.
11–QLogic 팀 구성 서비스 요약 표 11-4. 팀 유형 비교 ( 계속 ) 팀 유형 결함 허용 로드 밸런싱 스위치 종속형 정적 트렁킹 스위치 독립형 동적 링크 집계 (IEEE 802.
11–QLogic 팀 구성 서비스 요약 두 번째 선택 : 일반 트렁킹 세 번째 선택 : SLB. 관리되지 않는 스위치나 이 두 옵션을 지원하지 않는 스위 치를 사용하는 경우에 해당함 . 스위치 결함 허용이 요구 사항일 경우 SLB 만 선택해야 합니다 .
11–QLogic 팀 구성 서비스 요약 그림 11-1 은 팀 유형 결정 흐름도를 나타냅니다 . 그림 11-1.
11–QLogic 팀 구성 서비스 팀 구성 메커니즘 팀 구성 메커니즘 이 절에서는 팀 구성 메커니즘에 관한 다음의 정보를 제공합니다 : 아키텍처 팀 유형 각 팀 유형 관련 기능의 특성 각 팀 유형에 지원되는 속도 142 BC0054508-03 J
11–QLogic 팀 구성 서비스 팀 구성 메커니즘 아키텍처 QLASP 는 NDIS 중급 드라이버 ( 그림 11-2 참조 ) 로 구현됩니다 . 이 프로그램은 TCP/IP 및 IPX 등의 프로토콜 스택 하위에서 운영되며 가상 어댑터로 표시됩니다 . 이 가상 어댑터는 팀에서 초기화한 첫 번째 포트의 MAC 주소를 상속합니다 . 계층 3 주소도 가상 어댑터에 대해 구성해야 합니다 . QLASP 의 기본 기능은 팀 구성을 위해 선택한 시스템에 설치된 물리적 어댑터 간의 인바운드 (SLB 용 ) 및 아웃바운 드 트래픽 ( 모든 팀 구성 모드용 ) 밸런싱입니다 . 인바운드 및 아웃바운드 알고리 즘은 상호 독립적이면서 대칭적입니다 . 특정 세션의 아웃바운드 트래픽을 특정 포 트에 , 그리고 그에 해당하는 인바운드 트래픽을 또 다른 포트에 할당할 수 있습니 다. 그림 11-2.
11–QLogic 팀 구성 서비스 팀 구성 메커니즘 아웃바운드 트래픽 흐름 QLogic 중급 드라이버는 모든 팀 구성 모드의 아웃바운드 트래픽 흐름을 관리합니 다 . 아웃바운드 트래픽의 경우 모든 패킷은 먼저 흐름으로 분류된 다음 전송을 위 해 선택한 물리적 어댑터로 배포됩니다 . 흐름 분류 작업에는 알려진 프로토콜 필 드에 대한 효율적인 해시 계산이 포함됩니다 . 계산된 해시 값은 아웃바운드 흐름 해시 테이블에 대한 인덱싱에 사용됩니다 . 선택한 아웃바운드 흐름 해시 항목에는 흐름을 전송하도록 선택한 물리적 어댑터의 인덱스가 포함됩니다 . 그런 후에 패킷 의 소스 MAC 주소는 선택한 물리적 어댑터의 MAC 주소로 수정됩니다 . 이렇게 수 정된 패킷은 전송을 위해 선택한 물리적 어댑터로 전달됩니다 . 아웃바운드 TCP 및 UDP 패킷은 계층 3 및 계층 4 헤더 정보를 사용하여 분류됩니 다 .
11–QLogic 팀 구성 서비스 팀 구성 메커니즘 인바운드 IP 데이터그램이 도착하면 IP 데이터그램의 소스 IP 주소를 해시하여 해 당 인바운드 흐름 헤드 항목을 찾습니다 . 선택한 항목에 저장된 두 개의 통계 카운 터도 업데이트됩니다 . 이 카운터는 로드 밸런싱 엔진이 주기적으로 흐름을 물리적 어댑터에 재할당하는 방식으로 아웃바운드 카운터처럼 사용됩니다 . 인바운드 코드 경로에서 인바운드 흐름 헤드 해시 테이블도 동시 액세스를 허용합 니다 . 인바운드 흐름 항목의 링크 목록은 ARP 패킷 처리 및 주기적인 로드 밸런싱 작업에서만 참조됩니다 . 인바운드 흐름 항목에 대한 패킷당 참조는 없습니다 . 링 크 목록이 바운딩되지 않더라도 각 비 -ARP 패킷을 처리하는 데 따른 오버헤드는 항상 상수입니다 . 그러나 ARP 패킷 처리 ( 인바운드 및 아웃바운드 ) 는 해당 링크 목록 내의 링크 수에 따라 달라집니다 .
11–QLogic 팀 구성 서비스 팀 구성 메커니즘 어댑터 간의 실제 할당은 시간이 지나면서 변경될 수 있지만 , 해시에서는 IP 주소 만이 사용되므로 TCP/UDP 기반이 아닌 모든 프로토콜은 동일한 물리적 어댑터를 통과합니다 . 성능 현재 사용되는 네트워크 인터페이스 카드는 CPU 를 많이 사용하는 특정 작업을 오 프로드하여 CPU 사용량을 줄이는 여러 가지 하드웨어 기능을 제공합니다 (153 페 이지의 " 팀 구성 및 기타 고급 네트워크 속성 " 참조 ). 반면 , QLASP 중급 드라이 버는 프로토콜 스택에서 수신되는 모든 패킷을 검사하여 특정 물리적 인터페이스 를 통해 해당 패킷을 보내기 전에 내용을 확인하여 처리해야 하는 순수한 소프트웨 어 기능입니다 . QLASP 드라이버에서 거의 일정한 시간에 나가는 각 패킷을 처리 할 수는 있지만 , 이 경우 이미 CPU 바인딩된 일부 응용 프로그램을 팀 구성 인터페 이스에서 작동하는 경우 오류가 발생할 수 있습니다 .
11–QLogic 팀 구성 서비스 팀 구성 메커니즘 네트워크 통신 SLB 의 주요 특성은 다음과 같습니다 . 장애 조치 메커니즘 - 링크 손실 감지 . 로드 밸런싱 알고리즘 - 인바운드 및 아웃바운드 트래픽은 계층 4 흐름을 기 반으로 한 QLogic 독점 메커니즘을 통해 밸런싱됩니다 . MAC 주소를 사용한 아웃바운드 로드 밸런싱 - 지원 안 함 IP 주소를 사용한 아웃바운드 로드 밸런싱 - 지원함 여러 공급업체 팀 구성 - 지원함 ( 팀 구성원으로 적어도 1 개의 QLogic Ethernet 어댑터를 포함해야 함 ). 응용 프로그램 SLB 알고리즘은 비용을 고려해야 하거나 편의를 위한 스위칭 장비를 사용하는 가 정 및 소규모 회사 환경에 가장 적합합니다 . 관리되지 않는 계층 2 스위치를 사용 하는 SLB 팀 구성을 통해 서버에서 중복 및 링크 집계를 저렴한 비용으로 수행할 수 있습니다 .
11–QLogic 팀 구성 서비스 팀 구성 메커니즘 연결된 스위치는 이 작동 모드에 대해 적절한 트렁킹 체계를 지원해야 합니다 . QLASP 와 스위치는 모두 해당 포트에 링크 손실이 없는지를 지속적으로 모니터링 합니다 . 포트에서 링크가 손실된 경우에는 트래픽이 자동으로 팀의 다른 포트로 전환됩니다 . 네트워크 통신 다음은 일반 정적 트렁킹의 주요 특성입니다 . 장애 조치 메커니즘 - 링크 손실 감지 로드 밸런싱 알고리즘 - 아웃바운드 트래픽은 계층 4 흐름을 기반으로 한 QLogic 독점 메커니즘을 통해 밸런싱됩니다 . 인바운드 트래픽은 스위치별 메커니즘에 따라 밸런싱됩니다 . MAC 주소를 사용한 아웃바운드 로드 밸런싱 - 지원 안 함 IP 주소를 사용한 아웃바운드 로드 밸런싱 - 지원함 여러 공급업체 팀 구성 - 지원함 ( 팀 구성원으로 적어도 1 개의 QLogic Ethernet 어댑터를 포함해야 함 ).
11–QLogic 팀 구성 서비스 팀 구성 메커니즘 동적 트렁킹 (IEEE 802.3ad 링크 집계 ) 이 모드에서는 LACP( 링크 집계 제어 프로토콜 ) 를 통한 정적 및 동적 구성을 사용 하여 링크 집계를 수행할 수 있습니다 . 이 모드에서 팀에 구성된 모든 어댑터는 동 일한 MAC 주소에 대해 패킷을 수신합니다 . 팀의 첫 번째 어댑터 MAC 주소가 사용 되며 , 이를 다른 MAC 주소로 대체할 수는 없습니다 . QLASP 드라이버가 앞서 설 명한 계층 4 프로토콜을 사용하여 아웃바운드 패킷에 대한 로드 밸런싱 체계를 결 정하며 , 팀 링크 파트너가 인바운드 패킷에 대한 로드 밸런싱 체계를 결정합니다 . 로드 밸런싱은 계층 2 에서 구현되므로 IP, IPX 및 NetBEUI 등의 모든 계층 2 이상 프로토콜이 지원됩니다 . 연결된 스위치는 이 작동 모드에 대한 802.3ad 링크 집계 표준을 지원해야 합니다 .
11–QLogic 팀 구성 서비스 팀 구성 메커니즘 LiveLink LiveLink 는 SLB( 스마트 로드 밸런싱 ) 및 SLB(Auto-Fallback Disable) 유형의 팀 구성에 대해서만 사용할 수 있는 QLASP 기능입니다 . LiveLink 는 해당 스위치 이 외의 링크 손실을 감지하고 라이브 링크가 있는 팀 멤버를 통해서만 트래픽을 돌아 가게 합니다 . 이 기능을 사용하려면 팀 구성 소프트웨어를 설치해야 합니다 . 팀 구 성 소프트웨어는 하나 이상의 지정 대상 네트워크 장치를 정기적으로 검사합니다 ( 각 팀 멤버의 링크 패킷 발생 ). 링크 패킷이 수신되면 조사 대상이 응답합니다 . 팀 멤버가 특정 시간 내에 응답을 감지하지 않는 경우 이는 링크가 끊어지거나 팀 구성 소프트웨어가 팀 멤버를 통해 트래픽 통과를 중단한 것입니다 .
11–QLogic 팀 구성 서비스 팀 구성 메커니즘 표 11-5. 팀 구성 특성 ( 계속 ) 특징 속성 장애 조치 이벤트 링크 손실 장애 조치 시간 500ms 미만 대체 시간 약 1.5 초 a MAC 주소 다름 여러 공급업체 팀 구성 예 일반 트렁킹 사용자 인터페이스 QLogic Control Suite(QCS) 팀수 최대 16 개 팀당 어댑터 수 최대 16 개 즉시 교체 예 즉시 추가 예 즉시 제거 예 링크 속도 지원 다른 속도 b 프레임 프로토콜 모두 들어오는 패킷 관리 스위치 나가는 패킷 관리 QLASP 장애 조치 이벤트 링크 손실의 경우만 장애 조치 시간 500ms 미만 대체 시간 약 1.
11–QLogic 팀 구성 서비스 팀 구성 메커니즘 표 11-5. 팀 구성 특성 ( 계속 ) 특징 속성 즉시 교체 예 즉시 추가 예 즉시 제거 예 링크 속도 지원 다른 속도 프레임 프로토콜 모두 들어오는 패킷 관리 스위치 나가는 패킷 관리 QLASP 장애 조치 이벤트 링크 손실의 경우만 장애 조치 시간 500ms 미만 대체 시간 약 1.5 초 a MAC 주소 모든 어댑터에 대해 동일 여러 공급업체 팀 구성 예 a Port Fast 나 Edge Port 가 활성화되었는지 확인합니다 . b 트렁크 연결 간 협상을 올바르게 하기 위해 일부 스위치에서는 링크 속도가 일치해야 합니다 . 각 팀 유형에 지원되는 속도 각 팀 유형에 지원되는 다양한 링크 속도는 표 11-6 에 나열되어 있습니다 . 혼합 속 도란 서로 다른 링크 속도로 실행되는 팀 구성 어댑터 기능을 말합니다 . 표 11-6.
11–QLogic 팀 구성 서비스 팀 구성 및 기타 고급 네트워크 속성 팀 구성 및 기타 고급 네트워크 속성 이 절에서는 팀 구성 및 기타 고급 네트워크 속성에 대해 다음과 같이 설명합니다 . Checksum Offload( 체크섬 오프로드 ) IEEE 802.1p QoS Tagging( 태그 ) Large Send Offload( 대형 전송 오프로드 ) Jumbo Frames( 대용량 프레임 ) IEEE 802.1Q VLAN Wake on LAN(LAN 에서 원격부팅 ) Preboot Execution Environment( 사전 부팅 실행 환경 ) 팀을 만들거나 팀 구성원을 추가 또는 제거하거나 팀 구성원의 고급 설정을 변경하 기 전에 각 팀 구성원을 유사하게 구성했는지 확인하십시오 . 확인할 설정에는 VLAN 및 QoS 패킷 태그 , 대용량 프레임 및 다양한 Offload 등이 포함됩니다 .
11–QLogic 팀 구성 서비스 팀 구성 및 기타 고급 네트워크 속성 팀이 반드시 어댑터 속성을 상속해야 하는 것은 아닙니다 . 오히려 특정 기능에 따 라 다양한 속성이 가능합니다 . 예를 들어 , 흐름 제어는 물리적 어댑터 속성으로서 QLASP 와는 관계가 없으며 미니포트 드라이버에 흐름 제어가 활성화되어 있는 특 정 어댑터에 대해 활성화됩니다 . 주 팀에서 이 속성을 지원하려면 팀의 모든 어댑터가 표 11-7 에 나열되어 있는 속성을 지원해야 합니다 . Checksum Offload( 체크섬 오프로드 ) CO(Checksum Offload, 체크섬 오프로드 ) 는 QLogic 네트워크 어댑터의 속성으로 , 호스트 CPU 대신 어댑터 하드웨어가 전송 및 수신 트래픽용 TCP/IP/UDP Checksum 을 계산하도록 합니다 .
11–QLogic 팀 구성 서비스 팀 구성 및 기타 고급 네트워크 속성 Jumbo Frames( 대용량 프레임 ) Jumbo Frames( 대용량 프레임 ) 의 사용은 1998 년 Alteon Networks, Inc. 에서 제 안된 것으로 , 이더넷 프레임의 최대 크기를 최대 9600 바이트까지 확장했습니다 . IEEE 802.3 Working Group 에서 정식으로 채택된 적은 없으나 , QLogic BCM57xx 및 BCM57xxx 어댑터는 Jumbo Frames( 대용량 프레임 ) 를 지원하도록 구현되었 습니다 . QLASP 중급 드라이버는 팀의 모든 물리적 어댑터도 Jumbo Frames( 대 용량 프레임 ) 를 지원하고 팀의 모든 어댑터에 크기가 동일하게 설정되어 있는 경 우 Jumbo Frames( 대용량 프레임 ) 를 지원합니다 . IEEE 802.1Q VLAN 1998 년 , IEEE 는 802.3ac 표준을 승인했으며 , 이 표준은 IEEE 802.
11–QLogic 팀 구성 서비스 일반 네트워크 고려 사항 주 WoL 은 다음 어댑터에 대한 1 개의 물리 포트에서만 지원됩니다 . BCM957810A1006DC (N20KJ) BCM957810A1006DLPC (Y40PH) Preboot Execution Environment( 사전 부팅 실행 환경 ) PXE 를 사용하면 시스템이 네트워크를 통해 운영 체제 이미지에서 부팅되도록 할 수 있습니다 . PXE 는 운영 체제가 로드되기 전에 호출되도록 정의되어 있으므로 QLASP 중급 드라이버가 팀을 로드 및 활성화하지는 못합니다 . 따라서 , 운영 체제 가 로드되었을 때 팀을 구성하는 물리적 어댑터가 PXE 클라이언트로 사용되는 경 우에도 팀 구성은 PXE 클라이언트로 지원되지는 않습니다 . 팀을 구성하는 어댑터 가 PXE 클라이언트로 사용될 수는 없지만 PXE 서버로는 사용될 수 있습니다 .
11–QLogic 팀 구성 서비스 일반 네트워크 고려 사항 주 본 문서의 작성 시점을 기준으로 Windows Server 2008 은 Microsoft Virtual Server 2005 에서 지원되는 운영 체제가 아닙니다 . 따라서 이러한 조합에서 는 티밍이 예상대로 기능하지 않을 수도 있습니다 . 스위치 간의 팀 구성 SLB 팀 구성을 스위치 간에 구성할 수 있습니다 . 그러나 이 경우 스위치를 서로 연 결해야 합니다 . 이러한 구성 각각의 경우 팀을 구성하는 모든 물리적 어댑터가 동 일한 Ethernet MAC 주소를 공유해야 하므로 일반 트렁킹 및 링크 집계는 스위치 간 에 작동하지 않습니다 . SLB 는 팀의 포트와 해당 포트의 직접 링크 파트너 간의 링 크 손실만을 감지할 수 있음을 유의해야 합니다 . SLB 에는 스위치에서 발생한 다 른 하드웨어 실패에 대해 대응할 수 없으며 다른 포트에서의 링크 손실을 감지할 수 없습니다 .
11–QLogic 팀 구성 서비스 일반 네트워크 고려 사항 상호 연결을 배제한 구성에서는 Blue 에서 Gray 로 전송되는 ICMP 요청이 Gray 포 트 5E:CA 방향의 포트 82:83 으로 전송됩니다 . 하지만 Top Switch 는 Gray 의 5E:C9 포트를 따라 전송되지 않기 때문에전송할 방법이 없습니다 . Gray 가 Blue 로 Ping 을 시도할 때에도 유사한 상황이 발생합니다 . ICMP 요청은 Blue 82:82 방 향의 5E:C9 를 따라전송되지만 Blue 82:82 까지 이르지는 못합니다 . 두 스위치 간 에 상호 연결이 존재하지 않으므로 Top Switch 에는 CAM 테이블에 82:82 에 대한 항목이 없습니다 . 그러나 Red 와 Blue 간 , 그리고 Red 와 Gray 간에는 Ping 이 전 송됩니다 . 또한 , 장애 조치 이벤트 때문에 연결 손실이 추가적으로 발생할 수 있습니다 . Top Switch 의 4 번 포트 케이블 연결 해제의 경우를 가정해 보겠습니다 .
11–QLogic 팀 구성 서비스 일반 네트워크 고려 사항 스위치 간 링크 추가를 통해 청색과 회색에서 전송하고 수신되는 트래픽이 문제없 이 상대방에게 전달될 수 있습니다 . 두 스위치에 대한 CAM 테이블의 추가 항목을 유의하십시오 . 링크 상호 연결은 팀의 올바른 작동을 위해 매우 중요합니다 . 따라 서 QLogic 은 연결의 고가용성을 보장하기 위해 링크 집계 트렁크를 사용하여 두 스위치를 상호 연결하는 것을 권장합니다 . 그림 11-4.
11–QLogic 팀 구성 서비스 일반 네트워크 고려 사항 그림 11-5 는 Top Switch 포트 4 번에 케이블이 연결되지 않은 경우의 장애 조치 이 벤트를 나타냅니다 . 이 이벤트는 모든 스테이션이 연결 손실 없이 서로에게 ping 을 전달할 수 있도록 하는 성공적인 장애 조치입니다 . 그림 11-5.
11–QLogic 팀 구성 서비스 일반 네트워크 고려 사항 스패닝 트리 알고리즘 Ethernet 네트워크에서는 두 브리지 또는 스위치 간에 활성 경로가 하나만 있을 수 있습니다 . 스위치 간에 활성 경로가 여러 개 있으면 네트워크에 루프가 발생할 수 있습니다 . 루프가 발생하면 일부 스위치가 스위치의 양쪽에 있는 스테이션을 모두 인식합니다 . 그러면 전달 알고리즘이 잘못 작동되어 중복 프레임이 전달될 수 있 습니다 . 스패닝 트리 알고리즘에서는 확장 네트워크의 모든 스위치에 스팬되는 트 리를 정의한 다음 특정 중복 데이터 경로를 대기 ( 차단 ) 상태로 설정함으로써 중복 경로를 제공합니다 . 네트워크의 스위치는 일정한 간격으로 경로를 식별하는 데 사 용하는 스패닝 트리 패킷을 송신 및 수신합니다 . 한 네트워크 세그먼트에 연결할 수 없거나 스패닝 트리 시간이 변경되면 스패닝 트리 알고리즘은 스패닝 트리 토폴 로지를 재구성하며 대기 경로를 활성화하여 링크를 재설정합니다 .
11–QLogic 팀 구성 서비스 일반 네트워크 고려 사항 이 섹션에서는 다음에 대한 상세 정보를 제공합니다 . TCN(Topology Change Notice) Port Fast 및 Edge Port TCN(Topology Change Notice) 브리지 / 스위치는 특정 포트에서 수신된 소스 MAC 주소를 학습하여 (learning) MAC 주소 및 포트 번호의 전달 (forwarding) 테이블을 만듭니다 . 이 테이블은 모든 포트에 프레임을 플러드하기 위한 것이 아니라 특정 포트에 프레임을 전달하기 위 해 사용됩니다 . 테이블에서 항목의 일반적인 최대 에이징 시간은 5 분입니다 . 호스 트에서 5 분 동안 아무런 작업이 수행되지 않을 때 해당 항목이 테이블에서 제거됩 니다 . 에이징 시간을 줄이는 것이 효과적인 경우도 있습니다 .
11–QLogic 팀 구성 서비스 일반 네트워크 고려 사항 포트가 꺼지거나 켜질 때 스위치는 TCN(Topology Change Notice) 을 생성하 지 않습니다 . 계층 3 라우팅 / 스위칭 팀 구성 포트가 연결되는 스위치는 계층 3 스위치 또는 라우터가 아니어야 합니다 . 팀의 포트는 동일한 네트워크에 있어야 합니다 . 허브를 포함하는 팀 구성 ( 문제 해결 전용 ) SLB 팀 구성을 10 개 및 100 개 허브와 함께 사용할 수는 있지만 이는 스위치 포트 미러링을 선택할 수 없는 경우 QLogic 은 네트워크 분석기에 연결 등 문제 해결 목 적으로만 사용하는 것을 권장합니다 . 허브 팀 구성 정보에는 다음이 포함됩니다 . 팀 구성 네트워크 구성의 허브 사용 방법 SLB 팀 단일 허브에 SLB 팀 연결 일반 및 동적 트렁킹 (FEC/GEC/IEEE 802.
11–QLogic 팀 구성 서비스 일반 네트워크 고려 사항 단일 허브에 SLB 팀 연결 그림 11-6 과 같이 구성된 SLB 팀은 결함 허용 속성을 유지합니다 . 서버 연결은 실 패할 수 있으며 네트워크 기능이 유지됩니다 . 클라이언트를 허브에 직접 연결할 수 있으며 , 이 경우에도 결함 허용은 유지됩니다 . 그러나 서버 성능은 저하됩니다 . 그림 11-6. 단일 허브에 팀 연결 일반 및 동적 트렁킹 (FEC/GEC/IEEE 802.3ad) FEC/GEC 및 IEEE 802.3ad 팀은 허브 구성에 연결할 수 없습니다 . 이러한 팀 유형 은 역시 해당 팀 유형에 사용하도록 구성된 스위치에 연결해야 합니다 . Microsoft NLB( 네트워크 밸런싱 ) 을 통한 팀 구성 팀 구성은 Microsoft NLB( 네트워크 밸런싱 ) 유니캐스트 모드에서 작동하지 않으 며 멀티캐스트 모드에서만 작동합니다 .
11–QLogic 팀 구성 서비스 응용 프로그램 고려 사항 응용 프로그램 고려 사항 응용 프로그램 고려 사항은 다음과 같습니다 . 팀 구성 및 클러스터링 팀 구성 및 네트워크 백업 팀 구성 및 클러스터링 팀 구성 및 클러스터링 정보에는 다음이 포함됩니다 . Microsoft 클러스터 소프트웨어 고성능 컴퓨팅 클러스터 Oracle Microsoft 클러스터 소프트웨어 Dell Server 클러스터 솔루션은 MSCS(Microsoft Cluster Services) 를 PowerVault™ SCSI 또는 Dell/EMC Fibre Channel 기반 스토리지 , Dell 서버 , 스토 리지 어댑터 , 스토리지 스위치 및 네트워크 어댑터와 통합하여 HA( 고가용성 ) 솔 루션을 제공합니다 . HA 클러스터링은 지원되는 Dell 서버에서 인증된 모든 어댑터 를 지원합니다 .
11–QLogic 팀 구성 서비스 응용 프로그램 고려 사항 그림 11-7 에는 클러스터 노드당 3 개의 네트워크 인터페이스 ( 개인용 1 개 및 공용 2 개 ) 가 있는 2 개 노드 Fibre-Channel 클러스터가 나와 있습니다 . 각 노드에서 2 개의 공용 어댑터가 팀으로 구성되며 개인용 어댑터는 팀으로 구성되지 않습니다 . 팀 구성은 동일한 스위치 또는 두 스위치 간에 지원됩니다 . 168 페이지의 그 림 11-8 은 이 구성의 동일한 2 개 노드 Fibre-Channel 클러스터를 보여 줍니다 . 그림 11-7. 하나의 스위치에 팀을 구성한 클러스터링 주 Microsoft 클러스터 소프트웨어는 Microsoft 네트워크 로드 밸런싱을 지원하 지 않습니다 .
11–QLogic 팀 구성 서비스 응용 프로그램 고려 사항 고성능 컴퓨팅 클러스터 HPCC( 고성능 컴퓨팅 클러스터 ) 응용 프로그램에서는 Gigabit Ethernet 을 보통 다음 용도로 사용합니다 . 프로세스 간 통신 (IPC): 낮은 지연 시간의 고대역폭 상호 연결이 필요하지 않 은 응용 프로그램 ( 예 : Myrinet™ or InfiniBand®) 의 경우 , 컴퓨팅 노드 간 통 신을 위해 기가비트 이더넷을 사용할 수 있습니다 . I/O: 파일을 공유하고 컴퓨팅 노드에 데이터를 제공하는 데 이더넷을 사용할 수 있습니다 . 이 작업은 NFS 시스템을 사용하거나 PVFS 등의 병렬 파일 시 스템을 사용하여 간단하게 수행할 수 있습니다 . 관리 및 운영 : 클러스터 노드의 대역 외 (Dell ERA[Embedded Remote Access]) 및 대역 내 (Dell OMSA[OpenManage™ Server Administrator]) 관 리에 이더넷을 사용합니다 .
11–QLogic 팀 구성 서비스 응용 프로그램 고려 사항 Oracle 그림 11-8 에서 볼 수 있는 바와 같이 , QLogic Oracle® 솔루션 스택에서 , QLogic 은 개인 네트워크 (RAC 노드 간 상호 연결 ) 및 클라이언트 또는 응용 프로그램 계 층이 데이터베이스 계층 상위에 있는 공용 네트워크에서 어댑터 팀 구성을 모두 지 원합니다 . 그림 11-8.
11–QLogic 팀 구성 서비스 응용 프로그램 고려 사항 팀 구성 및 네트워크 백업 팀 구성이 없는 환경에서 네트워크 백업을 수행할 때는 과도한 트래픽 및 어댑터 오 버로드로 인해 백업 서버 어댑터의 전체 처리율이 쉽게 영향을 받을 수 있습니다 . 백업 서버 수 , 데이터 스트림 및 테이프 드라이브 속도에 따라 백업 트래픽은 높은 비율의 네트워크 링크 대역폭을 사용하기가 쉬우며 , 이로 인해 프로덕션 데이터 및 테이프 백업 성능이 영향을 받을 수 있습니다 . 네트워크 백업에는 보통 NetBackup™ 또는 Backup Exec™ 등의 테이프 백업 소프트웨어를 실행하는 전용 백업 서버가 포함됩니다 . 백업 서버에는 SCSI 테이프 백업 장치가 직접 연결되어 있거나 테이프 라이브러리가 파이버 채널 SAN 을 통해 연결되어 있습니다 . 네트 워크를 통해 백업되는 시스템은 보통 클라이언트 또는 원격 서버라고 하며 , 테이 프 백업 소프트웨어 에이전트가 설치되어 있습니다 .
11–QLogic 팀 구성 서비스 응용 프로그램 고려 사항 4 개의 클라이언트 서버가 있으므로 백업 서버는 클라이언트당 하나씩 4 개의 백업 작업을 동시에 다중 드라이브 자동 로더로 스트림할 수 있습니다 . 하지만 스위치 와 백업 서버 사이는 단일 링크로 구성되어 있기 때문에 4 스트림 백업으로는 어댑 터와 링크를 쉽게 포화시킬 수 있습니다 . 백업 서버의 어댑터가 1Gbps(125MB/s) 로 작동하고 각 클라이언트가 테이프 백업 동안 20MB/s 로 데이터를 스트림할 수 있다면 백업 시스템과 스위치 간의 처리율은 80MB/s(20MB/s x 4) 가 되며 , 이는 네트워크 대역폭의 64% 에 해당됩니다 . 이 64% 는 네트워크 대역폭 범위 내에서 는 무리가 없지만 , 특히 다른 응용 프로그램이 동일한 링크를 공유하는 경우 매우 높은 비율입니다 . 팀 구성 및 네트워크 백업 정보에는 다음이 포함됩니다 .
11–QLogic 팀 구성 서비스 응용 프로그램 고려 사항 지정되는 경로는 다음과 같은 두 가지 요인에 의해 결정됩니다 . 백업 서버 MAC 주소를 가리키는 클라이언트 서버 ARP 캐시 . 이 주소는 QLogic 중급 드라이버 인바운드 로드 밸런싱 알고리즘에 의해 결정됩니다 . 클라이언트 - 서버 Red 의 물리적 어댑터 인터페이스가 데이터 전송에 사용됩 니다 . QLogic 중급 드라이버 아웃바운드 로드 밸런싱 알고리즘은 데이터를 결정합니다 (144 페이지의 " 아웃바운드 트래픽 흐름 " 및 144 페이지의 " 인 바운드 트래픽 흐름 (SLB 에만 해당 )" 참조 ). 백업 서버의 팀 구성 인터페이스는 G-ARP( 무작위 주소 분석 프로토콜 ) 를 클라이 언트 - 서버 Red 로 전송하고 , 그러면 클라이언트 - 서버 Red 는 클라이언트 - 서버 ARP 캐시가 백업 서버 MAC 주소로 업데이트되도록 합니다 .
11–QLogic 팀 구성 서비스 응용 프로그램 고려 사항 결함 허용 테이프 백업 작업 중 네트워크 링크에 오류가 발생하는 경우 백업 서버 및 클라이언 트간 모든 트래픽이 중지되고 백업 작업이 실패합니다 . 그러나 QLogic SLB 및 스 위치 결함 허용에 대해 모두 네트워크 토폴로지를 구성한 경우에는 링크 오류가 발 생해도 테이프 백업 작업을 중단하지 않고 계속 수행할 수 있습니다 . 테이프 백업 소프트웨어 응용 프로그램은 네트워크 내의 모든 장애 조치 과정을 인식할 수 없습 니다 . 네트워크 장애 조치 과정 동안 백업 데이터 스트림이 이동하는 방법을 이해하려면 그림 11-10 의 토폴로지를 살펴보십시오 . 클라이언트 - 서버 Red 가 경로 1 을 통 해 데이터를 백업 서버로 전송했지만 백업 서버 및 스위치 간에 링크 오류가 발생했 습니다 .
11–QLogic 팀 구성 서비스 팀 구성 문제 해결 그림 11-10. 두 스위치 간에 SLB 팀을 구성한 네트워크 백업 팀 구성 문제 해결 가상 어댑터 팀 구성 인터페이스를 통해 프로토콜 분석기를 실행할 때 전송된 프레 임에 표시된 MAC 주소가 올바르지 않을 수 있습니다 . 분석기에는 QLASP 에 의해 구성된 프레임이 그대로 표시되지 않으며 , 프레임을 전송하는 인터페이스의 MAC 주소가 아닌 팀의 MAC 주소가 표시됩니다 . QLogic 은 팀을 모니터링하는 데 다음 과정을 사용하는 것을 권장합니다 . 스위치에서 팀의 모든 Uplink 포트를 미러링합니다 . 팀에 스위치가 두 개 있는 경우에는 interlink 트렁크도 미러링합니다 .
11–QLogic 팀 구성 서비스 팀 구성 문제 해결 모든 미러 포트를 독립적으로 샘플링합니다 . 분석기에서 QoS 및 VLAN 정보를 필터링하지 않는 어댑터 및 드라이버를 사 용합니다 . 다음은 팀 구성 문제 해결에 대한 자세한 정보입니다 . 팀 구성 팁 문제 해결 지침 팀 구성 팁 네트워크 연결 또는 팀 구성 기능 관련 문제를 해결할 때는 현재 구성에 다음 정보 가 해당되는지를 확인하십시오 . Dell 은 혼합 속도 SLB 팀 구성을 지원하지만 , QLogic 은 팀의 모든 어댑터 속 도가 같은 것을 권장합니다 ( 예 : 모두 Gigabit Ethernet 또는 모두 Fast Ethernet). 속도가 10Gbps 일 경우 QLogic 은 팀의 모든 어댑터 속도가 동일 한 것을 권장합니다 .
11–QLogic 팀 구성 서비스 팀 구성 문제 해결 허브는 반이중 작동만 지원하므로 QLogic 은 팀을 허브에 연결하는 것을 권장 하지 않습니다 . 허브는 문제 해결을 위해서만 팀에 연결해야 합니다 . LACP 또는 GEC/FEC 팀에 참여하는 네트워크 어댑터의 장치 드라이버를 비활성화 하면 네트워크 연결에 나쁜 영향을 미칠 수 있습니다 . 네트워크 연결 해제를 피하기 위해, 장치 드라이버를 비활성화하기 전에 우선 스위치에서 어댑터를 물리적으로 연결 해제하는 것이 좋습니다 . 기본(미니포트) 및 팀(중급) 드라이버가 동일한 릴리스 패키지의 것인지 확인 합니다 . Dell 에서는 서로 다른 릴리스의 기본 및 팀 구성 드라이버 혼합 사용 을 테스트하거나 지원하지 않습니다 . 프로덕션 환경에 배치하기 전에 팀 구성에 앞서 각 물리적 어댑터 연결을 테 스트합니다 . 팀의 장애 조치 및 대체 동작을 테스트합니다 .
11–QLogic 팀 구성 서비스 FAQ 7. 팀에 연결된 모든 스위치 포트가 동일한 VLAN 에 있는지 확인합니다 . 8. 스위치 포트가 일반 트렁킹 (FEC/GEC)/802.3ad-Draft Static 팀 구성 유형용 으로 올바르게 구성되어 있으며 어댑터 팀 구성 유형과 일치하는지 확인합니 다 . 시스템이 SLB 팀 유형용으로 구성된 경우에는 해당 스위치 포트가 일반 트렁킹 (FEC/GEC)/802.3ad-Draft Static 팀 유형용으로 구성되지 않았는지 확인합니다 . FAQ 질문 : 어떤 상황에서 트래픽이 로드 밸런싱되지 않습니까 ? 왜 모든 트래픽이 팀 구성원 간에 균등하게 로드 밸런싱되지 않습니까 ? 답변 : 대량 트래픽이 IP/TCP/UDP 를 사용하지 않거나 많은 수의 클라이언트가 다 른 네트워크에 있습니다 . 수신 로드 밸런싱은 트래픽 로드와 관련된 것이 아니라 서버에 연결되어 있는 클라이언트 수와 관련되어 있습니다 .
11–QLogic 팀 구성 서비스 FAQ 질문 : 팀 구성 어댑터를 라우터의 포트에 연결할 수 있습니까 ? 답변 : 아닙니다 . 팀의 모든 포트는 동일한 네트워크에 있어야 합니다 . 하지만 한 경로에서 각각의 포트는 별도의 네트워크에 있도록 정의되어 있습니다 . 모든 팀 구성 모드에서는 링크 파트너가 계층 2 스위치여야 합니다 . 질문 : Microsoft 클러스터 서비스에 팀 구성을 사용할 수 있습니까 ? 답변 : 예 . 팀 구성은 공용 네트워크에서만 지원되며 , 하트비트 링크에 사용되는 개인 네트워크에서는 지원되지 않습니다 . 질문 : PXE 가 가상 어댑터 ( 팀 ) 에서 작동합니까 ? 답변 : PXE 클라이언트는 운영 체제가 로드되기 전에 환경에서 작동합니다 . 그 결 과 , 가상 어댑터는 아직 활성화되지 않습니다 . PXE 를 지원하는 물리적 어댑터를 PXE 클라이언트로 사용할 수 있습니다 . 운영 체제가 로드될 때 이 클라이언트가 가상 어댑터의 일부인지 여부는 관계가 없습니다 .
11–QLogic 팀 구성 서비스 FAQ 질문 : 가상 어댑터 ( 팀 ) 에서 성능 통계를 어떻게 확인할 수 있습니까 ? 답변 : QLogic Control Suite 에서 가상 어댑터의 Statistics( 통계 ) 탭을 클릭하면 됩니다 . 질문 : NLB(Network Load Balancing) 및 팀 구성을 동시에 구성할 수 있습니까 ? 답변 : 예 , 그러나 NLB(Network Load Balancing) 를 멀티캐스트 모드로 실행 중이 어야 합니다 . NLB 는 MS 클러스터 서비스에는 지원되지 않습니다 . 질문 : 백업 서버 및 백업한 클라이언트 서버를 모두 팀으로 구성해야 합니까 ? 답변 : 백업 서버에 대한 데이터 로드가 가장 크므로 , 백업 시스템은 항상 링크 집 계 및 장애 조치와 팀으로 구성해야 합니다 . 그러나 완전 중복 네트워크의 경우에 는 스위치 및 백업 클라이언트를 모두 결함 허용 및 링크 집계와 팀으로 구성해야 합니다 .
11–QLogic 팀 구성 서비스 이벤트 로그 메시지 질문 : 기본 어댑터가 복원된 후 ( 장애 조치 후 고장 대체 ) 30~50 초 동안 팀의 연결 이 끊어지는 이유는 무엇입니까 ? 답변 : 고장 대체 중 링크가 복원되면 스패닝 트리 프로토콜이 전달 상태로 전환할 수 있는지 확인될 때까지 포트를 차단하도록 구성합니다 . STP 에 의해 이루어지는 연결이 끊어지지 않도록 하려면 팀에 연결된 스위치 포트에 대해 Port Fast 또는 Edge Port 를 활성화해야 합니다 . 질문 : Windows 서버에서 어댑터의 실시간 통계는 어디서 모니터링할 수 있습니까 ? 답변 : QLogic Control Suite(QCS) 를 사용하여 일반 , IEEE 802.3 및 사용자 지정 카운터를 모니터링하십시오 . 질문 : 여러 공급업체 팀에서는 어떤 기능이 지원되지 않습니까 ? 답변 : VLAN 태그 및 RSS 가 여러 공급업체 팀에서 지원되지 않습니다 .
11–QLogic 팀 구성 서비스 이벤트 로그 메시지 기본 드라이버 ( 물리적 어댑터 또는 미니포트 ) 기본 드라이버는 소스 L2ND 로 식별됩니다 . 표 11-8 에는 기본 드라이버에서 지원 하는 이벤트 로그 메시지가 나열되어 있고 해당 메시지의 원인이 설명되어 있으며 , 권장 조치가 제공되어 있습니다 . 주 표 11-8 에서 , 메시지 번호 1 번 -17 번은 NDIS 5.x 와 NDIS 6.x 드라이버 모 두에 적용되며 , 메시지 번호 18 번 ~23 번은 NDIS 6.x 드라이버에만 적용됩 니다 . 표 11-8. 기본 드라이버 이벤트 로그 메시지 메시지 번호 심각도 메시지 원인 수정 조치 1 오류 장치 블록에 대해 메 모리를 할당하지 못 했습니다 . 시스템 메 모리 리소스 사용량 을 확인하십시오 . 드라이버에서 운영 체 제의 메모리를 할당할 수 없습니다 . 실행 중인 응용 프로그 램을 닫아 메모리를 확 보하십시오 . 2 오류 맵 레지스터를 할당 하지 못했습니다 .
11–QLogic 팀 구성 서비스 이벤트 로그 메시지 표 11-8. 기본 드라이버 이벤트 로그 메시지 ( 계속 ) 메시지 번호 심각도 메시지 원인 수정 조치 7 정보 네트워크 컨트롤러를 10MB 전이중 링크에 대해 구성했습니다 . 선택한 회선 속도 및 이 중 설정으로 어댑터를 수동 구성했습니다 . 작업이 필요하지 않습니 다. 8 정보 네트워크 컨트롤러를 100MB 반이중 링크 에 대해 구성했습니 다. 선택한 회선 속도 및 이 중 설정으로 어댑터를 수동 구성했습니다 . 작업이 필요하지 않습니 다. 9 정보 네트워크 컨트롤러를 100MB 전이중 링크 에 대해 구성했습니 다. 선택한 회선 속도 및 이 중 설정으로 어댑터를 수동 구성했습니다 . 작업이 필요하지 않습니 다. 10 정보 네트워크 컨트롤러를 1GB 반이중 링크에 대해 구성했습니다 . 선택한 회선 속도 및 이 중 설정으로 어댑터를 수동 구성했습니다 . 작업이 필요하지 않습니 다.
11–QLogic 팀 구성 서비스 이벤트 로그 메시지 표 11-8. 기본 드라이버 이벤트 로그 메시지 ( 계속 ) 메시지 번호 심각도 메시지 원인 수정 조치 16 정보 드라이버를 성공적으 로 초기화했습니다 . 드라이버가 성공적으로 로드되었습니다 . 작업이 필요하지 않습니 다. 17 정보 NDIS 가 미니포트 드 라이버를 재설정하는 중입니다 . NDIS 계층에서 패킷 송 신 / 수신의 문제를 감지 하여 문제 해결을 위해 드라이버를 재설정하는 중입니다 . QLogic Control Suite 진 단을 실행하여 네트워크 케이블 상태가 정상인지 확인하십시오 . 18 오류 알 수 없는 PHY 가 감 지되었습니다 . 기본 PHY 초기화 루틴을 사용 중입니다 . 드라이버에서 PHY ID 를 읽을 수 없습니다 . 어댑터를 교체하십시오 . 19 오류 이 드라이버는 이 장 치를 지원하지 않습 니다 . 최신 드라이버 로 업그레이드하십시 오.
11–QLogic 팀 구성 서비스 이벤트 로그 메시지 중급 드라이버 ( 가상 어댑터 또는 팀 ) 중급 드라이버는 기본 드라이버 개정에 상관없이 소스 BLFM 에 의해 식별됩니다 . 표 11-9 에는 중급 드라이버에서 지원하는 이벤트 로그 메시지가 나열되어 있고 해 당 메시지의 원인이 설명되어 있으며 , 권장 조치가 제공되어 있습니다 . 표 11-9. 중급 드라이버 이벤트 로그 메시지 시스템 이 벤트 메시 지 번호 심각도 메시지 원인 수정 조치 1 정보 QLASP 드라이버에 대 해 이벤트 로그가 활성 화되었습니다 . — 작업이 필요하지 않습 니다 . 2 오류 NDIS 에 등록할 수 없 습니다 . 드라이버가 NDIS 인터 페이스에 등록할 수 없 습니다 . 다른 NDIS 드라이버를 언로드하십시오 . 3 오류 관리 인터페이스를 인 스턴스화할 수 없습니 다. 드라이버에서 장치 인 스턴스를 만들 수 없습 니다 . 운영 체제를 다시 부팅 하십시오 .
11–QLogic 팀 구성 서비스 이벤트 로그 메시지 표 11-9. 중급 드라이버 이벤트 로그 메시지 ( 계속 ) 시스템 이 벤트 메시 지 번호 심각도 메시지 원인 수정 조치 10 경고 네트워크 어댑터의 연 결이 끊어졌습니다 . 물리적 어댑터가 네트 워크에 연결되지 않았 습니다 ( 링크가 설정되 어 있지 않습니다 ). 네트워크 케이블이 연 결되어 있고 올바른 유 형이며 , 링크 파트너 ( 스위치 또는 허브 ) 가 올바르게 동작하고 있 는지 확인하십시오 . 11 정보 네트워크 어댑터가 연 결되었습니다 . 물리적 어댑터가 네트 워크에 연결되었습니 다 ( 링크가 설정되어 있습니다 ). 작업이 필요하지 않습 니다 . 12 오류 QLASP 기능 드라이버 는 이 버전의 운영 체제 에서 실행할 수 없습니 다. 드라이버가 현재 설치 되어 있는 운영 체제를 지원하지 않습니다 .
11–QLogic 팀 구성 서비스 이벤트 로그 메시지 표 11-9. 중급 드라이버 이벤트 로그 메시지 ( 계속 ) 시스템 이 벤트 메시 지 번호 심각도 메시지 원인 수정 조치 18 정보 네트워크 어댑터가 비 활성화되어 네트워크 트래픽에 더 이상 참여 하지 않습니다 . 드라이버가 설치된 어 댑터를 인식하지 않습 니다 . 작업이 필요하지 않습 니다 . 19 정보 QLASP 의 LiveLink 기 능이 네트워크 어댑터 에 대한 링크를 연결했 습니다 . LiveLink 활성 팀 멤버 에 대한 원격 대상과의 연결이 설정 또는 복원 되었습니다 . 작업이 필요하지 않습 니다 . 20 정보 QLASP 의 LiveLink 기 능이 네트워크 어댑터 에 대한 링크 연결을 해 제했습니다 . LiveLink 활성 팀 멤버 는 원격 대상과 연결할 수 없습니다 . 작업이 필요하지 않습 니다 .
11–QLogic 팀 구성 서비스 이벤트 로그 메시지 표 11-10. VBD(Virtual Bus Driver) 이벤트 로그 메시지 ( 계속 ) 메시지 번호 심각도 메시지 원인 수정 조치 4 정보 네트워크 컨트롤러를 10MB 반이중 링크에 대해 구성했습니다 . 선택한 회선 속도 및 이 중 설정으로 어댑터를 수동 구성했습니다 . 작업이 필요하지 않습 니다 . 5 정보 네트워크 컨트롤러를 10MB 전이중 링크에 대해 구성했습니다 . 선택한 회선 속도 및 이 중 설정으로 어댑터를 수동 구성했습니다 . 작업이 필요하지 않습 니다 . 6 정보 네트워크 컨트롤러를 100MB 반이중 링크에 대해 구성했습니다 . 선택한 회선 속도 및 이 중 설정으로 어댑터를 수동 구성했습니다 . 작업이 필요하지 않습 니다 . 7 정보 네트워크 컨트롤러를 100MB 전이중 링크에 대해 구성했습니다 . 선택한 회선 속도 및 이 중 설정으로 어댑터를 수동 구성했습니다 .
11–QLogic 팀 구성 서비스 이벤트 로그 메시지 표 11-10. VBD(Virtual Bus Driver) 이벤트 로그 메시지 ( 계속 ) 메시지 번호 심각도 메시지 원인 수정 조치 13 오류 드라이버를 초기화하 지 못했습니다 . 드라이버 초기화 중 알 수 없는 오류가 발생했 습니다 . 드라이버를 다시 설치 하거나 최신 드라이버 로 업데이트하거나 QLogic Control Suite 진단을 실행하거나 어 댑터를 교체하십시오 . 14 오류 이 드라이버는 이 장치 를 지원하지 않습니다. 최신 드라이버로 업그 레이드하십시오 . 드라이버가 설치된 어 댑터를 인식하지 않습 니다 . 해당 어댑터를 지원하 는 드라이버 버전으로 업그레이드하십시오 . 15 오류 시스템의 메모리가 부 족하여 이 드라이버를 초기화하지 못했습니 다. 시스템 메모리 부족으 로 인해 드라이버가 초 기화되지 않았습니다 . 시스템 메모리를 늘리 십시오 .
12 NIC 분할 및 대역폭 관리 이 장에서는 NIC 분할 및 대역폭 관리에 대한 다음 정보를 제공합니다 . 개요 189 페이지의 "NIC 분할을 위한 구성 " 개요 NPAR(NIC 분할 ) 기능은 포트별로 여러 개의 PCI 물리적 기능을 갖추게 하여 QLogic BCM57xx 및 BCM57xxx10 Gigabit Ethernet NIC 를 여러 가상 NIC 로 분할 합니다 . 각 PCI 기능은 다른 가상 NIC 와 연결됩니다 . 각 물리적 기능은 OS 와 네 트워크에게는 별도의 NIC 포트로 인식됩니다 . 각 포트마다 파티션 수는 1 개에서 4 개까지 분할할 수 있습니다 . 따라서 듀얼 포트 NIC 는 파티션을 최대 8 개까지 가질 수 있습니다 . 각 파티션은 독립적인 NIC 포트 처럼 작동합니다 . 10G NIC 를 분할해서 사용하는 이점은 다음과 같습니다 .
12–NIC 분할 및 대역폭 관리 NIC 분할을 위한 구성 Linux 2016 Server Nano Server RHEL 6.x 이상 제품군 RHEL 7.x 이상 제품군 SLES 11.x 이상 제품군 SLES 12.x 이상 제품군 VMware ESX 5.x 이상 제품군 ESX 6.x 이상 제품군 주 32 비트 Linux 운영 체제는 커널 데이터 구조에서 이용 가능한 메모리 공간이 제한되어 있습니다 . 따라서 QLogic 은 NPAR 구성 시 64 비트 Linux 만 사용 하는 것을 권장합니다 . 일부 이전 OS 버전은 더욱 초기의 드라이버 릴리스가 필요할 수도 있습니다 . NIC 분할을 위한 구성 기본적으로 NIC 분할은 어댑터에서 활성화되어 있으며 Offload 는 물리적 기능 (PF) 이나 가상 NIC(VNIC) 에서 비활성화되어 있습니다 .
12–NIC 분할 및 대역폭 관리 NIC 분할을 위한 구성 CCM 유틸리티를 사용하여 NIC 분할을 구성하려면 다음 단계를 따르십시오 . 1. Device List( 장치 목록 ) 에서 NIC 를 선택합니다 . 2. Main Menu( 주 메뉴 ) 에서 Device Hardware Configuration( 장치 하드웨 어 구성 ) 을 선택합니다 . 3. Multi-Function Mode( 다기능 모드 ) 를 NPAR 로 변경합니다 . 4. 표 12-1 에 제공된 옵션에 따라 구성에 대한 NIC 매개변수를 구성합니다 . 이 표에는 NIC 분할 구성 창에서 사용할 수 있는 구성 매개변수가 제공됩니다 . 표 12-1.
12–NIC 분할 및 대역폭 관리 NIC 분할을 위한 구성 표 12-2. 기능 설명 ( 계속 ) 기능 a 설명 옵션 iSCSI Offload Protocol(iSCSI Offload 프로토콜 ) iSCSI 프로토콜을 활성화 및 비활성화합니다 . FCoE Offload protocol(FCoE Offload 프로토콜 ) FCoE 프로토콜을 활성화 및 비활성화합니다 . Bandwidth Weight( 대 역폭 가중치 ) 특정 기능의 가중치 또는 중요도를 구성합니다 . 포 트마다 4 개의 기능이 있으며 , 정체 발생 시 기능 간 에 중재하기 위해 가중치가 사용됩니다 . 4 개의 기능에 대한 모 든 가중치 합은 0 또는 100 입니다 . Maximum Bandwidth ( 최대 대역폭 ) 물리적 포트 링크의 최대 대역폭 ( 백분율 ) 을 구성 합니다 . — 네트워크 MAC 주소 a 네트워크 MAC 주소를 표시합니다 .
12–NIC 분할 및 대역폭 관리 NIC 분할을 위한 구성 모든 기능에 대해 동일한 Bandwidth Weight( 대역폭 가중치 ) 값을 구성하면 구성 에 사용된 실제 값에 따라 결과가 달라집니다 . 예를 들어 , 모든 기능이 “0” 또는 “25” 로 구성된 경우 이러한 기능에 구성된 Offload 는 논리적으로 같은 결과가 예상 되더라도 다른 대역폭 설정을 나타냅니다 . 이번 구성 예에서는 다음과 같이 총 6 개의 프로토콜을 사용하여 기능 ( 또는 파티 션 ) 4 개가 구성됩니다 . 기능 0 Ethernet FCoE 기능 1 Ethernet 기능 2 Ethernet 기능 3 Ethernet iSCSI 1. Relative Bandwidth Weight( 상대적 대역폭 가중치 ) 가 물리적 기능 (PF) 4 개에 대해 모두 "0" 으로 구성된 경우 6 개 Offload 모두 대역폭을 동일하게 공 유합니다 . 이 경우 총 대역폭의 약 16.
13 Linux QCS 설치 Linux 플랫폼에서 QLogic Control Suite 설치에 대한 정보는 다음과 같습니다 . 개요 195 페이지의 "Linux 서버에 WS-MAN 또는 CIM-XML 설치 " 202 페이지의 "Linux 클라이언트에 WS-MAN 또는 CIM-XML 설치 " 203 페이지의 "QLogic Control Suite 설치 " 개요 QLogic Control Suite(QCS) 는 수렴형 네트워크 어댑터라고도 하는 BCM57xx 및 BCM57xxx 어댑터 제품군용 관리 응용 프로그램입니다 . QCS 소프트웨어는 Windows 및 Linux 서버 / 클라이언트 운영 체제에서 작동합니다 . 이 장에서는 QCS 관리 응용 프로그램을 설치하는 방법을 설명합니다 . Windows 에서는 GUI 와 CLI 를 사용할 수 있지만 Linux 에서는 CLI 를 사용할 수 있습니다 .
13–Linux QCS 설치 개요 통신 프로토콜 공급자와 클라이언트 소프트웨어 사이에 통신이 이루어지기 위해서는 통신 프로토 콜이 있어야 합니다 . 이러한 통신 프로토콜은 DMTF(Distributed Management Task Force) 의 WBEM(Web-Based Enterprise Management) 및 CIM(Common Information Model) 표준을 독점 또는 오픈 소스로 구현한 것입니다 . 네트워크 관 리자는 네트워크에서 사용되는 표준에 따라 최상의 옵션을 선택할 수 있습니다 . 표 13-1 에는 관리 호스트 및 클라이언트에 설치된 운영 체제를 기준으로 사용 가 능한 옵션이 나와 있습니다 . 표 13-1.
13–Linux QCS 설치 Linux 서버에 WS-MAN 또는 CIM-XML 설치 Linux 서버에 WS-MAN 또는 CIM-XML 설치 Linux 서버에 WS-MAN 또는 CIM-XML 을 설치하려면 다음 단계를 따르십시오 . 1 단계 : OpenPegasus 설치 2 단계 : 서버에서 CIM 서버 시작 3 단계 : 서버에서 OpenPegasus 구성 4 단계 : QLogic CMPI 공급자 설치 5 단계 : 필요 시 Linux 방화벽 구성 수행 6 단계 : QCS 및 관련 관리 응용 프로그램 설치 1 단계 : OpenPegasus 설치 Red Hat Linux OS 에서는 다음의 두 가지 설치 옵션을 사용할 수 있습니다 . Inbox RPM 으로부터 (Red Hat 만 해당 ) 소스로부터 (Red Hat 및 SUSE) SUSE Linux Enterprise Server 11(SLES 11) OS 의 경우 , 소스 RPM 을 사용해야 합니다 .
13–Linux QCS 설치 Linux 서버에 WS-MAN 또는 CIM-XML 설치 주 시스템에서 "Red Hat Security Enhancement for tog-pegasus" 옵션이 활성화 되어 있을 경우 QCS 에 연결하기 전에 이 옵션을 비활성화하십시오 . 자세한 내용은 다음 파일을 참조하십시오 . /usr/share/doc/tog-pegasus-2.5.2/README.RedHat.Security 이 옵션을 비활성화하려면 /etc/pam.d/wbem 에서 해당 행을 제거합니다 . 주 SUSE Linux 에서는 Inbox OpenPegasus RPM 을 사용할 수 없습니다 . OpenPegasus 는 다음 섹션에서 설명된 대로 소스로부터 설치해야 합니다 . Inbox Pegasus 에서 HTTP 는 기본적으로 비활성화되어 있습니다 .
13–Linux QCS 설치 Linux 서버에 WS-MAN 또는 CIM-XML 설치 환경 변수 설정 표 13-2 는 OpenPegasus 구축을 위한 환경 변수를 설명합니다 . 표 13-2. 환경 변수 환경 변수 설명 PEGASUS_ROOT Pegasus 소스 트리의 위치 PEGASUS_HOME 빌드된 실행 파일인 리포지토리의 위치 . 예 : 다음 하위 디렉터리 $PEGASUS_HOME/bin $PEGASUS_HOME/lib $PEGASUS_HOME/repository $PEGASUS_HOME/mof PATH $PATH:$PEGASUS_HOME/bin PEGASUS_ENABLE_CMPI_PROVIDER_MANAGER 참 PEGASUS_CIM_SCHEMA "CIM222" PEGASUS_PLATFORM Linux 32 비트 시스템 : "LINUX_IX86_GNU" Linux 64 비트 시스템 : "LINUX_X86_64_GNU" PEGASUS_HAS_SSL 옵션 .
13–Linux QCS 설치 Linux 서버에 WS-MAN 또는 CIM-XML 설치 SSL 지원의 경우 , 다음의 환경 변수를 추가합니다 . export PEGASUS_HAS_SSL=true WS-MAN 지원의 경우 , 다음의 환경 변수를 추가합니다 . export PEGASUS_ENABLE_PROTOCOL_WSMAN=true OpenPegasus 의 CIM-XML 및 WSMAN 은 HTTP 또는 HTTPS 에 동일한 포트를 사용합니다 . HTTP 및 HTTPS 용 기본 포트 번호는 각각 5989 와 5989 입니다 . 주 이러한 내보내기를 .bash_profile 의 끝에 추가할 수 있습니다 . 이 파일 은 /root 디렉터리에 있습니다 . 사용자가 PuTTY 를 사용하여 로그인하면 환경 변수가 설정됩니다 . Linux 시스템 자체에서 , 환경 변수가 설정되지 않은 각 단말에 대해 다음 명령을 실행합니다 . source /root/.
13–Linux QCS 설치 Linux 서버에 WS-MAN 또는 CIM-XML 설치 주 OpenPegasus 가 소스로부터 컴파일된 경우 , CIM 서버를 시작할 때 PEGASUS_HOME 을 정의해야 합니다 . 그렇지 않을 경우 CIM 서버가 리포지토 리를 올바로 로드하지 않습니다 . .bash_profile 파일에서 PEGASUS_HOME 설정을 고려하십시오 . 3 단계 : 서버에서 OpenPegasus 구성 cimconfig 명령을 실행하여 표 13-3에 표시된 대로 OpenPegasus를 구성합니다. 표 13-3. cimconfig 명령 옵션 명령 설명 cimconfig -l 유효한 속성 이름을 모두 나열합니다 . cimconfig -l -c 유효한 속성 이름 및 해당 값을 모두 나열 합니다 . cimconfig -g 특정 속성을 조회합니다 . cimconfig -s = -p 특정 속성을 설정합니다 .
13–Linux QCS 설치 Linux 서버에 WS-MAN 또는 CIM-XML 설치 루트 사용자가 원격으로 연결하기를 원할 경우 , 다음을 실행 : cimconfig -s enableRemotePrivilegedUserAccess=true -p 권한이 있는 사용자 구성 : Linux 시스템 사용자를 사용하여 OpenPegasus 를 인증 합니다 . QCS 를 통해 연결하려면 cimuser 명령을 실행하여 시스템 사용자를 OpenPegasus 에 추가합니다 . cimuser -a -u -w 예 : cimuser -a -u root -w linux1 HTTP 활성화 HTTP 를 활성화하려면 다음 단계를 따르십시오 . 1. CIM 서버가 시작되지 않았으면 시작합니다 . 2. 다음 명령을 실행하여 HTTP 포트를 설정합니다 ( 옵션 ). cimconfig -s httpPort=5988 -p 이 속성은 Inbox OpenPegasus 에 사용할 수 없습니다 .
13–Linux QCS 설치 Linux 서버에 WS-MAN 또는 CIM-XML 설치 설치 다음 명령을 실행하여 QLogic CMPI 공급자를 설치합니다 . % rpm -i QLGC_CMPIProvider-{version}.{arch}.rpm 삭제 다음 명령을 실행하여 QLogic CMPI 공급자를 삭제합니다 . % rpm -e QLGC_CMPIProvider 5 단계 : 필요 시 Linux 방화벽 구성 수행 적절한 절차를 수행하여 방화벽에서 적절한 포트를 엽니다 . Red Hat Red Hat 에서 Linux 방화벽을 구성하는 방법 : 1. System( 시스템 ) 을 클릭하고 Administration( 관리 ) 을 선택한 후 Firewall( 방화벽 ) 을 선택합니다 . 2. Other Ports( 기타 포트 ) 를 선택합니다 . 3. 포트 및 프로토콜 대화 상자에서 User Defined( 사용자 정의 ) 를 선택합니다 . 4.
13–Linux QCS 설치 Linux 클라이언트에 WS-MAN 또는 CIM-XML 설치 6. 다음 값을 입력합니다 . Source Network( 소스 네트워크 ): 0/0( 모두를 의미 ) Protocol( 프로토콜 ): TCP( 또는 해당 프로토콜 ) Destination Port( 대상 포트 ): < 포트 번호 > 또는 < 포트 번호 범위 > Source Port( 소스 포트 ): 빈 상태로 둡니다 . 예를 들어 CIM-XML 의 경우 , 다음 값을 사용합니다 . 7. Source Network( 소스 네트워크 ): 0/0( 모두를 의미 ) Protocol( 프로토콜 ): TCP Destination Port( 대상 포트 ): 5988:5989 Source Port( 소스 포트 ): 빈 상태로 둡니다 . 방화벽 규칙을 적용하려면 Next( 다음 ) 를 클릭한 다음 Finish( 마침 ) 를 클 릭합니다 .
13–Linux QCS 설치 QLogic Control Suite 설치 자체 서명된 인증서 파일 hostname.pem 을 Linux 클라이언트의 인증서 디렉터리 에 복사합니다 . 예를 들어 , 인증서 디렉터리가 /etc/ssl/certs 일 경우 hostname.pem 을 /etc/ssl/certs 로 복사합니다 . 1. 다음 디렉터리로 변경합니다 . /etc/ssl/certs 2. 다음 명령을 실행하여 해시 값을 생성합니다 . openssl x509 -noout -hash -in hostname.pem 다음과 같은 값이 반환됩니다 . 100940db 3. 다음 명령을 실행하여 해시 값에 대한 기호 링크를 생성합니다 . ln -s hostname.pem 100940db.0 Linux 클라이언트에서 HTTPS/SSL 연결 테스트 다음 명령을 실행하여 인증서가 Linux 에 올바로 설치되었는지 테스트합니다 .
13–Linux QCS 설치 QLogic Control Suite 설치 QCS 설치 방법 : 1. 최신 QCS 관리 응용 프로그램 RPM 패키지를 다운로드합니다 . 2. 다음 명령을 사용하여 RPM 패키지를 설치합니다 . % rpm -i QCS-{version}.{arch}.rpm QCS 사용 방법 : QCS CLI 를 사용하려면 릴리스 파일에 함께 제공된 QCSCLI_Readme.txt 파일 을 참조하십시오 . QCS 제거 방법 : 다음 명령을 실행하여 RPM 패키지를 제거합니다 .
14 Fibre Channel over Ethernet FCoE(Fibre Channel over Ethernet) 정보는 다음을 포함합니다 . 개요 206 페이지의 "SAN 에서 FCoE 부트 " 243 페이지의 "FCoE 구성 " 245 페이지의 "N_Port ID 가상화 (NPIV)" 개요 오늘날 데이터 센터에서는 필요한 성능과 다기능성을 제공하기 위해 NAS(Network Attached Storage) 를 포함한 여러 네트워크와 관리 , IPC 및 스토리 지가 사용됩니다 . 스토리지 솔루션을 위한 iSCSI 외에 , 이제 FCoE(Fibre Channel over Ethernet) 를 QLogic C-NIC 에 사용할 수 있습니다 . FCoE 는 수신된 FCoE 및 FCoE 초기화 프로토콜 (FIP) 프레임을 분류하여 이더넷을 통해 파이버 채널 프로 토콜을 전송할 수 있는 표준으로서 기존의 파이버 채널 인프라 및 자본 투자를 보호 합니다 .
14–Fibre Channel over Ethernet SAN 에서 FCoE 부트 DCB 는 향상된 전송 선택 (ETS) 을 통해 FCoE 트래픽에 대한 링크 대역폭 공 유를 할당합니다 . DCB 는 표준 이더넷 네트워크보다 구축 , 업그레이드 및 관리하기가 더 용이한 단 일의 물리적 패브릭에서 스토리지 , 관리 , 컴퓨팅 및 통신 패브릭을 지원합니다 . DCB 기술은 지원되는 QLogic C-NIC 가 손실 없는 데이터 전달 , 낮은 대기 시간 , 데이터 센터 물리적 링크의 표준 기반 대역폭 공유를 제공할 수 있도록 해줍니다 . DCB 는 FCoE, iSCSI, NAS(Network Attached Storage), 관리 및 IPC 트래픽 흐름 을 지원합니다 . DCB 에 대한 자세한 내용은 장 15 Data Center Bridging 을 참조하 십시오 .
14–Fibre Channel over Ethernet SAN 에서 FCoE 부트 BIOS 부트 프로토콜 지정 ( 필요 시 ) 일부 플랫폼의 경우 시스템 BIOS 구성을 통해 부트 프로토콜을 구성해야 합니다 . 기타 모든 시스템의 경우 부트 프로토콜은 QLogic CCM(Comprehensive Configuration Management) 을 통해 지정되며 , 해당 시스템에서 이 단계는 불필요 합니다 . FCoE 부트를 위한 QLogic Multiple Boot Agent 준비 (CCM) CCM 은 시스템이 레거시 부트 모드로 설정되어 있을 때만 사용할 수 있습니다 . 시 스템이 UEFI 부트 모드로 설정되어 있으면 사용하지 못합니다 . UEFI 장치 구성 페 이지는 두 가지 모드에서 모두 사용 가능합니다 . 1. POST 중 CCM 유틸리티를 호출합니다 . QLogic Ethernet Boot Agent 배너 ( 그림 14-1) 에서 CTRL+S 키를 누릅니다 . 그림 14-1.
14–Fibre Channel over Ethernet SAN 에서 FCoE 부트 그림 14-2. CCM 장치 목록 3. 장치에 DCB 및 DCBX 가 활성화되어 있는지 확인합니다 ( 그림 14-3). FCoE 부트는 DCBX 지원 구성에서만 지원됩니다 . 따라서 DCB 및 DCBX 가 활성 화되고 직접 연결된 링크 피어도 완전한 DCBX 동기화를 허용하는 매개변수 를 사용해 DCBX 를 지원해야 합니다 . 그림 14-3.
14–Fibre Channel over Ethernet SAN 에서 FCoE 부트 4. 일부 플랫폼의 경우 앞서 설명한 바와 같이 통합 장치 창의 시스템 BIOS 구성 을 통해 부트 프로토콜을 설정해야 할 수도 있습니다 . 기타 모든 장치의 경우 , CCM MBA Configuration Menu(MBA 구성 메뉴 ) 를 사용하여 Boot Protocol( 부트 프로토콜 ) 옵션을 FCoE 로 설정합니다 ( 그림 14-4). 그림 14-4.
14–Fibre Channel over Ethernet SAN 에서 FCoE 부트 5. 원하는 부트 대상 및 LUN 을 구성합니다 . Target Information( 대상 정보 ) 메뉴에서 첫 번째 사용 가능한 경로를 선택합니다 ( 그림 14-5). 그림 14-5. CCM 대상 정보 6. Connect( 연결 ) 옵션을 활성화하고 , 부트에 사용할 대상에 대한 대상 WWPN 및 부트 LUN 정보를 입력합니다 ( 그림 14-6). 그림 14-6.
14–Fibre Channel over Ethernet SAN 에서 FCoE 부트 Target Information( 대상 정보 ) 에 변경 내용이 표시됩니다 ( 그림 14-7). 그림 14-7. CCM 대상 정보 ( 구성 후 ) 7. 변경 내용 저장 후 종료 메시지가 나타날 때까지 ESC 키를 누릅니다 . CCM 을 종료하고 시스템을 다시 시작하여 변경 내용을 적용하려면 CTRL+ALT+DEL 키를 누릅니다 . 8. SAN 에 스토리지 액세스가 프로비저닝되고 나면 OS 설치를 진행합니다 . FCoE 부트를 위한 QLogic Multiple Boot Agent 준비 (UEFI) FCoE 부트를 위한 QLogic Multiple Boot Agent 를 준비하려면 (UEFI) 1. POST 도중 F2 를 눌러 시스템 BIOS UEFI 장치 구성 페이지로 전환한 후 Device Settings( 장치 설정 ) 를 선택합니다 ( 그림 6-2 참조 ). 2.
14–Fibre Channel over Ethernet SAN 에서 FCoE 부트 그림 14-8. FCoE 부트 구성 메뉴 4. 5. FCoE Boot Configuration(FCoE 부트 구성 ) 메뉴에서 아래와 같이 실행합니 다. a. Connect( 연결 ) 필드에서 Enabled( 활성화됨 ) 를 선택합니다 . b. 월드 와이드 포트 이름 (WWPN) 대상을 입력합니다 . c. 부트 LUN( 논리 단위 번호 ) 입력합니다 . FCoE Configuration(FCoE 구성 ) 메뉴에서 FCoE General Parameters(FCoE 일반 매개변수 ) 를 선택합니다 . FCoE General Parameters(FCoE 일반 매개변수 ) 메뉴가 나타납니다 ( 그림 14-9 참조 ). 그림 14-9.
14–Fibre Channel over Ethernet SAN 에서 FCoE 부트 6. FCoE General Parameters(FCoE 일반 매개변수 ) 메뉴에서 다음과 같이 실 행합니다 . a. 원하는 Boot to FCoE Target(FCoE 대상으로 부팅 ) 모드를 선택합니다 (One-Time Disabled(1 회 비활성화됨 ) 참조 ). CD/DVD-ROM 이나 장 착된 부팅 가능한 OS 설치 이미지를 사용하여 빈 FCoE 대상 LUN 에 OS 를 최초로 설치하는 경우 Boot from Target( 대상에서 부팅 ) 옵션 을 One Time Disabled(1 회 비활성화됨 ) 로 설정하십시오 . 이렇게 설정할 경우 성공적으로 로그인하고 연결이 설정된 후 시스템이 구성된 FCoE 대상에서 부팅되지 않습니다. 이 설정은 다음에 시스템이 재부팅된 후 Enabled( 활성화됨 ) 로 전환됩니다 .
14–Fibre Channel over Ethernet SAN 에서 FCoE 부트 사전 프로비저닝 사전 프로비저닝에서는 초기자 WWPN 을 참고하고 패브릭 조닝 및 스토리지 선택 적 LUN 프레젠테이션을 수동으로 수정해 초기자에 대한 적절한 액세스를 제공합 니다 . 초기자 WWPN 은 FCoE 부트 대상 구성 창의 화면 하단에서 확인할 수 있습니다 . 부트에 계획된 인터페이스와 연결된 FIP MAC 주소를 통해서도 초기자 WWPN 을 직접 추정할 수 있습니다 . 어댑터의 SFP+ 케이지에 부착된 스티커에 두 개의 MAC 주소가 인쇄되어 있습니다 . FIP MAC 은 홀수로 끝납니다 . WWPN 은 20:00: + 입니다 . 예를 들어 , FIP MAC 이 00:10:18:11:22:33 이면 WWPN 은 20:00:00:10:18:11:22:33 입니다 . 주 기본 WWPN 은 20:00: + 입니다 . 기본 WWNN 은 10:00: + 입니다 .
14–Fibre Channel over Ethernet SAN 에서 FCoE 부트 5. 초기자가 패브릭에 로그인했지만 대상에 로그인할 수 없을 경우 CTRL+R 을 실행하면 부트 프로세스가 일시 중지되어 패브릭 조닝을 구성할 수 있습니다 . 조닝이 완료되면 초기자는 표시된 모든 대상에 자동으로 로그인합니다 . 6. 초기자가 단계 1 에서 프로비저닝된 대로 지정된 대상에서 지정된 LUN 을 검 색할 수 없을 경우 , CTRL+R 을 실행하면 부트 프로세스가 일시 중지되어 선 택적 LUN 프레젠테이션을 구성할 수 있습니다 . 7. 부트 초기자는 LUN 준비 상태를 확인하기 위해 주기적으로 LUN 을 폴링하며 , LUN 액세스가 프로비저닝되면 부트 프로세스가 자동으로 진행됩니다 . 주 One-Time Disabled(1 회 비활성화됨 ) 에 설명된 바와 같이 부트 초기자 를 One-Time Disabled(1 회 비활성화됨 ) 모드로 설정했음을 확인합니 다.
14–Fibre Channel over Ethernet SAN 에서 FCoE 부트 CCM에서 MBA 설정의 Option ROM(옵션 ROM)을 One Time Disabled(1회 비활성화됨 ) 로 설정합니다 . 이렇게 설정하면 FCoE ROM 이 로드되고 준비 된 LUN 이 검색되면 자동으로 우회합니다 . 설치 후 재부팅 시 Option ROM 은 자동으로 Enabled( 활성화됨 ) 로 되돌려집니다 . 모든 Option ROM 배너를 통과합니다 . FCoE 부트가 호출되면 , 그림 14-10 에서 나타나는 바와 같이 대상에 연결되고 우회를 호출하기 위해 CTRL+D 를 누를 수 있 는 4 초의 시간이 제공됩니다 . CTRL+D 를 눌러 설치를 진행합니다 . 그림 14-10. FCoE 부트 Windows Server 2008 R2 및 Windows Server 2008 SP2 FCoE 부트 설치 Windows Server 2008 부트 설치 방법 1.
14–Fibre Channel over Ethernet SAN 에서 FCoE 부트 Windows Server 2008 SP2 FCoE 부트 설치 방법 1. EVBD 드라이버를 로드합니다 ( 그림 14-11). 그림 14-11. EVBD 드라이버 설치 2. bxfcoe(OFC) 드라이버를 로드합니다 ( 그림 14-12). 그림 14-12.
14–Fibre Channel over Ethernet SAN 에서 FCoE 부트 3. 설치할 부트 LUN 을 선택합니다 ( 그림 14-13). 그림 14-13. 설치 디스크 파티션 선택 4. 나머지 설치를 계속 진행합니다 . 5. 설치가 완료되고 SAN 으로 부팅되면 , 제공된 Windows 드라이버 설치 프로 그램을 실행하고 재부팅합니다 . 이제 설치가 완료되었습니다 . 주 부트 초기자는 설치 시 원하는 LUN 을 가리키도록 구성되어야 하며 , 설치를 시작하기 전에 LUN 준비 상태를 성공적으로 로깅하고 확인해야 합니다 . 이 러한 요구 조건이 충족되지 않으면 그림 14-13 에 나타난 바와 같이 드라이버 목록에 장치가 계속 표시되며 설치 진행 중 읽기 / 쓰기 오류가 발생합니다 .
14–Fibre Channel over Ethernet SAN 에서 FCoE 부트 Windows Server 2012, 2012 R2 및 2016 FCoE 부팅 설치 SAN 을 통한 Windows Server 2012, 2012 R2 및 2016 부트를 설치할 경우 , 최신 QLogic 드라이버가 삽입된 " 통합 설치 " DVD 또는 ISO 이미지를 사용해야 합니다 (104 페이지의 "QLogic 드라이버를 Windows 이미지 파일로 삽입 ( 적용 )" 참조 ). support.microsoft.com 에서 Microsoft 기술 자료 KB974072 도 참조하십시오 . SAN 을 통한 Windows Server 2012 및 2016 FCoE 부트에도 이 기술 자료를 참조 할 수 있습니다 . Microsoft 절차는 OIS, VBD 및 NDIS 드라이버만 삽입합니다 . 모 든 드라이버를 삽입하는 것을 권장하며 , 특히 다음 목록 중 굵게 표시된 드라이버 삽입을 권장합니다 .
14–Fibre Channel over Ethernet SAN 에서 FCoE 부트 e. Installation( 설치 ) 을 선택하여 계속 진행합니다 ( 그림 14-14). 그림 14-14.
14–Fibre Channel over Ethernet SAN 에서 FCoE 부트 2. 프롬프트에 따라 드라이버 업데이트 매체를 선택 ( 그림 14-15) 하고 드라이 버를 로드 ( 그림 14-16) 합니다 . 그림 14-15. 드라이버 업데이트 매체 선택 그림 14-16. 드라이버 로드 3. 드라이버 업데이트가 완료되면 Next( 다음 ) 를 선택하여 OS 설치를 계속 진 행합니다 .
14–Fibre Channel over Ethernet SAN 에서 FCoE 부트 4. 요청 시 Configure FCoE Interfaces(FCoE 인터페이스 구성 ) 를 클릭합니다 ( 그림 14-17). 그림 14-17.
14–Fibre Channel over Ethernet SAN 에서 FCoE 부트 5. SAN 부트 경로로 사용하려는 10GbE QLogic 초기자 포트에서 FCoE Enable(FCoE 활성화 ) 이 Yes( 예 ) 로 설정되었음을 확인합니다 ( 그림 14-18). 그림 14-18. FCoE 활성화 6. FCoE 부트를 위해 활성화할 각 인터페이스에서 다음 작업을 수행합니다 . a. Change Settings( 설정 변경 ) 를 클릭합니다 . b. FCoE 설정 변경 창 ( 그림 14-19) 에서 FCoE Enable(FCoE 활성화 ) 및 Auto_VLAN 이 Yes( 예 ) 로 설정되었는지 확인합니다 . c. DCB Required(DCB 필수 ) 가 No( 아니요 ) 로 설정되었는지 확인합니 다. d. 설정 사항을 저장하려면 Next( 다음 ) 를 클릭합니다 .
14–Fibre Channel over Ethernet SAN 에서 FCoE 부트 그림 14-19. FCoE 설정 변경 7. FCoE 부트를 위해 활성화할 각 인터페이스에서 다음 작업을 수행합니다 . a. Create FCoE VLAN Interface(FCoE VLAN 인터페이스 생성 ) 를 클릭 합니다 . b. VLAN 인터페이스 생성 대화 상자에서 Yes( 예 ) 를 클릭하여 자동 FIP VLAN 검색을 확인 및 실행합니다 . 성공하면 VLAN 이 FCoE VLAN Interface(FCoE VLAN 인터페이스 ) 아래에 나타납니다 . VLAN 이 표시되지 않으면 연결 및 스위치 구성을 확인합니다 .
14–Fibre Channel over Ethernet SAN 에서 FCoE 부트 8. 모든 인터페이스의 구성이 완료되면 OK( 확인 ) 를 클릭하여 진행합니다 ( 그 림 14-20). 그림 14-20. FCoE 인터페이스 구성 9. 설치를 계속하려면 Next( 다음 ) 를 클릭합니다 .
14–Fibre Channel over Ethernet SAN 에서 FCoE 부트 10. YaST2 에 다중 경로를 활성화할 것이냐고 묻는 메시지가 표시됩니다 . 적절 하게 답변합니다 ( 그림 14-21). 그림 14-21. 디스크 활성화 11. 평소대로 설치를 계속합니다 .
14–Fibre Channel over Ethernet SAN 에서 FCoE 부트 12. Installation Settings( 설치 설정 ) 화면의 Expert( 전문가 ) 탭 아래에서 Booting( 부팅 ) 을 선택합니다 ( 그림 14-22). 그림 14-22.
14–Fibre Channel over Ethernet SAN 에서 FCoE 부트 13. Boot Loader Installation( 부트 로더 설치 ) 탭을 클릭하고 Boot Loader Installation Details( 부트 로더 설치 세부 정보 ) 를 선택합니다 . 부트 로더는 한 개만 입력할 수 있습니다 . 나머지 중복되는 항목은 모두 삭제하십시오 ( 그림 14-23 참조 ). 그림 14-23. 부트 로더 장치 맵 14. OK( 확인 ) 를 클릭하여 진행하고 설치를 완료합니다 . RHEL 6 설치 RHEL 6 에 Linux FCoE 부트 설치 방법 1. 설치 미디어에서 부팅합니다 . RHEL 6.3 및 RHEL 6.4 버전별로 설치 방법이 다릅니다 . RHEL 6.3 버전 : a. FCoE BFS 에는 업데이트된 Anaconda 이미지가 필요합니다 . Red Hat 은 다음 URL 에서 업데이트된 이미지를 제공합니다 . http://rvykydal.fedorapeople.
14–Fibre Channel over Ethernet SAN 에서 FCoE 부트 (3) ENTER 키를 눌러 계속합니다 . Anaconda 업데이트 이미지 설치에 대한 자세한 내용은 다음 Red Hat Installation Guide(Red Hat 설치 안내서 ) 의 Section 28.1.3 을 참조하십시오 . http://docs.redhat.com/docs/en-US/Red_Hat_Enterprise_Linux/6/html/Install ation_Guide/ap-admin-options.html#sn-boot-options-update RHEL 6.4 이상 버전 : 업데이트된 Anaconda 이미지가 필요하지 않습니다 . a. 설치 초기 창에서 TAB 키를 누릅니다 . b. 그림 14-24 처럼 dd 옵션을 부트 명령행에 추가합니다 . c. ENTER 키를 눌러 계속합니다 . 그림 14-24.
14–Fibre Channel over Ethernet SAN 에서 FCoE 부트 2. Do you have a driver disk( 드라이버 디스크가 있습니까 ) 라고 묻는 메시지 가 나타나면 Yes( 예 ) 를 선택합니다 ( 그림 14-25). 주 RHEL 의 경우 네트워크 장치용 드라이버 업데이트를 설치할 때 네트워 크를 통해 드라이버 업데이트 미디어가 로드되지 않습니다 . 로컬 미디 어를 사용하십시오 . 그림 14-25. 드라이버 디스크 선택 3. 드라이버가 로드되면 설치를 계속합니다 .
14–Fibre Channel over Ethernet SAN 에서 FCoE 부트 4. 메시지가 나타나면 Specialized Storage Devices( 특수 저장 장치 ) 를 선택 합니다 . 5. Add Advanced Target( 고급 대상 추가 ) 을 클릭합니다 . 6. Add FCoE SAN(FCoE SAN 추가 ) 을 선택하고 Add drive( 드라이브 추가 ) 를 클릭합니다 ( 그림 14-26). 그림 14-26.
14–Fibre Channel over Ethernet SAN 에서 FCoE 부트 7. FCoE 부트를 위한 각 인터페이스의 경우 인터페이스를 선택하고 , Use DCB(DCB 사용 ) 를 선택 취소하고 , Use auto vlan( 자동 VLAN 사용 ) 을 선 택한 다음 Add FCoE Disk(s)(FCoE 디스크 추가 ) 를 클릭합니다 ( 그림 14-27). 그림 14-27. FCoE 매개변수 구성 8. 모든 초기자 포트에 대해 8-10 단계를 반복합니다 . 9. 표시되는 모든 FCoE 디스크가 Multipath Devices( 다중 경로 장치 ) 또는 Other SAN Devices( 다른 SAN 장치 ) 탭 아래에 표시되는지 확인합니다 ( 그림 14-28). 그림 14-28. FCoE 디스크 확인 10. Next( 다음 ) 를 클릭하여 계속 진행합니다 .
14–Fibre Channel over Ethernet SAN 에서 FCoE 부트 11. 평소대로 Next( 다음 ) 를 클릭하고 설치를 완료합니다 . 설치가 완료되면 시스템이 부팅됩니다 . 12. 부팅 후 , 모든 부트 경로 장치가 부팅 시 시작으로 설정되어 있는지 확인합니 다 . /etc/sysconfig/network-scripts 에 있는 각 네트워크 인터페이 스 config 파일에서 onboot=yes 를 설정합니다 . 13. RHEL 6.4 버전의 경우 , /boot/grub/menu.lst 를 다음과 같이 수정합니 다. a. kernel /vmlinuz … 행에서 모든 fcoe=:nodcb 매개변수를 삭제합니다. 설치 중 구성된 FCoE 매개변수의 수와 동일한 수의 fcoe= 매개변수가 있어야 합니다 . b. fcoe=edd:nodcb 를 kernel /vmlinuz … 행에 삽입합니다 .
14–Fibre Channel over Ethernet SAN 에서 FCoE 부트 a. R 키를 눌러 Device List( 장치 목록 ) 를 새로 고침합니다 . b. 적절한 미디어 번호를 입력합니다 . c. C 키를 눌러 계속합니다 . 주 RHEL 의 경우 네트워크 장치용 드라이버 업데이트를 설치할 때 네트워 크를 통해 드라이버 업데이트 미디어가 로드되지 않습니다 . 로컬 미디 어를 사용하십시오 . 6. 드라이버가 로드되면 C 키를 눌러 설치를 계속합니다 . 7. Installation Summary( 설치 요약 ) 창에서 Installation Destination( 설치 대 상 ) 을 클릭합니다 . 8. Installation Destination( 설치 대상 ) 창의 Specialized & Network Disks( 특 수 및 네트워크 디스크 ) 아래에 있는 Add a disk( 디스크 추가 ) 를 클릭합니 다. 9.
14–Fibre Channel over Ethernet SAN 에서 FCoE 부트 12. Installation Destination( 설치 대상 ) 창 ( 그림 14-30) 의 Other Storage Options( 다른 저장 옵션 ) 아래에서 Partitioning( 분할 ) 옵션을 선택하고 Done( 완료 ) 을 클릭합니다 . 그림 14-30. Partitioning( 분할 ) 옵션 선택 13. Installation Summary( 설치 요약 ) 창에서 Begin Installation( 설치 시작 ) 을 클릭합니다 . Linux: 부트 경로 추가 RHEL 의 경우 설치 시 구성되지 않은 FCoE 초기자를 통해 새 부트를 추가할 때 네 트워크 구성 업데이트가 필요합니다 . RHEL 6.2 이상 버전 RHEL 6.
14–Fibre Channel over Ethernet SAN 에서 FCoE 부트 2. 각 인터페이스별 kernel /vmlinuz … 행에 ifname=: 를 추가하여 /boot/grub/menu.lst를 편집합니다. MAC 주소는 모두 소문자여야 하며, 콜론으로 구분해야 합니다 . ( 예 : ifname=em1:00:00:00:00:00:00) 3. 처음 설치 과정에서 이미 구성된 /etc/fcoe/cfg- 파일을 복제하여 새 FCoE 초기자 각각에 대해 /etc/fcoe/cfg- 파 일을 생성합니다 . 4. 다음 명령을 실행합니다 . nm-connection-editor 5. a. Network Connection( 네트워크 연결 ) 을 열고 새 인터페이스를 각각 선택합니다 . b. DHCP 설정을 포함하여 각 인터페이스를 원하는 대로 구성합니다 . c.
14–Fibre Channel over Ethernet SAN 에서 FCoE 부트 ESXi FCoE 부팅 설치 방법 : 1. 업데이트된 ESXi 6.0 U2 설치 이미지를 사용하여 부팅한 후 , ESXi 6.0 U2 설 치 프로그램을 선택하라는 메시지가 나타나면 이를 선택합니다 . 2. Welcome to the VMware ESXi installation(VMware 설치 시작 ) 창에서 ENTER 키를 눌러 계속합니다 . 3. EULA 창에서 F11 키를 눌러 동의한 후 계속합니다 . 4. Select a Disk( 디스크 선택 ) 창 ( 그림 14-31) 에서 설치할 부트 LUN 으로 스 크롤하여 ENTER 를 눌러 계속합니다 . 그림 14-31. ESXi 디스크 선택 5. ESXi and VMFS Found(ESXi 및 VMFS 검색 ) 창 ( 그림 14-32) 에서 설치 방 법을 선택합니다 . 그림 14-32. ESXi 및 VMFS 검색 6.
14–Fibre Channel over Ethernet SAN 에서 FCoE 부트 7. Confirm Install( 설치 확인 ) 창 ( 그림 14-33) 에서 F11 키를 눌러 설치 및 다시 분할을 확인합니다 . 그림 14-33. ESXi 설치 확인 8. 설치가 완료되면 ( 그림 14-34), ENTER 를 눌러 재부팅합니다 . 그림 14-34.
14–Fibre Channel over Ethernet SAN 에서 FCoE 부트 9. 57800 및 57810 보드의 경우 , 관리 네트워크는 vmnic0 이 아닙니다 . 부팅 후 GUI 콘솔을 열고 Configure Management Network( 관리 네트워크 구성 ) > Network Adapters( 네트워크 어댑터 ) 화면 ( 그림 14-35) 을 표시한 다음 관 리 네트워크 장치로 사용할 NIC 를 선택합니다 . 그림 14-35. ESXi 관리 네트워크 선택 10. BCM57800 및 BCM57810 보드의 경우에는 FCoE 부트 장치에 vSwitch0 이 외의 별도 vSwitch 가 있어야 합니다 . 그래야만 DHCP 에서 FCoE 부트 장치 가 아닌 다른 관리 네트워크에 IP 주소를 할당할 수 있습니다 .
14–Fibre Channel over Ethernet SAN 에서 FCoE 부트 그림 14-36 은 이러한 예를 나타냅니다 . 그림 14-36. VMware vSphere 클라이언트 네트워크 구성 VMware 에서 SAN 을 통해 FCoE 부트 구성 각 호스트는 고유 부트 LUN 에만 액세스 권한을 가져야 하며 다른 호스트의 부트 LUN 에 액세스할 수 없어야 합니다 . 저장소 시스템 소프트웨어를 사용하여 호스 트가 지정된 LUN 에만 액세스하는지 확인하십시오 .
14–Fibre Channel over Ethernet 설치 후 SAN 에서 부트 설치 후 SAN 에서 부트 부트 구성 및 OS 설치가 완료되면 재부팅 후 설치를 테스트할 수 있습니다 . 이때는 물론 향후 재부팅 시 사용자 개입이 필요하지 않습니다 . 그림 14-37 과 같이 CTRL+D 프롬프트를 무시하고 시스템이 FCoE SAN LUN 으로 부트되도록 합니다 . 그림 14-37. 설치 후 SAN 에서 부트 이때 , 추가적인 중복 장애 조치 경로가 필요하면 CCM 을 통해 경로를 구성할 수 있으며 , 첫 번째 경로를 사용할 수 없을 경우 MBA 는 보조 경로로 자동으로 장애 조치를 취합니다 . 또한 중복 부트 경로는 호스트 MPIO 소프트웨어를 통해 볼 수 있는 중복 경로를 제공하므로 결함 허용 구성이 가능합니다 . SAN 시스템을 통한 Linux 부트의 드라이버 업그레이드 1. 기존 BCM57xx 및 BCM57xxx 패키지를 다음과 같이 제거합니다 . a. root 계정으로 로그인합니다 .
14–Fibre Channel over Ethernet 설치 후 SAN 에서 부트 3. 4. 5. 다음 명령을 사용하여 ramdisk 를 업데이트합니다 . RHEL 6.x 시스템의 경우 , 다음 명령 실행 : dracut -force SLES 11 SPX 시스템의 경우 , 다음 명령 실행 : mkinitrd /boot 아래의 initrd 이름으로 다른 이름을 사용할 경우 a. dracut/mkinitrd 는 기존의 기본 이름으로 ramdisk 를 업데이트하 므로 이 이름을 기본 이름으로 덮어씁니다 . b. 또한 , /boot/grub/menu.lst 의 올바르거나 업데이트된 intrd 이름 이 SAN 을 통한 부팅 설정의 관련 항목에 사용되는지 확인해야 합니다 . 드라이버 업그레이드를 완료하려면 시스템을 다시 부팅한 후 , 업데이트된 initrd 를 포함하도록 수정된 grub 부트 항목을 선택해야 합니다 .
14–Fibre Channel over Ethernet FCoE 구성 또는, 컴퓨터의 BIOS 메뉴에서 디스크 컨트롤러를 활성화했는지 확인해야 한다는 오류 메시지가 나타날 수도 있습니다 . 이러한 오류 메시지가 전혀 나타나지 않게 하려면 드라이버를 설치하는 단계가 될 때까지 어떠한 USB 플래시 드라이브도 연결하지 말아야 합니다 . 드라이버를 로드 한 후 SAN 디스크가 표시되고 나면 추가 설치를 위한 디스크를 선택하기에 앞서 USB 플래시 드라이브를 즉시 분리 또는 연결 해제해야 합니다 . FCoE 구성 기본적으로 , DCB 는 QLogic BCM57xx 및 BCM57xxx FCoE 및 DCB 호환 C-NIC 에서 활성화되어 있습니다 . QLogic BCM57xx 및 BCM57xxx FCoE 에는 DCB 호 환 인터페이스가 있어야 합니다 . Windows 운영 체제에서는 다음 중 한 가지를 사 용하여 DCB 매개변수를 구성합니다 .
14–Fibre Channel over Ethernet FCoE 구성 NPAR 모드에서 iSCSI Offload 를 구성하려면 다음 응용 프로그램 중 하 나에서 NPAR 구성 페이지를 사용합니다 . QCC GUI QCS CLI QCC PowerKit 부팅 전 서버 UEFI HII 부팅 전 CCM Windows 에서 QCC GUI 를 사용하여 FCoE 오프로드 인스턴스를 활성화 / 비활 성화하려면 1. QCC GUI 를 엽니다 . 2. 왼쪽 트리 창의 포트 노드 아래에서 포트의 가상 버스 장치 인스턴스를 선택 합니다 . 3. 오른쪽 구성 창에서 Resource Config( 리소스 구성 ) 탭을 클릭합니다 . Resource Config( 리소스 구성 ) 페이지가 나타납니다 ( 그림 14-39 참조 ). 그림 14-39.
14–Fibre Channel over Ethernet N_Port ID 가상화 (NPIV) 4. 5. 다음과 같이 선택한 포트마다 리소스 구성 페이지를 작성합니다 . a. 포트에 FCoE 오프로드를 활성화하려면 FCoE 매개변수에서 Value ( 값 ) 확인란을 선택합니다 . b. 포트에 FCoE 오프로드를 비활성화하려면 FCoE 매개변수에서 Value ( 값 ) 확인란을 선택 해제합니다 . c. Apply( 적용 ) 버튼을 클릭합니다 . ( 옵션 ) QCS CLI 를 사용하여 Windows 나 Linux 의 단일 기능 또는 NPAR 모 드에서 FCoE 오프로드를 활성화하거나 비활성화하려면 User’s Guide QLogic Control Suite CLI( 부품 번호 BC0054511-00) 를 참조하십시오 .
15 Data Center Bridging 이 장에서는 Data Center Bridging 기능에 관한 다음 정보를 제공합니다 . 개요 247 페이지의 "DCB 기능 " 248 페이지의 "DCB 구성 " 248 페이지의 "DCB 조건 " 249 페이지의 "Windows Server 2012 이상의 데이터 센터 브리징 " 개요 Data Center Bridging(DCB) 은 손실 없는 데이터 전달 , 낮은 대기 시간 , 데이터 센 터 물리적 링크의 표준 기반 대역폭 공유를 제공하는 이더넷에 대한 IEEE 지정 표 준 확장의 모음입니다 . DCB 는 표준 이더넷 네트워크보다 구축 , 업그레이드 및 관 리하기가 더 용이한 단일의 물리적 패브릭에서 스토리지 , 관리 , 컴퓨팅 및 통신 패 브릭을 지원합니다 . DCB 는 코어에서 표준 기반으로 대역폭을 공유하므로 여러 패브릭이 동일한 물리적 패브릭에 공존할 수 있습니다 .
15–Data Center Bridging DCB 기능 DCB 기능 DCB 기능에는 이 섹션에 설명된 바와 같이 ETS, PFC 및 DCBX 가 포함됩니다 . 향상된 전송 선택 (ETS) 향상된 전송 선택 (ETS) 은 트래픽 클래스에 대역폭을 할당하기 위한 공통 관리 프 레임워크를 제공합니다 . 각 트래픽 클래스 또는 우선순위는 우선순위 그룹 (PG) 으로 그룹화되어 가상 링크 또는 가상 인터페이스 대기열로 간주될 수 있습니다 . 피어의 전송 스케줄러는 각 PG 마다 할당된 대역폭을 유지하는 역할을 합니다 . 예 를 들어 사용자는 FCoE 트래픽이 PG 0 에 그리고 iSCSI 트래픽이 PG 1 에 할당되 도록 구성할 수 있습니다 . 그런 다음 각 그룹에 특정 대역폭을 할당합니다 . 예를 들어 FCoE 에 60 퍼센트 , iSCSI 에 40 퍼센트를 할당할 수 있습니다 .
15–Data Center Bridging DCB 구성 Data Center Bridging 교환 (DCBX) Data Center Bridging 교환 (DCBX) 은 네트워크 패브릭에서 일관된 구성을 보장하 기 위해 링크 파트너 간에 ETS 및 PFC 의 기능 및 구성을 전달할 때 사용하는 검색 및 기능 교환 프로토콜입니다 . 두 장치가 정보를 교환하려면 하나의 장치가 다른 장치의 네트워크 구성을 수용할 준비가 되어 있어야 합니다 . 예를 들어 , C-NIC 가 연결된 스위치로부터 ETS 및 PFC 구성 정보를 수용할 준비가 되도록 구성되어 있 고 , 이러한 C-NIC 의 준비 상태를 스위치에서 확인하면 스위치는 권장되는 ETS 및 PFC 매개변수 설정을 C-NIC 로 보냅니다 . DCBX 프로토콜은 링크 수준 검색 프로 토콜 (LLDP) 을 사용하여 링크 파트너 간에 PFC 및 ETS 구성을 교환합니다 .
15–Data Center Bridging Windows Server 2012 이상의 데이터 센터 브리징 NIC 분할이 활성화된 구성에서 , ETS( 작동 중인 경우 ) 는 각 기능에 할당된 대 역폭 가중치를 무시합니다 . 대신 ETS 설정별로 프로토콜에 따라 전송 선택 가중치가 적용됩니다 . ETS 가 작동해도 기능별 최대 대역폭은 적용됩니다 . DCBX 피어를 통해 표시된 iSCSI 또는 FCoE 응용 프로그램 TLV가 없을 경우, 어댑터는 로컬 관리자 MIB 에서 가져온 설정을 사용합니다 . Windows Server 2012 이상의 데이터 센터 브리징 Windows Server 2012 부터 Microsoft 는 OS 수준에서 QoS(Quality Of Service) 를 관리할 수 있는 새로운 방법을 도입하였습니다 . Windows QoS 의 주요 두 가지 특 징은 다음과 같습니다 .
15–Data Center Bridging Windows Server 2012 이상의 데이터 센터 브리징 주 SR-IOV 를 사용하려면 DCB 기능을 설치하지 않는 것이 좋습니다 . DCB 기 능을 설치할 때 , Virtual Switch Manager 에서 Enable single-root I/O virtualization(SR-IOV) 을 선택하면 기본 어댑터의 DCB 상태에서 OS 의 DCB 구성이 무시되고 QCS 의 DCB 구성이 활성화되는 상태로 변경된다는 점을 유의하십시오 . 그러나 사용자 구성 Networking Priority( 네트워킹 우 선순위 ) 값 (0 이 아닌 값 ) 은 QCS 구성에 포함된 값이라 해도 무시됩니다 .
16 SR-IOV 이 장은 SR-IOV( 단일 루트 I/O 가상화 ) 에 대한 정보를 제공합니다 . 개요 SR-IOV 활성화 254 페이지의 "SR-IOV 가 작동 가능한지 확인 " 255 페이지의 "SR-IOV 및 스토리지 기능 " 256 페이지의 "SR-IOV 및 대용량 패킷 " 개요 네트워크 컨트롤러 가상화를 통해 사용자는 네트워킹 하드웨어 리소스를 통합하고 , 통합된 하드웨어에서 여러 가상 컴퓨터를 실행할 수 있습니다 . 가상화는 또한 사용 자에게 I/O 공유 , 통합 , 격리 및 마이그레이션 , 그리고 팀 구성 및 장애 조치에 따른 관리 간소화 등 다양한 기능을 제공합니다 . 가상화를 수행하면 하이퍼바이저 오버헤드 때문에 성능 감소의 단점이 뒤따를 수 있습니다 .
16–SR-IOV SR-IOV 활성화 SR-IOV 활성화 방법 : 1. QCC GUI, QCS CLI, Dell 사전 부팅 UEFI 또는 사전 부팅 CCM 을 사용하여 어댑터의 기능을 활성화합니다 . Windows QCC GUI 를 사용하는 경우 : a. Explorer View( 탐색기 보기 ) 창에서 네트워크 어댑터를 선택합니다 . Configuration( 구성 ) 탭을 클릭하고 SR-IOV Global Enable(SR-IOV 전역 활성화 ) 을 선택합니다 . b. SR-IOV VFs per PF(PF 당 SR-IOV VF 수 ) 상자에서 , 어댑터가 물리적 기능당 지원 가능한 SR-IOV VF( 가상 기능 ) 의 수를 구성합니다 . 이 값 을 0-64 의 범위에서 8 의 배수로 설정할 수 있습니다 ( 기본값 = 16). c.
16–SR-IOV SR-IOV 활성화 g. NPAR 모드를 포함한 SR-IOV일때는 각 파티션마다 Number of VFs Per PF(PF 당 VF 수 ) 제어 창이 하나씩 있습니다 . ESC 를 눌러 Main Configuration Page( 기본 구성 페이지 ) 로 돌아간 다음 NIC Partitioning Configuration(NIC 분할 구성 ) 메뉴를 선택합니다 ( 이 메 뉴는 Virtualization Mode( 가상화 모드 ) 제어에서 NPAR 모드를 선택한 경우에만 표시됩니다 ). NIC Partitioning Configuration(NIC 분할 구성 ) 페이지에서 Partition "N" Configuration( 파티션 "N" 구성 ) 메뉴를 각 각 선택하여 Number of VFs per PF(PF 당 VF 수 ) 제어를 설정합니다 . 물리적 포트 1 개에서 PF 당 할당되는 VF 의 총 수는 단계 f 에 할당되는 수를 넘을 수 없습니다 .
16–SR-IOV SR-IOV 가 작동 가능한지 확인 c. Virtual Switch Manager 에서 가상 어댑터를 선택한 다음 탐색 창에서 Hardware Acceleration( 하드웨어 가속화 ) 를 선택합니다 . Single-root I/O virtualization( 단일 루트 I/O 가상화 ) 섹션에서 Enable SR-IOV(SR-IOV 활성화 ) 를 선택합니다 . 이제 SR-IOV 를 수행해야 하 며 , vSwitch 가 생성된 후에는 SR-IOV 를 활성화할 수 없습니다 . ESX 일 때 : a. bnx2x 드라이버를 설치합니다 . b. ESXi 에서 lspci 명령을 출력하여 Broadcom 10GNetXtreme NIC 가 나열되는지 확인합니다 . c. lspci 에서 SR-IOV 가 필요한 10G NIC 시퀀스 번호를 선택합니다 . 예 : ~ # lspci | grep -i Broadcom 0000:03:00.
16–SR-IOV SR-IOV 및 스토리지 기능 3. 창 하단에서 Networking( 네트워킹 ) 탭을 선택하고 어댑터 상태를 확인합니 다. VMware vSphere 6.0 U2 웹 클라이언트에서 SR-IOV 를 확인하는 방법 : 1. Host( 호스트 ), Manage( 관리 ), Settings( 설정 ), Hardware( 하드웨어 ), PCI Devices(PCI 장치 ) 를 차례대로 선택하여 VF 가 정식 VMDirectPath 장 치로 표시되는지 확인합니다 . 2. VM 을 마우스 오른쪽 버튼으로 클릭한 후 Edit settings( 설정 편집 ), New Device( 새 장치 ), Select Network( 네트워크 선택 ), Add( 추가 ) 를 차례대 로 클릭합니다 . New Network( 새 네트워크 ) 를 클릭한 후 어댑터 유형을 SR-IOV 로 선택합니다 . OK( 확인 ) 를 클릭합니다 . ESXi CLI 에서 SR-IOV 를 확인하는 방법 : 1.
16–SR-IOV SR-IOV 및 대용량 패킷 SR-IOV 및 대용량 패킷 어댑터의 VF( 가상 기능 ) 에서 SR-IOV 를 활성화한 경우 VF 및 Microsoft 합성 어 댑터에서 동일한 대용량 패킷 설정이 구성되었는지 확인하십시오 . 이러한 값은 Windows 장치 관리자 > 고급 속성에서 구성할 수 있습니다 . 두 값이 다를 경우 Hyper-V, 네트워킹 상태에 SR-IOV 기능이 성능 저하된 상태로 표시됩니다 .
17 사양 사양 , 특성 및 요구 사항에는 다음 내용이 포함됩니다 . 10/100/1000BASE-T 및 10GBASE-T 케이블 사양 259 페이지의 " 인터페이스 사양 " 260 페이지의 "NIC 물리적 특성 " 260 페이지의 "NIC 전원 요구 사항 " 261 페이지의 "Wake On LAN 전원 요구 사항 " 262 페이지의 " 환경 사양 " 10/100/1000BASE-T 및 10GBASE-T 케이블 사양 표 17-1.
17– 사양 10/100/1000BASE-T 및 10GBASE-T 케이블 사양 NIC 별 지원되는 SFP+ 모듈 표 17-3. BCM57710 지원 모듈 모듈 유형 광학 모듈 (SR) 직접 연결 케이블 모듈 공급업체 모듈 부품 번호 Finisar Corp. FTLX8571D3BCL Avago AFBR-707SDZ-D1 Avago AFBR-703SDZ-D1 Intel Corp. FTLX8571D3BCV-IT Cisco-Molex Inc. 74752-9093 Cisco-Molex Inc. 74752-9094 Cisco-Molex Inc. 74752-9096 Cisco-Molex Inc. 74752-9098 표 17-4. BCM57810 지원 모듈 Dell 부품 번호 모듈 유형 광학 모듈 (SR) 직접 연결 케이블 모듈 공급업체 모듈 부품 번호 W365M Avago AFBR-703SDZ-D1 N743D Finisar Corp.
17– 사양 인터페이스 사양 표 17-5. BCM57840 지원 모듈 Dell 부품 번호 모듈 유형 모듈 공급업체 R8H2F 광학 모듈 (SR) 직접 연결 케이블 모듈 부품 번호 Intel Corp. AFBR-703SDZ-IN2 Intel Corp. FTLX8571D3BCV-IT K585N Cisco-Molex Inc. 74752-9093 J564N Cisco-Molex Inc. 74752-9094 H603N Cisco-Molex Inc. 74752-9096 G840N Cisco-Molex Inc.
17– 사양 NIC 물리적 특성 NIC 물리적 특성 표 17-8. NIC 물리적 특성 NIC 유형 NIC 길이 BCM57810S PCI Express x8 로우 프로파 일 16.8cm(6.6in) NIC 너비 6.5cm(2.54in) NIC 전원 요구 사항 표 17-9. BCM957810A1006G NIC 전원 요구 사항 연결 10G SFP 모듈 a NIC 12V 전류 소모 (A) NIC 3.3V 전류 소모 (A) NIC 전원 (W) a 1.00 0.004 12.0 전원은 측정 단위가 와트 (W) 이며 , 전체 전류 소모량 (A) 에 전압 (V) 을 곱한 결과입니다 . 어댑터의 최대 전력 소비는 25W 를 초과하지 않습니다 . 표 17-10. BCM957810A1008G NIC 전원 요구 사항 NIC 12V 전류 소모 (A) NIC 3.3V 전류 소모 (A) NIC 전원 (W) a 대기 ( 링크 없음 ) 0.9 0.004 11.0 100BASE-T 링크 1.
17– 사양 Wake On LAN 전원 요구 사항 표 17-11. BCM957840A4006G 메자닌 카드 전원 요구 사항 총 전력 (12V 및 3.3VAUX)(W) a 연결 a 10G SFP+ 12.0 대기 WoL 활성화됨 5.0 대기 WoL 비활성화됨 0.5 전원은 측정 단위가 와트 (W) 이며 , 전체 전류 소모량 (A) 에 전압 (V) 을 곱한 결과입니다 . 어댑터의 최대 전력 소비는 25W 를 초과하지 않습니 다. 표 17-12. BCM957840A4007G 메자닌 카드 전원 요구 사항 총 전력 (3.3V)(W) a 연결 a 10G KR 인터페이스 10.0 WoL 활성화됨 3.5 전원은 측정 단위가 와트 (W) 이며 , 전체 전류 소모량 (A) 에 전압 (V) 을 곱한 결과입니다 . 어댑터의 최대 전력 소비는 25W 를 초과하지 않습니다 . Wake On LAN 전원 요구 사항 WoL 정격 전원 : BCM957810A1006G: 9.
17– 사양 환경 사양 환경 사양 표 17-13. BCM5709 및 BCM5716 환경 사양 매개변수 조건 작동 온도 32~131°F(0~55°C) 기류 요구 사항 (LFM) 0 저장 온도 –40~149°F(–40~65°C) 저장 습도 5% ~ 95% 응축 진동 및 충격 IEC 68, FCC Part 68.302, NSTA, 1A 정전기 / 전자파 내성 EN 61000-4-2, EN 55024 표 17-14. BCM957810A1006G 환경 사양 매개변수 조건 작동 온도 32~131°F(0~55°C) 기류 요구 사항 (LFM) 100 저장 온도 –40~149°F(–40~65°C) 저장 습도 5% ~ 95% 응축 진동 및 충격 IEC 68, FCC Part 68.
17– 사양 환경 사양 표 17-15. BCM957810A1008G 환경 사양 매개변수 조건 작동 온도 32~131°F(0~55°C) 기류 요구 사항 (LFM) 50 저장 온도 –40~149°F(–40~65°C) 저장 습도 5% ~ 95% 응축 진동 및 충격 IEC 68, FCC Part 68.302, NSTA, 1A 정전기 / 전자파 내성 IEC 801-2, 3, 4, 5 표 17-16. BCM957840A4007G 환경 사양 매개변수 조건 작동 온도 32~131°F(0~65°C) 기류 요구 사항 (LFM) 200 저장 온도 –40~149°F(–40~65°C) 저장 습도 5% ~ 95% 응축 진동 및 충격 IEC 68, FCC Part 68.
18 규정사항 이 장의 규정사항에는 다음이 포함되어 있습니다 . 제품 안전성 AS/NZS (C-Tick) 265 페이지의 "FCC 표시 " 267 페이지의 "VCCI 표시 " 272 페이지의 "CE 표시 " 273 페이지의 " 캐나다 규정 정보 ( 캐나다만 해당 )" 275 페이지의 "KCC(Korea Communications Commission) 표시 (대한민국만 해당 )" 278 페이지의 "BSMI" 278 페이지의 "BCM95709SA0908G, BCM957710A1023G, E02D001 및 BCM957711A1123G(E03D001) 에 대한 인증 " 제품 안전성 ! 경고 어댑터 하드웨어를 설치하기 전에 컴퓨터와 예를 들어 모니터 , 프린터 , 및 외장형 구성부품과 같은 모든 연결된 장치들의 전원을 끄십시오 . 반드시 열거된 ITE 또는 동등한 장치와 함께 BCM57xx 및 BCM57xxx 어댑터를 사 용하십시오 .
18– 규정사항 AS/NZS (C-Tick) AS/NZS (C-Tick) AS/NZS, CISPR 22:2009+A1:2010 A 급 FCC 표시 FCC, B 급 QLogic BCM57xx 및 BCM57xxx gigabit Ethernet controller BCM95708A0804F BCM95709A0907G BCM95709A0906G BCM957810A1008G QLogic Corporation 26650 Aliso Viejo Parkway Aliso Viejo, CA 92656 USA 이 장치는 FCC 규정 15 조를 준수합니다 . 작동에는 다음 두 가지 조건이 적용됩니 다 . (1) 본 장치는 유해 간섭을 일으키지 않으며 (2) 본 장치는 원치 않는 작동을 일 으킬 수 있는 간섭을 포함하여 수신된 어떠한 간섭도 수용해야 합니다 . 이 장치는 FCC 규정 제 15 조의 B 급 디지털 장치 관련 규제사항에 따라 검사되었 으며 , 이에 부합하는 것으로 판정된 제품입니다 .
18– 규정사항 FCC 표시 FCC, A 급 QLogic BCM57xx 및 BCM57xxx gigabit Ethernet controller: BCM95709A0916G QLogic BCM57xx 및 BCM57xxx 10-gigabit Ethernet controller: BCM957800 BCM957710A1022G BCM957710A1021G BCM957711A1113G BCM957711A1102G BCM957810A1006G BCM957840A4006G BCM957840A4007G QLogic Corporation 26650 Aliso Viejo Parkway Aliso Viejo, CA 92656 USA 이 장치는 FCC 규정 15 조를 준수합니다 . 작동에는 다음 두 가지 조건이 적용됩니 다 . (1) 본 장치는 유해 간섭을 일으키지 않으며 , (2) 본 장치는 원치 않는 작동을 일 으킬 수 있는 간섭을 포함하여 수신된 어떠한 간섭도 수용해야 합니다 .
18– 규정사항 VCCI 표시 장치를 기계 또는 전기적으로 변경하지 마십시오 . 주 QLogic 의 허가 없이 장치를 변경하거나 개조하면 장비 작동 권한이 무효가 될 수 있습니다 . VCCI 표시 다음 표는 Dell 용 QLogic BCM57xx 및 BCM57xxx 어댑터의 물리적 특성에 대한 VCCI 표시를 제공합니다 . 표 18-1. QLogic 57800S 1GB 및 10GBASE-T 랙 네트워크 도터 카드의 물 리적 특성 항목 설명 포트 듀얼 1Gbps 이더넷 및 듀얼 10Gbps 이더넷 폼팩터 네트워크 도터 카드 92.9mm×74.4mm(3.66in×2.
18– 규정사항 VCCI 표시 표 18-2. QLogic 57800S 쿼드 RJ-45, SFP+ 또는 직접 연결식 랙 네트워크 도터 카드의 물리적 특성 ( 계속 ) 항목 지원되는 서버 설명 13 세대 : R630, R730, R730xd, T630 12 세대 : R620, R720, R720xd, R820, R920 2 포트 SFP+ (10GbE) 커넥터 2 포트 RJ45 (1GbE) RoHS, FCC A, UL, CE, VCCI, BSMI, C-Tick, KCC, TUV, ICES-003 인증 표 18-3. QLogic 57810S 듀얼 10GBASE-T PCI-e 카드의 물리적 특성 항목 설명 포트 듀얼 10Gbps BASE-T 이더넷 포트 폼팩터 단축형 로우 프로파일 PCI Express 카드 167.64mm×68.91mm(6.60in×2.
18– 규정사항 VCCI 표시 표 18-4. QLogic 57810S 듀얼 SFP+ 또는 직접 연결식 PCIe 의 물리적 특성 ( 계속 ) 항목 지원되는 서버 설명 13 세대 : R630, R730, R730xd, T630 12 세대 : R220, R320, R420, R520, R620, R720, R720xd, R820, R920, T420, T620 RoHS, FCC A, UL, CE, VCCI, BSMI, C-Tick, KCC, TUV, ICES-003 인증 표 18-5. QLogic 57810S-K 듀얼 KR 블레이드 메자닌 어댑터의 물리적 특성 항목 설명 포트 듀얼 10Gbps 이더넷 폼팩터 메자닌 어댑터 79.5mm×72.4mm(3.13in×2.85in) 지원되는 서버 13 세대 : M630 12 세대 : M420, M520, M620, M820 RoHS, FCC A, UL, CE, VCCI, C-Tick, KCC, TUV, ICES-003 인증 표 18-6.
18– 규정사항 VCCI 표시 표 18-7. QLogic 57840S 쿼드 10GbE SFP+ 또는 직접 연결식 랙 네트워크 도터 카드의 물리적 특성 항목 설명 포트 듀얼 10Gbps 이더넷 폼팩터 단축형 로우 프로파일 PCI Express 카드 67.64mmx68.91mm(6.60inx2.71in) 지원되는 서버 13 세대 : R630, R730, R730xd, T630 12 세대 : R320, R420, R520, R620, R720, R720xd, R820, T420, T620 RoHS, FCC A, UL, CE, VCCI, BSMI, C-Tick, KCC, TUV, ICES-003 인증 표 18-8. QLogic 57840S-K 쿼드 KR 블레이드 네트워크 도터 카드의 물리 적 특성 항목 설명 포트 쿼드 10Gbps 이더넷 폼팩터 네트워크 도터 카드 62.2mm×76.2mm(2.45in×3.
18– 규정사항 VCCI 표시 본 장치는 Information Technology Equipment 의 VCCI(Voluntary Control Council for interference by Information Technology Equipment) 표준을 따르는 B 급 제품입 니다 . 집안의 라디오나 TV 수신기 옆에서 사용하면 무선 간섭을 일으킬 수 있습니 다 . 설명서 지침에 따라 장치를 설치하고 사용하십시오 . 주의 주파수 범위가 59-66MHz 인 전도성 무선 주파수 에너지가 있는 곳에서는 이 장비가 손상될 우려가 있습니다 . RF 에너지원을 제거해야 정상적으로 작동 됩니다 .
18– 규정사항 CE 표시 VCCI A 급 규정 ( 일본 ) CE 표시 QLogic BCM57xx 및 BCM57xxx gigabit Ethernet controller BCM95708A0804F BCM95709A0907G BCM95709A0906G BCM95709A0916G BCM957810A1008G QLogic BCM57xx 및 BCM57xxx 10-gigabit Ethernet controller BCM957710A1022G BCM957710A1021G BCM957711A1113G BCM957711A1102G BCM957840A4006G BCM957840A4007G 이 제품은 2006/95/EC ( 저전압 지침 ), 2004/108/EC (EMC 지침 ) 및 유럽 연합 (EU) 의 수정 사항을 준수하는 것으로 확인되었습니다 .
18– 규정사항 캐나다 규정 정보 ( 캐나다만 해당 ) 캐나다 규정 정보 ( 캐나다만 해당 ) Industry Canada, B 급 QLogic BCM57xx 및 BCM57xxx gigabit Ethernet controller BCM95708A0804F BCM95709A0907G BCM95709A0906G QLogic Corporation 26650 Aliso Viejo Parkway Aliso Viejo, CA 92656 USA 본 B 급 디지털 장치는 Canadian ICES-003 을 준수합니다 . 고지 : Industry Canada 규정상 , QLogic 의 명시적 승인 없이 본 장비를 변경 또는 수정할 경우 본 장비에 대한 사용자의 작동 권한이 무효화될 수 있습니다 .
18– 규정사항 캐나다 규정 정보 ( 캐나다만 해당 ) Industry Canada, B 급 QLogic BCM57xx and BCM57xxx gigabit Ethernet controller BCM95708A0804F BCM95709A0907G BCM95709A0906G QLogic Corporation 26650 Aliso Viejo Parkway Aliso Viejo, CA 92656 USA Cet appareil numérique de la classe B est conforme à la norme canadienne ICES-003.
18– 규정사항 KCC(Korea Communications Commission) 표시 ( 대한민국만 해당 ) KCC(Korea Communications Commission) 표시 ( 대한민국만 해당 ) B 급 장치 QLogic BCM57xx 및 BCM57xxx gigabit Ethernet controller BCM95708A0804F BCM95709A0907G BCM95709A0906G QLogic Corporation 26650 Aliso Viejo Parkway Aliso Viejo, CA 92656 USA 275 BC0054508-03 J
18– 규정사항 KCC(Korea Communications Commission) 표시 ( 대한민국만 해당 ) 이 장치는 업무 이외의 목적으로 승인되었으며 거주지를 포함하여 모든 환경에서 사용할 수 있습니다 .
18– 규정사항 KCC(Korea Communications Commission) 표시 ( 대한민국만 해당 ) QLogic Corporation 26650 Aliso Viejo Parkway Aliso Viejo, CA 92656 USA 277 BC0054508-03 J
18– 규정사항 BSMI BSMI BCM95709SA0908G, BCM957710A1023G, E02D001 및 BCM957711A1123G(E03D001) 에 대한 인증 이 섹션에 포함된 모든 내용은 Dell 에서 제공하며 QLogic 은 이 정보의 유효성 또 는 정확성에 대해 책임을 지지 않습니다 . BCM95709SA0908G QLogic BCM57xx 및 BCM57xxx gigabit Ethernet controller 및 BCM957710A1023G, E02D001, BCM957711A1123G (E03D001) QLogic BCM57xx 및 BCM57xxx 10-gigabit Ethernet controller 는 다음 규정 적합 인증을 받았습니다 .
18– 규정사항 BCM95709SA0908G, BCM957710A1023G, E02D001 및 BCM957711A1123G(E03D001) 에 대한 인증 캐나다 규정 정보 , A 급 ( 캐나다 ) KCC(Korea Communications Commission) 표시 ( 대한민국 ) FCC 표시 FCC, A 급 QLogic BCM57xx 및 BCM57xxx gigabit Ethernet controller BCM95709SA0908G QLogic BCM57xx 및 BCM57xxx 10-gigabit Ethernet controller BCM957710A1023G BCM957711A1123G (E03D001) E02D001 Dell Inc.
18– 규정사항 BCM95709SA0908G, BCM957710A1023G, E02D001 및 BCM957711A1123G(E03D001) 에 대한 인증 컴퓨터를 수신기에서 떨어뜨려 놓습니다 . 컴퓨터와 수신기가 서로 다른 분기 회로에 연결되도록 각각 다른 콘센트에 꽂 습니다 . 장치를 기계 또는 전기적으로 변경하지 마십시오 . 주 Dell Inc. 의 허가 없이 장치를 변경하거나 개조하면 장비 작동 권한이 무효가 될 수 있습니다 . VCCI 표시 A급 QLogic BCM57xx 및 BCM57xxx gigabit Ethernet controller BCM95709SA0908G QLogic BCM57xx 및 BCM57xxx 10-gigabit Ethernet controller BCM957710A1023G BCM957711A1123G (E03D001) E02D001 Dell Inc.
18– 규정사항 BCM95709SA0908G, BCM957710A1023G, E02D001 및 BCM957711A1123G(E03D001) 에 대한 인증 VCCI A 급 규정 ( 일본 ) CE 표시 A급 QLogic BCM57xx 및 BCM57xxx gigabit Ethernet controller BCM95709SA0908G QLogic BCM57xx 및 BCM57xxx 10-gigabit Ethernet controller BCM957710A1023G BCM957711A1123G (E03D001) E02D001 Dell Inc.
18– 규정사항 BCM95709SA0908G, BCM957710A1023G, E02D001 및 BCM957711A1123G(E03D001) 에 대한 인증 QLogic BCM57xx 및 BCM57xxx 10Gbt Ethernet Controller BCM957710A1023G BCM957711A1123G (E03D001) E02D001 Dell Inc. Worldwide Regulatory Compliance, Engineering and Environmental Affairs One Dell Way PS4-30 Round Rock, Texas 78682, USA 512-338-4400 본 A 급 디지털 장치는 Canadian ICES-003 을 준수합니다 . 고지 : Industry Canada 규정상 , Dell Inc. 의 명시적 승인 없이 본 장비를 변경 또는 수정할 경우 본 장비에 대한 사용자의 작동 권한이 무효화될 수 있습니다 .
18– 규정사항 BCM95709SA0908G, BCM957710A1023G, E02D001 및 BCM957711A1123G(E03D001) 에 대한 인증 KCC(Korea Communications Commission) 표시 ( 대한민국에만 해당 ) A 급 장치 QLogic BCM57xx 및 BCM57xxx gigabit Ethernet controller BCM95709SA0908G (5709s-mezz) QLogic BCM57xx 및 BCM57xxx 10-gigabit Ethernet controller BCM957710A1023G BCM957711A1123G (E03D001) E02D001 Dell Inc.
18– 규정사항 BCM95709SA0908G, BCM957710A1023G, E02D001 및 BCM957711A1123G(E03D001) 에 대한 인증 284 BC0054508-03 J
19 문제 해결 문제 해결에서는 다음 내용에 대해 설명합니다 .
19– 문제 해결 하드웨어 진단 QCS 진단 테스트 실패 QCS 에서 진단 테스트를 실행하는 동안 다음 테스트가 실패하면 시스템에 설치된 NIC 나 LOM 에 하드웨어 문제가 있는 것일 수 있습니다 . 제어 레지스터 MII 레지스터 EEPROM 내부 메모리 칩 내장 CPU 인터럽트 루프백 - MAC 루프백 - PHY LED 테스트 문제 해결 단계를 통해 오류를 해결할 수도 있습니다 . 1. 오류가 발생한 장치를 제거하여 슬롯에 옮기고 카드 앞뒤가 올바른 상태에서 슬롯에 완전히 장착되었는지 확인합니다 . 2. 테스트를 다시 실행합니다 . 3. 카드에 계속 오류가 나면 모델이 같은 다른 카드로 바꾼 후 테스트를 실행합 니다. 알려진 좋은 품질의 카드에서 테스트를 통과하면 하드웨어 공급업체에 문의하여 오류가 발생한 장치에 대해 도움을 받으십시오 . 4. 시스템 전원을 꺼 AC 전원을 제거한 후 시스템을 다시 부팅합니다 . 5.
19– 문제 해결 포트 LED 검사 포트 LED 검사 네트워크 링크 및 활동 상태에 대한 정보를 확인하려면 6 페이지의 "네트워크 링크 및 활동 표시 " 를 참조합니다 . 문제 해결 검사 목록 주의 어댑터를 추가 또는 제거하기 위해 시스템의 캐비닛을 열기 전에 19 페이지 의 " 안전 주의사항 " 을 검토하십시오 . 다음 검사 목록은 시스템에 QLogic BCM57xx 및 BCM57xxx 어댑터를 설치하거나 실행할 때 발생하는 문제를 해결하기 위해 취할 수 있는 권장 조치입니다 . 케이블과 연결 부분을 모두 검사합니다 . 네트워크 어댑터의 케이블과 스위치 가 올바로 연결되었는지 확인합니다 . 케이블 길이와 등급이 21 페이지의 " 네 트워크 케이블 연결 " 에 나열된 요구 사항을 준수하는지 확인합니다 . 20 페이지의 "애드 인 NIC의 설치" 를 검토하여 어댑터 설치 상태를 확인합니 다 . 어댑터가 슬롯에 올바르게 위치해 있는지 확인합니다 .
19– 문제 해결 최신 드라이버가 로드되었는지 검사 최신 드라이버가 로드되었는지 검사 운영 체제에 대해 적절한 절차를 수행하여 최신 드라이버가 로드되었는지 확인합 니다 . Windows 어댑터 , 링크 상태 및 네트워크 연결에 대한 중요한 정보를 확인할 수 있는 방법은 QCC GUI 온라인 도움말을 참조하십시오 . Linux bnx2.o 드라이버가 올바르게 로드되었는지 확인하려면 다음 명령을 실행합니다 . lsmod | grep -i 드라이버가 로드되면 이 명령의 출력에 드라이버 크기 ( 바이트 단위 ), 구성된 어댑 터 수 및 어댑터 이름이 표시됩니다 . 다음은 bnx2 모듈에 로드된 드라이버의 예입 니다 .
19– 문제 해결 케이블 길이 테스트 실행 또는 다음 명령을 실행할 수 있습니다 . [root@test1]# ethtool -i eth2 샘플 출력은 다음과 같습니다 . driver: bnx2x version: 1.78.07 firmware-version: bc 7.8.6 bus-info: 0000:04:00.2 새 드라이버를 로드했지만 아직 부팅하지 않은 경우 modinfo 명령을 사용하여 업 데이트된 드라이버 정보를 표시할 수 없습니다 . 그 대신 , 다음 명령을 실행하여 로 그를 통해 올바른 드라이버가 로드되었고 재부팅 시 활성화될 것인지를 확인할 수 있습니다 . dmesg | grep -i "QLogic" | grep -i "bnx2" 케이블 길이 테스트 실행 Windows 운영 체제에서 케이블 길이 테스트를 실행하는 방법은 QCC GUI 온라인 도움말을 참조하십시오 . BCM57xx 및 BCM57xxx 10GbE 네트워크 어댑터의 경우 케이블 분석을 사용할 수 없습니다 .
19– 문제 해결 Hyper-V 를 이용한 Microsoft 가상화 4. 다음 명령을 실행한 후 ENTER 키를 누릅니다 . ping 표시된 ping 통계는 네트워크 연결이 작동하는지 여부를 나타냅니다 . Linux 이더넷 인터페이스가 가동되어 실행 중인지 확인하려면 ifconfig 를 실행하여 이더넷 인터페이스의 상태를 확인합니다 . netstat -i 를 사용하여 이더넷 인터 페이스의 통계를 확인할 수 있습니다 . ifconfig 및 netstat 에 대한 정보는 장 7 Linux 드라이버 소프트웨어를 참조하십시오 . 연결이 설정되었는지 확인하려면 네트워크에 IP 호스트를 ping 합니다 . 명령행에서 ping 명령을 실행하고 ENTER 키를 누릅니다 . 표시된 ping 통계는 네트워크 연결이 작동하는지 여부를 나타냅니다 .
19– 문제 해결 Hyper-V 를 이용한 Microsoft 가상화 표 19-1. 구성 가능한 네트워크 어댑터 Hyper-V 기능 ( 계속 ) Windows Server 에서 지원되 는 기능 특징 2008 비고 및 제한 사항 2008 R2 2012 이상 예 예 예 — IPv6 LSO( 상위 및 하위 파티션 ) 아니오 * 예 예 * 가상 네트워크에 연결하는 경우 , OS 제한 사항 . IPv6 CO( 상위 및 하위 파티션 ) 아니오 * 예 예 * 가상 네트워크에 연결하는 경우 , OS 제한 사항 . Jumbo frames( 대용량 프레임 ) 아니오 * 예 예 * OS 제한 사항 . RSS 아니오 * 아니오 * 예 * OS 제한 사항 . RSC 아니오 * 아니오 * 예 * OS 제한 사항 . SR-IOV 아니오 * 아니오 * 예 * OS 제한 사항 .
19– 문제 해결 Hyper-V 를 이용한 Microsoft 가상화 Hyper-V 에서 설정한 LAA(Locally Administered Address) 는 어댑터의 고급 속성에서 설정한 주소보다 우선합니다 . IPv6 네트워크에서 CO 및 / 또는 LSO 를 지원하고 Hyper-V 가상 네트워크에 연결된 팀은 CO 및 LSO 를 QCS 의 Offload 기능으로 보고하지만 CO 및 LSO 는 작동하지 않습니다 . 이 문제는 Hyper-V 제한 사항으로 , IPv6 네트워 크에서 CO 및 LSO 를 지원하지 않습니다 . Windows Server 2008 R2 및 2012 Hyper-V 시스템에서 BCM57xx 및 BCM57xxx 네트워크 어댑터를 구성할 경우 다 음에 유의하십시오 . 가상 네트워크에 연결되는 어댑터는 드라이버의 고급 속성을 통해 VLAN 태 그에 구성되어서는 안 됩니다 . 대신 Hyper-V 에서 VLAN 태그를 관리해야 합 니다 .
19– 문제 해결 Hyper-V 를 이용한 Microsoft 가상화 표 19-2. 구성 가능한 팀 구성 네트워크 어댑터 Hyper-V 기능 ( 계속 ) Windows Server Version 에 서 지원되는 기능 특징 비고 및 제한 사항 2008 2008 R2 2012 이상 링크 집계 (IEEE 802.3ad LACP) 팀 유형 예 예 예 — 일반 트렁킹 (FEC/GEC) 802.3ad Draft Static 팀 유형 예 예 예 — 장애 조치 예 예 예 — LiveLink 예 예 예 — LSO(Large Send Offload, 대형 전송 오프로드 ) 제한됨 * 예 예 * 표 19-1 에 설명된 미니포트 제한 사항을 준수합니다 . CO(Checksum Offload, 체크 섬 오프로드 ) 제한됨 * 예 예 * 표 19-1 에 설명된 미니포트 제한 사항을 준수합니다 .
19– 문제 해결 Hyper-V 를 이용한 Microsoft 가상화 Windows Server 2008 Hyper-V 시스템에서 BCM57xx 및 BCM57xxx 네트워크 어댑터 팀을 구성할 경우 다음에 유의하십시오 . 팀을 Hyper-V 가상 네트워크에 연결하기 전에 팀을 생성합니다 . Hyper-V 가상 네트워크에 아직 할당되지 않은 어댑터로만 팀을 생성합니다 . IPv6 네트워크에서 CO 및 / 또는 LSO 를 지원하고 Hyper-V 가상 네트워크에 연결된 팀은 CO 및 LSO 를 QCS 의 Offload 기능으로 보고하지만 CO 및 LSO 는 작동하지 않습니다 . 이 문제는 Hyper-V 제한 사항으로 , IPv6 네트워 크에서 CO 및 LSO 를 지원하지 않습니다 . QLASP 팀 구성 소프트웨어를 사용하여 호스트(상위 파티션) 및 게스트(하위 파티션 ) 모두에 대해 VLAN 태그를 수행하려면 태그에 대한 팀을 구성해야 합니다 .
19– 문제 해결 QLogic BCM57xx 및 BCM57xxx 장치 드라이버 제거 SLB 팀을 사용한 VMQ 구성 SLB( 스마트 로드 밸런싱 및 장애 조치 ) 유형 팀 구성을 사용하도록 구성된 시스템 에 Hyper-V 서버를 설치하면 VMQ(Virtual Machine Queueing) 를 사용하여 전반적 인 네트워크 성능을 향상시킬 수 있습니다 . VMQ 를 사용하면 외부 가상 네트워크 로부터 SLB 팀에 정의되어 있는 가상 컴퓨터로 패킷을 직접 전달할 수 있으므로 그 와 같은 패킷을 라우팅할 필요가 없어 오버헤드가 줄어듭니다 . VMQ 지원 SLB 팀 생성 방법 : 1. SLB 팀을 생성합니다 . 팀 구성 마법사를 사용하는 경우에는 SLB 팀 유형을 선택할 때 Enable HyperV Mode(HyperV 모드 활성화 ) 도 함께 선택합니다 . 전문가 모드를 사용하는 경우에는 Create Team( 팀 생성 ) 또는 Edit Team ( 팀 편집 ) 페이지에서 관련 속성을 활성화합니다 .
19– 문제 해결 Windows 운영 체제 업그레이드 Windows 운영 체제 업그레이드 이 섹션에서는 다음 Windows 업그레이드에 대해 설명합니다 . Windows Server 2003 에서 Windows Server 2008 로 업그레이드 Windows Server 2008 에서 Windows Server 2008 R2 로 업그레이드 Windows Server 2008 R2 에서 Windows Server 2012 로 업그레이드 QLogic BCM57xx 및 BCM57xxx 어댑터가 시스템에 설치되어 있을 경우 OS 를 업 그레이드하기 전에 QLogic 은 다음 절차를 따를 것을 권장합니다 . 1. 모든 팀 및 어댑터 IP 정보를 저장합니다 . 2. 설치 프로그램을 사용하여 모든 QLogic 드라이버를 제거합니다 . 3. Windows 업그레이드를 수행합니다 . 4.
19– 문제 해결 QLASP 문제 : 네트워크 로드 밸런싱이 활성화된 BCM57xx 및 BCM57xxx 어댑터를 팀에 추가할 때 예측할 수 없는 결과가 발생할 수 있습니다 . 해결책 : BCM57xx 및 BCM57xxx 어댑터에서 NLB(Network Load Balancing) 의 연 결을 해제하고 팀을 생성한 다음 NLB 를 팀에 다시 연결하십시오 . 문제 : 802.3ad 팀이 포함된 시스템으로 인해 시스템 이벤트 로그에 Netlogon 서비 스 오류가 발생하여 부팅 시 도메인 컨트롤러와 통신할 수 없게 됩니다 . 해결책 : Microsoft 기술 자료 326152( http://support.microsoft.com/kb/326152/en-us) 에 따르면 , 드라이버가 초기화되어 네트워크 인프라와 협상하는 중 링크 변동이 발생 함으로써 기가비트 이더넷 (GbE) 어댑터가 도메인 컨트롤러와 연결하는 데 문제가 발 생할 수 있습니다 . GbE 어댑터가 802.
19– 문제 해결 Linux Linux 문제 : SFP+ 를 사용하는 BCM57xx 및 BCM57xxx 장치에서 Flow Control( 흐름 제 어 ) 기본값이 Rx/Tx Enable(Rx/Tx 활성화 ) 이 아니라 Off 입니다 . 해결책 : SFP+ 장치에서 Flow Control( 흐름 제어 ) 에 대해 자동 협상을 지원하지 않아 1.6.x 이상의 개정 버전으로 설정된 Flow Control( 흐름 제어 ) 이 Rx Off 및 Tx Off 로 변경되었습니다 . 문제 : 2.6.16 이전 버전의 커널에서 2 개의 BCM57711 네트워크 어댑터를 포함하 는 서버에 16 개의 파티션이 생성된 경우 , 일부 파티션이 나타나지 않고 공간 부족 을 나타내는 오류가 표시됩니다 . 해결책 : 기본 vmalloc 크기가 상대적으로 작으며 여러 인터페이스를 로드할 만 큼 충분하지 않은 아키텍처에서 부트 중 vmalloc= 를 실행하여 크기를 늘립니다 .
19– 문제 해결 이더넷을 통한 커널 디버깅 한 포트의 첫 번째 파티션에 iSCSI personality 가 활성화되어 있고 다른 포트의 첫 번째 파티션에는 FCoE Personality 가 활성화된 경우 소프트웨어 결함이 발생하면 시스템에서 iSCSI 또는 FCoE 대상으로 BFS 부팅을 할 수 없습니다 . MBA 드라이 버는 이 구성이 있는지 확인하고 발견하면 사용자에게 메시지를 표시합니다 . 해결책 : 7.6.x 펌웨어 및 드라이버를 사용하는 경우 이 오류를 해결하려면 첫 번째 파티션에서 iSCSI 또는 FCoE 를 활성화할 때 해당 장치의 모든 4 개 포트의 모든 파티션에서도 동일하게 활성화하도록 NPAR 블록을 구성합니다 . 이더넷을 통한 커널 디버깅 문제 : Windows 8.0 또는 Windows Server 2012 시스템에서 이더넷 네트워크를 통 해 커널 디버깅을 수행하려고 할 때 시스템이 부팅되지 않습니다 . 이 문제는 Windows 8.
19– 문제 해결 기타 사항 문제 : QLogic BCM57xx 및 BCM57xxx 어댑터를 시스템 부팅 이후 추가한 경우 어 댑터가 최적의 성능으로 작동하지 않을 수 있습니다 . 해결책 : 그 이유는 시스템이 부팅된 후 어댑터를 추가한 경우 일부 시스템의 시스 템 BIOS 가 캐시 라인 크기 및 대기 시간 타이머를 설정하지 않기 때문입니다 . 어 댑터를 추가한 후 시스템을 다시 부팅하십시오 . 문제 : SNP 를 제거한 후 QCC 에서 리소스 예약을 구성할 수 없습니다 . 해결책 : SNP 를 재설치하십시오 . 시스템에서 SNP 를 제거하기 전에 Configuration( 구성 ) 페이지의 Resource Reservations( 리소스 예약 ) 섹션에서 사용할 수 있는 Resource Configuration( 리소스 구성 ) 화면에 있는 확인란을 통해 NDIS 를 활성화해야 합니다 . NDIS 가 비활성화되고 SNP 가 제거된 경우에는 장 치를 다시 활성화할 수 없습니다 .
본사 Cavium, Inc. 인터내셔널 오피스 2315 N. First Street San Jose, CA 95131 408-943-7100 영국 | 아일랜드 | 독일 | 프랑스 | 인도 | 일본 | 중국 | 홍콩 | 싱가포르 | 대만 | 이스라엘 Copyright © 2015–2018 Cavium, Inc. 전세계 판권 본사 소유 . QLogic Corporation 은 Cavium, Inc 의 전액출자 자회사입니다 . QLogic, FastLinQ, 및 QConvergeConsole 은 Cavium, Inc 의 등록 상표입니다 . 기타 모든 상표 및 제품 이름은 해당 소유권자의 상표 또는 등록 상표입니다 . 본 문서는 참고용으로만 제공되며 오류가 있을 수 있습니다 . Cavium 은 본 문서 , 제품 설계 또는 사양을 사전 고지 없이 변경할 수 있는 권리가 있습니다 .