16
반도체 페이스북 AI 서버와 반도체 트렌드 페이스북이 차세대 머신러닝 서버를 발표 페이스북이 페이스북이 페이스북이 페이스북이 머신러닝 머신러닝 머신러닝 머신러닝 서버를 서버를 서버를 서버를 공개했다 공개했다 공개했다 공개했다. 름 Big Basin다. 페스북에 업로드되는 사진 에서 얼 및 사 식 실시간 번역 등에 사용될 예정다. 세에서 가 앞서나가는 터넷 기업 머신러닝 서버 만큼 에 대한 분석 중요해 보다. 향후 서버 반도체 시 최신 트렌드를 를 통해 파악할 수 기 때다. Big Basin Big Basin Big Basin Big Basin은 이전 이전 이전 이전 제품보다 제품보다 제품보다 제품보다 GPU GPU GPU GPU를 강화했다 강화했다 강화했다 강화했다. 엔비디아 K40에서 P100로 변했다. 전체 성능 100% 가량 상승했다. DRAM 탑재용량 12GB에서 16GB로 늘어났다. 서버 반도체 트렌드 전망 Big Basin 통해 예상해볼 수 는 향후 서버 반도체 트렌드는 다 같다. 1) GPU 1) GPU 1) GPU 1) GPU와 머신러닝 머신러닝 머신러닝 머신러닝 전용 전용 전용 전용 ASIC SIC SIC SIC 사용이 사용이 사용이 사용이 늘어난다 늘어난다 늘어난다 늘어난다. Big Basin 전 제품보다 GPU 성능 개선 에 집중했다. 당분간 GPU는 머신러닝 서버 주력 반도체로 사용될 전망다. 머신러닝 시 커지면 전용 ASIC 수요도 크게 증가한다. 는 반도체 설 지 툴(EDA) 업체들에게 수혜가 가능하다. 2) 2.5D 2) 2.5D 2) 2.5D 2) 2.5D 패키징이 패키징이 패키징이 패키징이 부각된다 부각된다 부각된다 부각된다. Big basin GPU P100 HBM라는 DRAM 탑재했다. HBM에는 2.5D 패키징 적용된다. 여러 개 DRAM 수직로 쌓 실리콘 터포저를 통해 GPU와 연된다. HBM 2.5D 패키징 로직 반도체와 메모리 간 병목현상 줄여주 기 한 최신 기술다. 는 기존 패키징 크게 다르다. 새로 시 열려서 련 업체 들에게 수혜가 예상된다. 3) 3) 3) 3) 메모리 메모리 메모리 메모리 비즈니스 비즈니스 비즈니스 비즈니스 구조가 구조가 구조가 구조가 바뀐다 바뀐다 바뀐다 바뀐다. 거에는 PC, 서버 업체들 로직, 메모리 반도체를 매 했다. HBM 같 2.5D 패키징 시대에는 로직 업체들 메모리 반도체를 매한다. 에는 로직 메모리 반도체를 모두 생산하는 업체가 가 리하다. 다 로직 업체다. 메 모리만 생산하는 업체는 불리하다. 최근 로직 업체 텔 메모리에 투하는 것 TSMC 가 메모리 회사 도시바를 수하겠다 선언한 것도 같 맥락에서 해석 가능하다. 4) 4) 4) 4) 서버 서버 서버 서버 DRAM DRAM DRAM DRAM 수요 수요 수요 수요 증가는 증가는 증가는 증가는 제한적이다 제한적이다 제한적이다 제한적이다. Big Basin 성능 향상 폭보다 DRAM 탑재용량 증가 폭 적다. 최근 서버 설는 CPU 수와 DRAM 용량 늘리기보다는 GPU같 가속 기를 탑재하 NAND 탑재용량 늘려 저치 속도를 개선하는데 집중하 다. 부 투들 머신러닝 본격화되면 서버 DRAM 사용량 기하급수적로 증가할 것로 기대 중다. 하지만 최근 선두 업체들 기술 개발 방향 보면 DRAM 용량 꼭 요 성 능 비례해서 증가하지는 않는다는 점 확할 수 다. 중립 (Maintain) Industry Report 2017.3.13 [반체] 현우 현우 현우 현우 02-3774-3803 [email protected] 홍솔 홍솔 홍솔 홍솔 02-3774-1851 [email protected] 페이스북의 페이스북의 페이스북의 페이스북의 머신러닝 머신러닝 머신러닝 머신러닝 서버 서버 서버 서버, Big Basin , Big Basin , Big Basin , Big Basin 자료: Facebook

페이스북 AI 서버와 반도체 트렌드fngenii.miraeassetdaewoo.com/wp-content/uploads/2017/03/반도체1.pdf · 머신러닝 전용 ASIC과 FPGA 사용이 늘어난다. 10

  • Upload
    others

  • View
    1

  • Download
    0

Embed Size (px)

Citation preview

Page 1: 페이스북 AI 서버와 반도체 트렌드fngenii.miraeassetdaewoo.com/wp-content/uploads/2017/03/반도체1.pdf · 머신러닝 전용 ASIC과 FPGA 사용이 늘어난다. 10

반도체

페이스북 AI 서버와 반도체 트렌드

페이스북이 차세대 머신러닝 서버를 발표

페이스북이페이스북이페이스북이페이스북이 머신러닝머신러닝머신러닝머신러닝 서버를서버를서버를서버를 공개했다공개했다공개했다공개했다.... 이름은 Big Basin이다. 페이스북에 업로드되는 사진

에서 얼굴 및 사물 인식과 실시간 번역 등에 사용될 예정이다. 세계에서 가장 앞서나가는 인

터넷 기업의 머신러닝 서버인 만큼 이에 대한 분석이 중요해 보인다. 향후 서버 반도체 시장

의 최신 트렌드를 이를 통해 파악할 수 있기 때문이다.

Big BasinBig BasinBig BasinBig Basin은은은은 이전이전이전이전 제품보다제품보다제품보다제품보다 GPUGPUGPUGPU를를를를 강화했다강화했다강화했다강화했다.... 엔비디아의 K40에서 P100으로 변경했다. 전체

성능이 100% 가량 상승했다. DRAM 탑재용량은 12GB에서 16GB로 늘어났다.

서버 반도체 트렌드 전망

Big Basin을 통해 예상해볼 수 있는 향후 서버 반도체 트렌드는 다음과 같다.

1) GPU1) GPU1) GPU1) GPU와와와와 머신러닝머신러닝머신러닝머신러닝 전용전용전용전용 AAAASIC SIC SIC SIC 사용이사용이사용이사용이 늘어난다늘어난다늘어난다늘어난다.... Big Basin은 이전 제품보다 GPU 성능 개선

에 집중했다. 당분간 GPU는 머신러닝 서버의 주력 반도체로 사용될 전망이다. 머신러닝 시

장이 커지면 전용 ASIC 수요도 크게 증가한다. 이는 반도체 설계 지원 툴(EDA) 업체들에게

수혜가 가능하다.

2) 2.5D 2) 2.5D 2) 2.5D 2) 2.5D 패키징이패키징이패키징이패키징이 부각된다부각된다부각된다부각된다.... Big basin의 GPU P100은 HBM이라는 DRAM을 탑재했다.

HBM에는 2.5D 패키징이 적용된다. 여러 개의 DRAM을 수직으로 쌓고 실리콘 인터포저를

통해 GPU와 연결된다. HBM과 2.5D 패키징은 로직 반도체와 메모리 간 병목현상을 줄여주

기 위한 최신 기술이다. 이는 기존 패키징과 크게 다르다. 새로운 시장이 열려서 관련 업체

들에게 수혜가 예상된다.

3) 3) 3) 3) 메모리메모리메모리메모리 비즈니스비즈니스비즈니스비즈니스 구조가구조가구조가구조가 바뀐다바뀐다바뀐다바뀐다.... 과거에는 PC, 서버 업체들이 로직, 메모리 반도체를 구매

했다. HBM 같은 2.5D 패키징 시대에는 로직 업체들이 메모리 반도체를 구매한다. 이 경우

에는 로직과 메모리 반도체를 모두 생산하는 업체가 가장 유리하다. 다음은 로직 업체다. 메

모리만 생산하는 업체는 불리하다. 최근 로직 업체 인텔이 메모리에 투자하는 것과 TSMC

가 메모리 회사 도시바를 인수하겠다고 선언한 것도 같은 맥락에서 해석이 가능하다.

4) 4) 4) 4) 서버서버서버서버 DRAM DRAM DRAM DRAM 수요수요수요수요 증가는증가는증가는증가는 제한적이다제한적이다제한적이다제한적이다.... Big Basin은 성능 향상 폭보다 DRAM 탑재용량

증가 폭이 적다. 최근 서버 설계는 CPU 수와 DRAM 용량을 늘리기보다는 GPU같은 가속

기를 탑재하고 NAND 탑재용량을 늘려 저장장치 속도를 개선하는데 집중하고 있다. 일부

투자자들은 머신러닝이 본격화되면 서버 DRAM 사용량이 기하급수적으로 증가할 것으로

기대 중이다. 하지만 최근 선두 업체들의 기술 개발 방향을 보면 DRAM 용량이 꼭 요구 성

능이 비례해서 증가하지는 않는다는 점을 확인할 수 있다.

중립 (Maintain)

Industry Report

2017.3.13

[반도체]

도현우도현우도현우도현우 02-3774-3803 [email protected] 홍솔홍솔홍솔홍솔 02-3774-1851 [email protected]

페이스북의페이스북의페이스북의페이스북의 머신러닝머신러닝머신러닝머신러닝 서버서버서버서버, Big Basin, Big Basin, Big Basin, Big Basin

자료: Facebook

Page 2: 페이스북 AI 서버와 반도체 트렌드fngenii.miraeassetdaewoo.com/wp-content/uploads/2017/03/반도체1.pdf · 머신러닝 전용 ASIC과 FPGA 사용이 늘어난다. 10

반도체

페이스북 AI 서버와 반도체 트렌드

2 Mirae Asset Daewoo Research

C O N T E N T S

I. I. I. I. 페이스북이페이스북이페이스북이페이스북이 머신러닝머신러닝머신러닝머신러닝 서버를서버를서버를서버를 발표발표발표발표 3333

II. II. II. II. 서버서버서버서버용용용용 반도체반도체반도체반도체 트렌드트렌드트렌드트렌드 예상예상예상예상 4444

1. GPU 수요가 늘어난다 4

2. 2.5D 패키징이 부각되고 메모리 비즈니스 구조가 바뀐다 6

3. 머신러닝 전용 ASIC과 FPGA 사용이 늘어난다. 10

4. DRAM 수요 증가는 제한될 것이다. 13

Page 3: 페이스북 AI 서버와 반도체 트렌드fngenii.miraeassetdaewoo.com/wp-content/uploads/2017/03/반도체1.pdf · 머신러닝 전용 ASIC과 FPGA 사용이 늘어난다. 10

반도체

페이스북 AI 서버와 반도체 트렌드

3 Mirae Asset Daewoo Research

I. 페이스북이 머신러닝 서버를 발표

최근 AI로 대표되는 머신러닝에 관한 관심이 매우 높다. 어떤 하드웨어를 사용해야 머신러닝을 원활

히 처리할 수 있을지에 대한 논의도 매우 뜨겁다. 이런 참에 세계에서 가장 앞서 나가는 인터넷 기업

인 페이스북이 자체 개발한 머신러닝 서버를 공개했다. 이름은 Big Basin이다. 페이스북은 머신러닝

기술력이 가장 높은 회사 중 하나다. 이들이 공개한 서버인 만큼 이에 대한 분석이 중요해 보인다. 향

후 서버 반도체 시장의 최신 트렌드를 파악할 수 있기 때문이다. 과거 페이스북은 서버에 NAND와

GPU 채용이 가장 빨랐던 인터넷 기업 중 하나이기도 하다. 즉 서버 반도체 시장 트렌드를 주도하는

회사다.

페이스북은 2015년부터는 Big Sur라는 GPU 서버도 자체 제작해서 데이터센터에 탑재하기 시작했

다. 최근 페이스북을 보면 사진에 등장하는 인물이 누구인지 자동으로 인식해서 태그를 달아준다.

Big Sur는 이렇게 사진에서 얼굴 및 사물을 인식하는데 활용된다. 실시간 번역에도 투입된다. 이번에

발표한 Big Basin은 Big Sur의 후속작이다.

Big Basin은 Big Sur보다 GPU를 강화했다. 엔비디아의 K40에서 P100으로 변경되었다. K40은

28nm 공정을 사용했고 P100은 16nm FinFET 공정을 사용한다. Big Basin 은 P100을 8개 탑재했

다. 8개의 GPU는 하이브리드 큐브 메쉬를 형성해서 엔비디아의 NVLink를 사용해서 연결된다. 와트

당 성능이 증가한다. GPU 당 단정밀도(Single Precision) 부동소수점 연산 성능도 7테라 플롭스에서

10.6테라 플롭스로 향상된다. DRAM 탑재용량은 12GB에서 16GB로 늘어난다.

페이스북의 Big Basin에서 유추할 수 있는 향후 서버용 반도체 트렌드는 다음과 같다.

1) GPU1) GPU1) GPU1) GPU 수요가수요가수요가수요가 늘어난다늘어난다늘어난다늘어난다

2) 2) 2) 2) 2.5D 2.5D 2.5D 2.5D 패키징이패키징이패키징이패키징이 부각되고부각되고부각되고부각되고 메모리메모리메모리메모리 비즈니스비즈니스비즈니스비즈니스 구조가구조가구조가구조가 바뀐다바뀐다바뀐다바뀐다

3) 3) 3) 3) 머신러닝머신러닝머신러닝머신러닝 전용전용전용전용 ASICASICASICASIC과과과과 FPGA FPGA FPGA FPGA 사용이사용이사용이사용이 늘늘늘늘어난다어난다어난다어난다....

4) 4) 4) 4) DRAM DRAM DRAM DRAM 수요수요수요수요 증가는증가는증가는증가는 제한될제한될제한될제한될 것이다것이다것이다것이다....

그림그림그림그림 1111. . . . 페이스북이페이스북이페이스북이페이스북이 발표한발표한발표한발표한 머신러닝머신러닝머신러닝머신러닝 GPU GPU GPU GPU 서버서버서버서버 Big BasinBig BasinBig BasinBig Basin

자료: Facebook

Page 4: 페이스북 AI 서버와 반도체 트렌드fngenii.miraeassetdaewoo.com/wp-content/uploads/2017/03/반도체1.pdf · 머신러닝 전용 ASIC과 FPGA 사용이 늘어난다. 10

반도체

페이스북 AI 서버와 반도체 트렌드

4 Mirae Asset Daewoo Research

II. 서버용 반도체 트렌드 예상

1. GPU 수요가 늘어난다

페이스북의 Big Basin은 GPU 프로세서 성능 강화에 집중했다. GPU는 원래 그래픽 처리용 프로세서

로 개발되었다. 하지만 최근 빅데이터 학습과 추론에 적합하다는 특성이 발견되면서 머신러닝에도 사

용되기 시작했다.

머신러닝에는 여러가지 방법론이 존재한다. 뉴럴 네트워크, 서포트 벡터 머신, 나이브 베이즈 분류 등

이 있다. 이 중 최근 가장 대세로 떠오르는 방법론은 뉴럴 네트워크다. 뉴럴 네트워크는 수 많은 데이

터에서 공통점을 찾고 이를 최적화시켜 결과물을 도출하는 것이다. 영어 학습과 비교해보자. 학습 방

법은 여러가지다. 어떤 사람은 문법 공부를 열심히 한다. 영어는 회화가 가장 중요하다며 외국인과

회화 연습을 많이 하는 사람도 있다. 뉴럴 네트워크와 유사한 영어 학습법은 최대한 단어를 많이 외

우는 것이다. 뉴럴 네트워크는 알고리즘보다는 수 많은 데이터를 빠르게 처리하는 것이 핵심이다. 작

은 데이터를 병렬로 빠르게 처리할 때는 GPU가 CPU보다 유리하다.

GPU 제조사인 엔비디아도 이러한 흐름에 부응하고 있다. 엔비디아의 주력 사업부문은 게이밍 용 그

래픽 프로세서다. 하지만 최근에는 머신러닝 프로세서 개발에 크게 노력을 기울이고 있다. Cuda 프로

그래밍 같은 GPU를 이용한 머신러닝 플랫폼 개발에도 많은 노력을 기울여왔다.

그 결과 GPU는 현재 여러가지 머신러닝 용 프로세서 중 가장 각광을 받고 있다. 구글, 페이스북, 아

마존과 같은 선두 인터넷 업체들이 GPU 머신러닝 서버를 사용하고 있다. 테슬라 같은 자율주행 기

술의 선두 업체들도 자동차에 GPU를 장착하기 시작했다.

그림그림그림그림 2222. . . . 최근최근최근최근 가장가장가장가장 각광을각광을각광을각광을 받고받고받고받고 있는있는있는있는 머신러닝머신러닝머신러닝머신러닝 방법론방법론방법론방법론 ““““뉴럴네트워크뉴럴네트워크뉴럴네트워크뉴럴네트워크””””

시냅스의시냅스의시냅스의시냅스의 결합으로결합으로결합으로결합으로 관계를관계를관계를관계를 혀성한혀성한혀성한혀성한 노드들이노드들이노드들이노드들이 학습을학습을학습을학습을 통해통해통해통해 결합의결합의결합의결합의 세기를세기를세기를세기를 변화시킨다변화시킨다변화시킨다변화시킨다. . . .

빠르게빠르게빠르게빠르게 데이터를데이터를데이터를데이터를 처리하는처리하는처리하는처리하는 것이것이것이것이 가장가장가장가장 중요하다중요하다중요하다중요하다. . . .

전통적인전통적인전통적인전통적인 프로세서인프로세서인프로세서인프로세서인 CPUCPUCPUCPU보다는보다는보다는보다는 GPUGPUGPUGPU와와와와 같은같은같은같은 프로세서가프로세서가프로세서가프로세서가 유리하다유리하다유리하다유리하다....

자료: Tensorflow, 미래에셋대우 리서치센터

Page 5: 페이스북 AI 서버와 반도체 트렌드fngenii.miraeassetdaewoo.com/wp-content/uploads/2017/03/반도체1.pdf · 머신러닝 전용 ASIC과 FPGA 사용이 늘어난다. 10

반도체

페이스북 AI 서버와 반도체 트렌드

5 Mirae Asset Daewoo Research

그림그림그림그림 3333. . . . 구글도구글도구글도구글도 클라우드클라우드클라우드클라우드 고객들에게고객들에게고객들에게고객들에게 머신러닝을머신러닝을머신러닝을머신러닝을 위해위해위해위해 GPU GPU GPU GPU 서버를서버를서버를서버를 제공한다제공한다제공한다제공한다

자료: Goolge

그림그림그림그림 4444. . . . 테슬라의테슬라의테슬라의테슬라의 모델모델모델모델SSSS에에에에 탑재되는탑재되는탑재되는탑재되는 자율주행자율주행자율주행자율주행 용용용용 프로세서도프로세서도프로세서도프로세서도 올해부터올해부터올해부터올해부터 GPUGPUGPUGPU로로로로 변경되었다변경되었다변경되었다변경되었다....

자료: Nvidia

Page 6: 페이스북 AI 서버와 반도체 트렌드fngenii.miraeassetdaewoo.com/wp-content/uploads/2017/03/반도체1.pdf · 머신러닝 전용 ASIC과 FPGA 사용이 늘어난다. 10

반도체

페이스북 AI 서버와 반도체 트렌드

6 Mirae Asset Daewoo Research

2. 2.5D 패키징이 부각되고 메모리 비즈니스 구조가 바뀐다

Big Basin에 탑재된 엔비디아 P100 프로세서의 구조를 살펴보자. 2.5D 패키지를 적용이 눈에 띈다.

2.5D란 GPU나 CPU를 메모리와 1개의 패키지로 묶은 것이다. DRAM은 HBM2(High Bandwidth

Memory)2를 채택했다. HBM는 DRAM 다이 여러 개를 수직으로 쌓고 GPU와 1개의 패키지로 만든

메모리이다. 기존 GPU는 GDDR5라는 DRAM을 사용했다. GDDR5는 DRAM 다이를 각각 패키징해

서 GPU와 따로 PCB 기판 위에 패키징을 한다. 전통적인 방식이다.

엔비디아가 2.5D와 이에 탑재되는 HBM2를 채택한 이유는 속도 때문이다. GDDR5는 메모리 칩과

GPU를 따로 패키징해서 칩 간 데이터 전송 시 병목 현상이 심하다. 특히 최근 GPU 성능이 크게 올

라가고 DRAM과 인터페이스가 이를 따라가지 못해 문제가 심해졌다. HBM은 칩들이 모두 1개의 패

키지 안에 들어가기 때문에 병목 현상이 크게 줄어든다. HBM은 GDDR5의 3배 이상의 와트 당 대역

폭을 제공한다. HBM2는 더 빠르다. 메모리 전력 효율성과 성능이 크게 증가한다.

향후 P100에 적용된 것과 같은 2.5D 패키징이 크게 부각될 것이다. 머신러닝처럼 매우 높은 프로세

서 성능을 요구하는 수요가 증가할 것이기 때문이다. 이는 메모리 관련 후공정 업체들과 장비 업체들

에게 수혜다. 2.5D 패키지는 기존 패키지와 기술적으로 크게 다르다. 새로운 장비와 기술이 필요하

다.

HBM은 DRAM 칩 여러 개를 쌓을 때 TSV(Through Silicon Via)라는 방식을 사용한다. 칩 중간을

뚫고 구리 등 배선 물질을 채워서 위아래 칩이 통신한다. 칩에 손상을 최소화하면서 구멍을 뚫는 것

이 어렵기 때문에 새로운 방식의 장비들이 필요하다. 반도체를 식각하는 방식으로 뚫는 방법이 주로

논의되고 있다. 식각 방식은 정밀하고 칩에 손상을 주지 않지만 속도가 느리다는 단점이 있다. 그래

서 빠르게 식각할 수 있는 장비와 재료 개발이 필요하다. 일본의 도쿄일렉트론, 삼코 등이 장비 개발

에 적극적이다.

그림그림그림그림 5555. . . . 페이스북의페이스북의페이스북의페이스북의 Big BasinBig BasinBig BasinBig Basin에에에에 탑재된탑재된탑재된탑재된 GPU GPU GPU GPU 프로세서프로세서프로세서프로세서 “P100”“P100”“P100”“P100”

DRAMDRAMDRAMDRAM을을을을 GPUGPUGPUGPU와와와와 1111개의개의개의개의 패키지로패키지로패키지로패키지로 묶은묶은묶은묶은 2.5D 2.5D 2.5D 2.5D 패키지를패키지를패키지를패키지를 적용한다적용한다적용한다적용한다....

자료: Nvidia

Page 7: 페이스북 AI 서버와 반도체 트렌드fngenii.miraeassetdaewoo.com/wp-content/uploads/2017/03/반도체1.pdf · 머신러닝 전용 ASIC과 FPGA 사용이 늘어난다. 10

반도체

페이스북 AI 서버와 반도체 트렌드

7 Mirae Asset Daewoo Research

2.5D 패키지 내 DRAM 칩과 GPU간 통신은 실리콘 인터포저를 통해 이루어진다. TSV를 통해 적층

한 DRAM 칩와 GPU를 인터포저 위에 2차원으로 배열한 후 패키징을 한다. 실리콘 인터포저는 PCB

기판을 대체하는 새로운 부품이다. 관련 업체들에게 새로운 시장이 열릴 수 있다. 관련 업체로는

TSMC, Allvia, ASE, DNP, IPDiA, STATS ChipPAC, 삼성전기 등이 있다.

반도체 업체들 간 비즈니스 구조도 달라진다. 기존에는 CPU, GPU 등 로직 반도체 업체와 메모리 반

도체 업체가 대등한 관계였다. 이들이 생산자다. 고객은 PC와 서버 제조 업체다. PC나 서버 업체들

이 로직 반도체와 메모리 반도체를 각각 구매해서 완제품을 만든다. 하지만 2.5D, 궁극의 3D 패키지

제품은 로직 반도체 업체들이 HBM 같은 메모리를 구매하고 자사의 칩과 1개로 패키지한다. 그리고

이를 PC나 서버 업체들에게 판다. 즉 메모리 업체들의 고객이 PC나 서버 업체에서 로직 반도체 업

체로 바뀌는 것이다. 로직 반도체 업체들이 갑, 메모리 반도체 업체들이 을이 된다.

이런 구조에서는 삼성전자처럼 로직 반도체와 메모리 반도체 모두 생산할 수 있는 업체가 유리해진

다. 로직반도체와 메모리 모두 자체적으로 만들어서 패키징할 수 있는 능력이 되기 때문이다. 그 다

음으로는 엔비디아나 AMD와 같은 로직 반도체 업체다. 메모리를 구매하는 입장이 되어 나름대로 영

향력을 키울 수 있다. SK하이닉스와 마이크론처럼 메모리만 제조하는 업체들은 불리해진다. 비즈니

스 구조의 하단 생산자가 되기 때문이다.

인텔이 최근 메모리 사업에 공을 들이는 이유도 이러한 비즈니스 구도 변화 때문이다. 현재는 CPU

만 만들고 있으나 향후 메모리도 만들어서 이러한 시대의 헤게모니를 잡겠다는 목적이다. 최근 도시

바 NAND부문 매각에 로직 반도체를 주로 생산하는 대만의 TSMC가 참여한다고 선언했다. 이 역시

인텔처럼 2.5D, 3D 패키징 시대의 비즈니스 구조 강화 차원에서 결정한 일이라고 생각한다.

그림그림그림그림 6666. . . . P100P100P100P100에에에에 적용된적용된적용된적용된 메모리메모리메모리메모리 “HBM”.“HBM”.“HBM”.“HBM”.

DRAM DRAM DRAM DRAM 칩칩칩칩 여러여러여러여러 개를개를개를개를 수직으로수직으로수직으로수직으로 쌓고쌓고쌓고쌓고 TSVTSVTSVTSV로로로로 연결한다연결한다연결한다연결한다. GPU. GPU. GPU. GPU와는와는와는와는 실리콘실리콘실리콘실리콘 인터포저를인터포저를인터포저를인터포저를 통해통해통해통해 이차원적으로이차원적으로이차원적으로이차원적으로

연결한다연결한다연결한다연결한다. . . . 빠른빠른빠른빠른 속도를속도를속도를속도를 위해위해위해위해 최근최근최근최근 고성능고성능고성능고성능 로직로직로직로직 반도체는반도체는반도체는반도체는 2.5D 2.5D 2.5D 2.5D 패키지를패키지를패키지를패키지를 적용하는적용하는적용하는적용하는 경우가경우가경우가경우가 많다많다많다많다. . . .

2.5D 2.5D 2.5D 2.5D 패키지패키지패키지패키지 도입은도입은도입은도입은 반도체반도체반도체반도체 후공정후공정후공정후공정 업체와업체와업체와업체와 장비장비장비장비 업체들에게업체들에게업체들에게업체들에게 수혜다수혜다수혜다수혜다....

자료: AMD

Page 8: 페이스북 AI 서버와 반도체 트렌드fngenii.miraeassetdaewoo.com/wp-content/uploads/2017/03/반도체1.pdf · 머신러닝 전용 ASIC과 FPGA 사용이 늘어난다. 10

반도체

페이스북 AI 서버와 반도체 트렌드

8 Mirae Asset Daewoo Research

그림그림그림그림 7777. . . . HBMHBMHBMHBM과과과과 GDDR5.GDDR5.GDDR5.GDDR5.

GDDR5GDDR5GDDR5GDDR5는는는는 전통적으로전통적으로전통적으로전통적으로 로직로직로직로직 반도체와반도체와반도체와반도체와 메모리를메모리를메모리를메모리를 따로따로따로따로 패키지한다패키지한다패키지한다패키지한다. HBM. HBM. HBM. HBM은은은은 2.5D 2.5D 2.5D 2.5D 패키지를패키지를패키지를패키지를 적용했다적용했다적용했다적용했다....

자료: AMD

그림그림그림그림 8888. . . . TSV TSV TSV TSV 공정공정공정공정. HBM. HBM. HBM. HBM에서에서에서에서 DRAM DRAM DRAM DRAM 칩칩칩칩 간간간간 스택은스택은스택은스택은 TSV TSV TSV TSV 공정을공정을공정을공정을 통해통해통해통해 만든다만든다만든다만든다....

TSV TSV TSV TSV 공정은공정은공정은공정은 칩칩칩칩 중간에중간에중간에중간에 빠르게빠르게빠르게빠르게 구멍을구멍을구멍을구멍을 뚫기뚫기뚫기뚫기 위한위한위한위한 새로운새로운새로운새로운 식각식각식각식각 장비가장비가장비가장비가 필요하다필요하다필요하다필요하다....

자료: EVG

Page 9: 페이스북 AI 서버와 반도체 트렌드fngenii.miraeassetdaewoo.com/wp-content/uploads/2017/03/반도체1.pdf · 머신러닝 전용 ASIC과 FPGA 사용이 늘어난다. 10

반도체

페이스북 AI 서버와 반도체 트렌드

9 Mirae Asset Daewoo Research

그림그림그림그림 9999. . . . 실리콘실리콘실리콘실리콘 인터포저인터포저인터포저인터포저. 2.5D . 2.5D . 2.5D . 2.5D 패키지패키지패키지패키지 내내내내 로직로직로직로직 반도체와반도체와반도체와반도체와 메모리메모리메모리메모리 간간간간 연결은연결은연결은연결은 실리콘실리콘실리콘실리콘 인터포저라는인터포저라는인터포저라는인터포저라는 PCB PCB PCB PCB 대체대체대체대체 부품부품부품부품

으로으로으로으로 가능하다가능하다가능하다가능하다. . . . 새로운새로운새로운새로운 부품의부품의부품의부품의 등장으로등장으로등장으로등장으로 관련관련관련관련 업체들에게업체들에게업체들에게업체들에게 수혜가수혜가수혜가수혜가 가능하다가능하다가능하다가능하다....

자료: Global Foundries

그림그림그림그림 10101010. . . . 최근최근최근최근 인텔은인텔은인텔은인텔은 메모리를메모리를메모리를메모리를 향후향후향후향후 성장동력으로성장동력으로성장동력으로성장동력으로 내세우고내세우고내세우고내세우고 있다있다있다있다. 2.5D. 2.5D. 2.5D. 2.5D나나나나 3D 3D 3D 3D 패키지패키지패키지패키지 시대에는시대에는시대에는시대에는 로직로직로직로직 반도체와반도체와반도체와반도체와

메모리메모리메모리메모리 반도체반도체반도체반도체 모두를모두를모두를모두를 생산하는생산하는생산하는생산하는 기업이기업이기업이기업이 시장의시장의시장의시장의 헤게모니를헤게모니를헤게모니를헤게모니를 잡을잡을잡을잡을 수수수수 있기있기있기있기 때문이다때문이다때문이다때문이다....

자료: Intel

Page 10: 페이스북 AI 서버와 반도체 트렌드fngenii.miraeassetdaewoo.com/wp-content/uploads/2017/03/반도체1.pdf · 머신러닝 전용 ASIC과 FPGA 사용이 늘어난다. 10

반도체

페이스북 AI 서버와 반도체 트렌드

10 Mirae Asset Daewoo Research

3. 머신러닝 전용 ASIC과 FPGA 사용이 늘어난다.

GPU외에도 FPGA(Field Programmable Gate Array)와 전용 ASIC(Application Specific Integrated Circuit) 시장도 커질 것이다. FPGA는 주로 팹리스 업체들이 반도체 개발용으로 사용하던 프로세서였다. 하지만 유연하게 설계를 바꿀 수 있다는 장점으로 머신러닝에 사용되기 시작했다. 최근 아마존, 마이크로소프트, 바이두와 같은 선두 업체들이 FPGA를 자사 데이터센터에 탑재했다. FPGA 제조사로는 미국의 자일링스와 인텔에 인수된 알테라, 중국에 인수된 라티스 반도체 등이 있다.

머신러닝 시장이 커지면 전용 ASIC 수요도 늘어난다. 현재는 GPU와 FPGA가 머신러닝 프로세서로 각광을 받고 있지만 이들에게는 단점도 많다. GPU는 전력 소모와 발열이 심하다. 칩 당 가격도 비싸다. GPU가 애초에 머신러닝 용으로 만들어진 칩이 아니고 그래픽 프로세서를 용도 전환한 것이라 발생하는 태생적 문제다.

FPGA는 생태계가 약하다. FPGA는 일반 소프트웨어 엔지니어들이 다루기가 힘들다. 하드웨어 개발용 반도체이기 때문이다. GPU와 달리 주변에서 잘 보기 힘들다. 개발용 언어도 HDL같은 하드웨어 언어이다. 소프트웨어 엔지니어들에게 이질적이다. 특히 제조사인 자일링스의 규모가 경쟁사보다 작아서 생태계 조성이 힘들다는 문제도 있다.

머신러닝에 최적화된 ASIC은 성능, 전력소모, 발열, 칩 개 당 가격 등 모든 면에서 GPU와 FPGA를 능가한다. 단 개발 비용이 문제가 된다. 14nm FinFET 공정으로 ASIC 1개를 개발하기 위한 비용은 1천억원을 상회한다. ASIC은 특정한 연산만 수행이 가능하다. CPU, GPU, FPGA는 프로그램만 바꿔주면 여러가지 기능을 수행할 수 있다. GPU는 알파고 같은 바둑 AI, 얼굴 인식 AI, 날씨 예상 AI 등에 모두 사용 가능하다.

예를 들어 엔비디아가 머신러닝 GPU를 1천억원 넘게 들여 개발해도 이 제품은 구글의 알파고, 페이스북의 얼굴인식, 테슬라의 자율주행 등 여러 곳에 팔 수 있어 돈을 벌 수 있다. 하지만 ASIC은 모두 따로 디자인 해야 한다. 알파고 용 ASIC, 페이스북 얼굴인식 용 ASIC, 테슬라의 자율주행 용 ASIC을 각각 만들어야 한다. 비용도 각각 1천억원 이상 씩 들어간다. 해당 수요처의 시장 규모가 1천억원 이상 확보되면 문제 없으나 그렇지 않을 경우 비용이 GPU를 사용하는 것보다 개발 비용 회수가 훨씬 부담이 된다. 그래서 머신러닝 시장이 아직 작은 현재는 GPU와 FPGA가 주로 사용되고 있다.

3~4년 후 머신러닝 시장 규모가 커졌을 경우는 필요한 수요처들마다 모두 제각각 전용 ASIC을 디자인해서 사용하는 흐름이 대세가 될 것이다. 이에 대한 수혜는 케이던스와 시놉시스 같은 반도체 개발 지원 툴(EDA) 업체들이 받을 것으로 예상한다. 현재는 소프트웨어, 자동차 업체들 같은 수요자들이 반도체 회사가 개발한 CPU, GPU 등을 구매해서 사용하지만 향후에는 자체적으로 전용 ASIC을 만들어서 머신러닝에 사용하는 업체들이 늘기 때문이다. 구글이 알파고용 ASIC을 만들고 페이스북이 얼굴 인식용 ASIC을 만들고 테슬라가 자율주행 용 ASIC을 자체 개발하는 식이다.

EDA 업체 입장에서는 고객이 늘어나는 효과다. 수요자가 자체적으로 디자인한 반도체를 대신 제조해주는 파운드리 업체들도 수혜가 가능하다. 대표적으로 TSMC, GF, UMC, 삼성전자 등이 있다.

그림그림그림그림 11111111. . . . 머신러닝머신러닝머신러닝머신러닝 전용전용전용전용 ASICASICASICASIC의의의의 성능은성능은성능은성능은 타타타타 프로세서프로세서프로세서프로세서 대비대비대비대비 높다높다높다높다

자료: Arstechnica

Page 11: 페이스북 AI 서버와 반도체 트렌드fngenii.miraeassetdaewoo.com/wp-content/uploads/2017/03/반도체1.pdf · 머신러닝 전용 ASIC과 FPGA 사용이 늘어난다. 10

반도체

페이스북 AI 서버와 반도체 트렌드

11 Mirae Asset Daewoo Research

그림그림그림그림 12121212. . . . ASICASICASICASIC은은은은 출하량이출하량이출하량이출하량이 적을적을적을적을 경우경우경우경우 개발개발개발개발 비용이비용이비용이비용이 부담이부담이부담이부담이 된다는된다는된다는된다는 단점이단점이단점이단점이 있으나있으나있으나있으나, , , , 수요처의수요처의수요처의수요처의 규모의규모의규모의규모의 경제가경제가경제가경제가

확보가확보가확보가확보가 될될될될 경우경우경우경우 비용도비용도비용도비용도 GPUGPUGPUGPU나나나나FPGAFPGAFPGAFPGA보다보다보다보다 낮아질낮아질낮아질낮아질 수수수수 있다있다있다있다....

자료: NAIST

그림그림그림그림 13131313. . . . 테슬라도테슬라도테슬라도테슬라도 차량을차량을차량을차량을 연간연간연간연간 5555만대만만대만만대만만대만 생산하는생산하는생산하는생산하는 현재는현재는현재는현재는 자율주행용자율주행용자율주행용자율주행용 칩으로칩으로칩으로칩으로 엔비디아의엔비디아의엔비디아의엔비디아의 GPUGPUGPUGPU를를를를 사용하고사용하고사용하고사용하고 있다있다있다있다. . . .

하지만하지만하지만하지만 연간연간연간연간 100100100100만대만대만대만대 생산이생산이생산이생산이 목표인목표인목표인목표인 2020202020202020년년년년 경에는경에는경에는경에는 자체자체자체자체 디자인한디자인한디자인한디자인한 칩을칩을칩을칩을 삼성전자에삼성전자에삼성전자에삼성전자에 파운드리를파운드리를파운드리를파운드리를 맡겨맡겨맡겨맡겨

생산할생산할생산할생산할 계획을계획을계획을계획을 세우고세우고세우고세우고 있다있다있다있다. . . . 이를이를이를이를 위해위해위해위해 최근최근최근최근 반도체반도체반도체반도체 개발팀을개발팀을개발팀을개발팀을 구성했다구성했다구성했다구성했다....

자료: Electrek

Page 12: 페이스북 AI 서버와 반도체 트렌드fngenii.miraeassetdaewoo.com/wp-content/uploads/2017/03/반도체1.pdf · 머신러닝 전용 ASIC과 FPGA 사용이 늘어난다. 10

반도체

페이스북 AI 서버와 반도체 트렌드

12 Mirae Asset Daewoo Research

그림그림그림그림 14141414. . . . 반도체를반도체를반도체를반도체를 직접직접직접직접 개발하는개발하는개발하는개발하는 비비비비 반도체반도체반도체반도체 회사들이회사들이회사들이회사들이 늘고늘고늘고늘고 있다있다있다있다

자료: Synopsis

그림그림그림그림 15151515. . . . 반도체를반도체를반도체를반도체를 직접직접직접직접 개발하는개발하는개발하는개발하는 일반일반일반일반 업체들의업체들의업체들의업체들의 증가는증가는증가는증가는 반도체반도체반도체반도체 개발개발개발개발 지원지원지원지원 툴툴툴툴(EDA) (EDA) (EDA) (EDA) 업체에게업체에게업체에게업체에게 수혜다수혜다수혜다수혜다....

자료: Bloomberg, 미래에셋대우 리서치센터

그림그림그림그림 16161616. . . . 글로벌글로벌글로벌글로벌 EDA EDA EDA EDA 시장시장시장시장 점유율점유율점유율점유율 현황현황현황현황 (2016)(2016)(2016)(2016) 그림그림그림그림 17171717. . . . 글로벌글로벌글로벌글로벌 파운드리파운드리파운드리파운드리 시장시장시장시장 점유율점유율점유율점유율 현황현황현황현황 (2016) (2016) (2016) (2016)

자료: Bloomberg, 미래에셋대우 리서치센터 자료: Gartner 미래에셋대우 리서치센터

Data Center & Networking

Digital Home

Internet of Things

Mobile

Auto

Cloud

Computing

Individual Military

80

100

120

140

160

16.01 16.04 16.07 16.10 17.01

(16.01.01=100)

S&P500

Synopsis

Cadence

SynopsysSynopsysSynopsysSynopsys

44%44%44%44%

CadenceCadenceCadenceCadenceDesign SystemsDesign SystemsDesign SystemsDesign Systems

33%33%33%33%

MentorMentorMentorMentorGraphicsGraphicsGraphicsGraphics

23%23%23%23%

TSMCTSMCTSMCTSMC

54%54%54%54%

GlobalGlobalGlobalGlobal

FoundriesFoundriesFoundriesFoundries10%10%10%10%

UMCUMCUMCUMC

9%9%9%9%

SamsungSamsungSamsungSamsung

5%5%5%5%

SMICSMICSMICSMIC

5%5%5%5%

OthersOthersOthersOthers17%17%17%17%

Page 13: 페이스북 AI 서버와 반도체 트렌드fngenii.miraeassetdaewoo.com/wp-content/uploads/2017/03/반도체1.pdf · 머신러닝 전용 ASIC과 FPGA 사용이 늘어난다. 10

반도체

페이스북 AI 서버와 반도체 트렌드

13 Mirae Asset Daewoo Research

4. DRAM 수요 증가는 제한될 것이다.

머신러닝으로 인해 GPU, FPGA, ASIC의 수요가 크게 증가하는 것과 달리 서버 DRAM 사용량 증가

는 시장 기대보다 적을 가능성이 있다. 메모리 사용량 증가는 NAND에 집중될 것이다. 페이스북 Big

Basin 서버의 DRAM 탑재용량은 16GB로 이전 제품의 12GB 대비 30% 가량 증가했다. 프로세서와

전체 성능 증가가 100% 이상 된 것에 비했을 때 생각보다 증가 폭이 적다. 이는 설계자가 DRAM

사용량 증가를 최소화하는 방향으로 서버 설계를 했기 때문이다.

과거에는 데이터 수요에 비해 서버 성능이 부족할 경우 서버 수를 늘리거나 서버 내의 CPU 수와

DRAM 용량을 증가시켰다. 하지만 이는 비용 대비 성능 증가 폭이 적다. 최근에는 앞서 언급한 것처

럼 CPU에서 GPU 등으로 프로세서를 변화시키고 DRAM과 프로세서를 HBM처럼 한 패키지로 묶어

버리는 등의 방법을 시도한다. 저장장치를 고성능 NAND로 바꾸고 NAND와 DRAM 간의 인터페이

스도 개선시키기도 한다. SCM(스토리지 클래스 메모리)를 개발해서 DRAM과 NAND 사이의 캐쉬

메모리로 사용하는 방법도 개발 중이다.

이런 방법은 비용 증가 대비 성능 증가 폭이 크다. 즉 성능 증가 대비 하드웨어 투입량이 적다. IT업

체들이 스마트하게 기술을 개발하고 있다. 일부 투자자들은 인공지능 수요가 확산되면 서버 DRAM

사용량이 기하급수적으로 증가할 것으로 기대 중이다. 하지만 최근 선두 업체들의 기술 개발 방향을

보면 DRAM 사용량이 꼭 요구 성능이 비례해서 증가하지는 않는다는 점을 확인할 수 있다. 2017년

DRAM 수요는 954억Gb로 전년 대비 20% 증가에 그칠 것이다. 머신러닝이 본격화되는데도 불구하

고 증가율이 낮아지고 있다. 2016년은 30% 증가했다.

대신 NAND 사용량은 지속 증가할 것이다. 딥러닝의 기본은 많은 데이터이다. 많은 데이터를 빠르게

저장하고 불러올 수 있는 저장장치가 필요하다. 2017년 NAND 시장은 1,470십억Gb로 전년 대비

30% 증가할 것이다.

그림그림그림그림 18181818. . . . DRAM DRAM DRAM DRAM 수요수요수요수요 추정추정추정추정 그림그림그림그림 19191919. . . . NAND NAND NAND NAND 수요수요수요수요 추정추정추정추정

자료: 기업자료종합, 미래에셋대우 리서치센터 자료: 기업자료종합, 미래에셋대우 리서치센터

-20%

-10%

0%

10%

20%

0

5

10

15

20

25

30

1Q06 1Q08 1Q10 1Q12 1Q14 1Q16

('1Gb 십억개)

출히량 (L) 성장률 (R)

-30%

-20%

-10%

0%

10%

20%

30%

40%

50%

0

5

10

15

20

25

30

1Q06 1Q08 1Q10 1Q12 1Q14 1Q16

('16Gb 십억개)

출하량 (L) 성장률 (R)

Page 14: 페이스북 AI 서버와 반도체 트렌드fngenii.miraeassetdaewoo.com/wp-content/uploads/2017/03/반도체1.pdf · 머신러닝 전용 ASIC과 FPGA 사용이 늘어난다. 10

반도체

페이스북 AI 서버와 반도체 트렌드

14 Mirae Asset Daewoo Research

그림그림그림그림 20202020. . . . DRAM Sufficient ratio DRAM Sufficient ratio DRAM Sufficient ratio DRAM Sufficient ratio 그림그림그림그림 21212121. NAND. NAND. NAND. NAND Sufficient ratioSufficient ratioSufficient ratioSufficient ratio

자료: 기업자료종합, 미래에셋대우 리서치센터 자료: 기업자료종합, 미래에셋대우 리서치센터

그림그림그림그림 22222222. . . . 서버서버서버서버 당당당당 DRAMDRAMDRAMDRAM 채용량채용량채용량채용량 추이추이추이추이 그림그림그림그림 23232323. . . . NAND NAND NAND NAND 내내내내 SSD SSD SSD SSD 비중비중비중비중 추세추세추세추세

자료: Gartner, 미래에셋대우 리서치센터 자료: Gartner, 미래에셋대우 리서치센터

그림그림그림그림 24242424. . . . DRAM DRAM DRAM DRAM 시장시장시장시장 규모규모규모규모 추정추정추정추정 ((((매출액매출액매출액매출액 기준기준기준기준) ) ) ) 그림그림그림그림 25252525. . . . NAND NAND NAND NAND 시장시장시장시장 규모규모규모규모 추정추정추정추정 ((((매출액매출액매출액매출액 기준기준기준기준))))

자료: Gartner, 미래에셋대우 리서치센터 자료: Gartner, 미래에셋대우 리서치센터

-6%

-4%

-2%

0%

2%

4%

6%

1Q06 1Q08 1Q10 1Q12 1Q14 1Q16 1Q18-8%

-4%

0%

4%

8%

12%

1Q06 1Q08 1Q10 1Q12 1Q14 1Q16 1Q18

20,000

30,000

40,000

50,000

2015 2016 2017F 2018F 2019F 2020F

(백만달러)

20,000

30,000

40,000

50,000

2015 2016 2017F 2018F 2019F 2020F

(백만달러)

-

400

800

1,200

1,600

2013 2015 2017F 2019F

Low End

High End

(Gigabytes / System)

00%

25%

50%

75%

100%

2013 2015 2017F 2019F

Non-SSD SSD

Page 15: 페이스북 AI 서버와 반도체 트렌드fngenii.miraeassetdaewoo.com/wp-content/uploads/2017/03/반도체1.pdf · 머신러닝 전용 ASIC과 FPGA 사용이 늘어난다. 10

반도체

페이스북 AI 서버와 반도체 트렌드

15 Mirae Asset Daewoo Research

그림그림그림그림 26262626. . . . 페이스북의페이스북의페이스북의페이스북의 스토리지스토리지스토리지스토리지 서버서버서버서버 설계설계설계설계....

최근최근최근최근 서버서버서버서버들은들은들은들은 CPUCPUCPUCPU수와수와수와수와 DRAM DRAM DRAM DRAM 용량을용량을용량을용량을 늘리기보다는늘리기보다는늘리기보다는늘리기보다는 NAND NAND NAND NAND 저장장치를저장장치를저장장치를저장장치를 강화하는강화하는강화하는강화하는 방향으로방향으로방향으로방향으로 가고가고가고가고 있다있다있다있다....

자료: Facebook

그림그림그림그림 27272727. . . . 차세대차세대차세대차세대 서버는서버는서버는서버는 DRAMDRAMDRAMDRAM과과과과 NAND NAND NAND NAND 간간간간 병목병목병목병목 현상을현상을현상을현상을 줄이기줄이기줄이기줄이기 위해위해위해위해

스토리지스토리지스토리지스토리지 클래스클래스클래스클래스 메모리를메모리를메모리를메모리를 탑재할탑재할탑재할탑재할 가능성이가능성이가능성이가능성이 높다높다높다높다. . . .

자료: 미래에셋대우 리서치센터

그림그림그림그림 28282828. . . . 차세대차세대차세대차세대 Emerging MemoryEmerging MemoryEmerging MemoryEmerging Memory 시장시장시장시장 추정추정추정추정

자료: Gartner, 미래에셋대우 리서치센터

0

500

1,000

1,500

2,000

2015 2016 2017F 2018F 2019F 2020F

(백만달러)

Page 16: 페이스북 AI 서버와 반도체 트렌드fngenii.miraeassetdaewoo.com/wp-content/uploads/2017/03/반도체1.pdf · 머신러닝 전용 ASIC과 FPGA 사용이 늘어난다. 10

반도체

페이스북 AI 서버와 반도체 트렌드

16 Mirae Asset Daewoo Research

Compliance NoticeCompliance NoticeCompliance NoticeCompliance Notice

- 당사는 본 자료를 제3자에게 사전 제공한 사실이 없습니다.

- 본 자료는 외부의 부당한 압력이나 간섭없이 애널리스트의 의견이 정확하게 반영되었음을 확인합니다.

본 조사분석자료는 당사의 리서치센터가 신뢰할 수 있는 자료 및 정보로부터 얻은 것이나, 당사가 그 정확성이나 완전성을 보장할 수 없으므로 투자자 자신의 판단과 책임하에 종목 선택이나 투자시기에 대한 최종 결정을 하시기 바랍니다. 따라서 본 조사분석자료는 어떠한 경우에도 고객의 증권투자 결과에 대한 법적 책임소재의

증빙자료로 사용될 수 없습니다. 본 조사분석자료의 지적재산권은 당사에 있으므로 당사의 허락 없이 무단 복제 및 배포할 수 없습니다.