728x90
반응형

딥러닝의한계 2

딥러닝 최신 용어정리 #4 GPU TPU 뉴로모픽칩 등

■ 딥러닝과 컴퓨팅 파워 ​ GPU는 수천 개의 코어로 구성된 연산장치로 2009년부터 본격적으로 부상하였고 이론적인 성능은 같은 가격의 CPU 보다 약 10배 이상 높은 반면 메모리 전송이 많은 알고리즘에서는 성능이 급격히 떨어진다. 그러나 2012년 이미지 인식 경진대회에서 우승한 AlexNet 알고리즘이 GPU에 특화된 인공신경망을 구성하여서 딥러닝에 최적화된 자원으로 주목받았고 이는 현재까지 이어지고 있다. ​ 구글은 딥러닝 전용 하드웨어인 텐서 연산 처리 장치 TPU를 개발하여 GPU 보다 전력소모를 8배 감소시켰고, 인공신경망 자체를 하드웨어로 구현한 뉴로모픽 칩 (Neuromorphic Chip)의 개발은 세계적인 관심을 받고 있다. ​ ■ 인공신경망의 학습과 최적의 모델 ​ 최적의 인공신경..

딥러닝 최신 용어정리 #3 전처리 개인정보 알고리즘 편향 지속적인 학습 등

Chapter 02 딥러닝의 한계 ​ 01. 딥러닝과 데이터 ​ 딥러닝에서는 데이터의 절대량이 무엇보다 중요하다. 여러 경로로부터 수집된 데이터는 딥러닝에 활용되기 전에 '전처리'라는 과정을 거치는데 이것이 실제 딥러닝의 학습보다 더 많은 시간과 비용을 소요한다. 따라서 전처리의 수준은 경험적으로 결정하는 것이 일반적이다. ​ 02. 데이터의 가치 ​ 딥러닝에서 유의미한 결과를 보여주는 부분은 지도학습 (Supervised Learning)을 활용한 것인데 이를 위해서는 출력 데이터에 라벨링이 되어 있어야 한다. 이는 단순히 데이터만으로는 학습이 불가능함을 보여주고 이 작업은 결국 사람이 해야 되므로 비용과 직결된다. 따라서 이런 데이터는 높은 가치를 갖게 되고 최근 미국을 시작으로 전개되고 있는 데이터..

반응형