728x90
반응형

분류 전체보기 74

딥러닝 최신 용어정리 #7 스파이킹신경망 활성학습 그래프신경망 메모리네트워크 뉴럴튜링머신 BERT OpenAI 캡슐네트워크 다이내믹라우팅

■ 스파이킹 신경망 (Spiking Neural Network) 인공신경망보다 좀 더 생물학적인 신경망에 가까운 형태로서 지금의 인공신경망과 생물학적 신경망의 중간에 위치한다. 딥러닝보다 더 낮은 전력의 전용 뉴로모픽 칩을 통해 학습한다. 현재 스파이킹 신경망은 딥러닝과 유사하거나 조금 미흡한 정도의 성능으로 발전하고 있다. ​ ​ ■ 활성 학습 (Active Learning) ​ 딥러닝은 양질의 데이터가 많으면 많을 수록 성능이 좋아진다. 이미지에서 객체를 인식하는 데이터의 경우 이미지에 객체를 라벨링하는 것이 결국 데이터 확보인데 이는 비용과 직결된다. 활성 학습은 라벨이 없는 데이터에 자동으로 라벨링을 하는 방법이다. 어느정도 학습된 신경망에서 일정 기준 이상의 예측확률 값에 대해 라벨을 자동으로 ..

클린 아키텍처 - 13장. 컴포넌트 응집도 Component Cohesion

■ 13장 컴포넌트 응집도 Component Cohesion ​ 컴포넌트 응집도 관련 3가지 원칙이 있다. ​ 1. 재사용/릴리스 등가 원칙 REP: The Reuse/Release Equivalence Principle 2. 공통 폐쇄 원칙 CCP: The Common Closure Principle 3. 공통 재사용 원칙 CRP: The Common Reuse Principle ​ 1. 재사용/릴리스 등가 원칙 REP 재사용 단위는 릴리스 단위와 같아야 한다. 어떤 라이브리를 사용하고 신규 버전으로 업데이트하는 경우 우리는 릴리스 번호를 참조한다. 어찌 보면 매우 당연하고 직관적인 원칙이다. 설계 관점에서 보면 컴포넌트 안에는 응집성 높은 클래스와 모듈만 있어야 한다. 이들은 버전 번호가 같아야 하고..

클린 아키텍처 - 12장. 컴포넌트 Components

◆ Part 4 컴포넌트 원칙 Components Principles ​ ■ 12장 컴포넌트 Components ​ 컴포넌트는 배포의 단위로 자바의 jar, 닷넷의 dll, 루비의 gem 등이 있다. 오늘날에는 이런 파일들을 기존 어플리케이션에 플러그인 형태로 배포하는 것이 일반적이다. ​ 책에서 말하는 컴포넌트 역시 런타임에 플러그인 형태로 결합할 수 있는 동적 링크 파일이다. 컴포넌트 아키텍처를 적용하기 위해 과거에는 초인적인 노력이 필요했지만 현재는 기본으로 쉽게 사용할 수 있는 수준이 되었다. ​ ​

클린 아키텍처 - 11장. DIP: 의존성 역전 원칙 Dependency Inversion Principle

■ 11장 DIP: 의존성 역전 원칙 Dependency Inversion Principle ​ 유연성이 극대화된 시스템 = 소스코드 의존성이 추상 abstraction 에 의존하며 구체 concretion 에는 의존하지 않는 시스템이다. 의존을 피해야 하는 것은 변동성이 큰 volatile 구체적인 요소이다. 이 구체적인 요소는 한창 개발중이라 자주 변경될 수밖에 없는 모듈이라고 할 수 있다. 쉽게 말해 구체인 class가 추상인 interface를 참조하는 모습을 생각하면 된다. ​ - 변동성이 큰 구체 클래스를 (직접)참조하지 말 것. 대신 추상 팩토리 Abstract Factory 를 사용한다. - 변동성이 큰 구체 클래스로부터 파생(상속)하지 말 것. - 구체 함수를 오버라이드 override ..

딥러닝 최신 용어정리 #6 메타학습 원샷학습 지속적인학습 신경망구조탐색 AutoML

Chapter 05 딥러닝의 한계를 뛰어넘는 최신 기술 ​ 현재의 딥러닝은 인공신경망이라는 틀에서 출발하기 때문에 한계가 명확한 기술이다. 학계에서는 이러한 딥러닝의 한계를 뛰어 넘기 위해 노력하고 있다. (더 적은 양의 데이터와 더 효율적인 학습 방법) ​ ​ ■ 메타 학습 (Meta-Learning) ​ 사람은 경험을 기반으로 소량의 데이터만으로도 학습이 가능한 반면, 딥러닝은 방대한 데이터가 필요하고 지식의 전이도 자유롭지 못하다. 메타 학습은 학습하는 방법을 학습하는 것으로 인공지능의 궁극적인 목표인 사람 수준의 지능을 구현하기 위한 방법이다. ​ ■ 원샷 학습 (One-Shot Leaning) ​ 대표적인 메타 학습 방법으로, 이미 학습된 인공신경망을 가지고 오직 한 개의 데이터만으로 학습을 하..

[ ITIL 4 이해하기 ] 서비스 요청 관리 Service Request Management - ITIL Foundation

ITIL Foundation 시험 수준에서 변경과 관련된 프랙티스는 두 가지이다. • 서비스 요청 관리 Service request management • 변경 통제 Change Enable (Change control) 이 중 먼저 서비스 요청 관리에 대해 알아보기로 한다. 서비스 요청 관리는 고객과 서비스 제공자 양자가 미리 합의된 서비스 수준을 기반으로 서비스 요청이 이행되도록 하는 것으로, 일반적으로 이러한 요청은 사전 합의된 활동을 말한다. 서비스 요청 "A request from a user or a user’s authorized representative that initiates a service action that has been agreed as a normal part of ser..

ITSM_ITIL 2022.09.13

딥러닝 최신 용어정리 #5 스타크래프트2의 인공지능 알파스타

Chapter 04 딥마인드의 알파스타 ​​ 알파스타는 스타크래프트2의 인공지능 프로그램으로 알파고로 유명해진 구글 딥마인드에서 만들었다. 이는 최신 딥러닝 기술을 십분 활용한 결과물이다. ​ 알파스타는 2019년에 공개되어 세계 정상급 프로게이머와의 대결에서 10승 1패를 거둠으로써 세간을 놀라게 했다. ​ 알파스타는 이전의 알파고와는 매우 다른 형태의 인공지능으로 구현되어야 한다. 바둑은 경우의 수가 거의 무한대로 이를 어떻게 좁히느냐가 중요한 반면, 알파스타는 실시간 전략이 핵심이며 게임의 진행 상황에 따라 목표가 달라진다는 특징이 있다. 또한 정찰이라는 행위를 통해 상대의 정보를 얻고 이를 통해 자신의 전략을 고도화해야 한다. 이를 인공지능 용어로 Long-Term Planning 이라고 한다. ..

딥러닝 최신 용어정리 #4 GPU TPU 뉴로모픽칩 등

■ 딥러닝과 컴퓨팅 파워 ​ GPU는 수천 개의 코어로 구성된 연산장치로 2009년부터 본격적으로 부상하였고 이론적인 성능은 같은 가격의 CPU 보다 약 10배 이상 높은 반면 메모리 전송이 많은 알고리즘에서는 성능이 급격히 떨어진다. 그러나 2012년 이미지 인식 경진대회에서 우승한 AlexNet 알고리즘이 GPU에 특화된 인공신경망을 구성하여서 딥러닝에 최적화된 자원으로 주목받았고 이는 현재까지 이어지고 있다. ​ 구글은 딥러닝 전용 하드웨어인 텐서 연산 처리 장치 TPU를 개발하여 GPU 보다 전력소모를 8배 감소시켰고, 인공신경망 자체를 하드웨어로 구현한 뉴로모픽 칩 (Neuromorphic Chip)의 개발은 세계적인 관심을 받고 있다. ​ ■ 인공신경망의 학습과 최적의 모델 ​ 최적의 인공신경..

[ ITIL 4 이해하기 ] 운영관리를 위한 프랙티스 3, 문제관리 Problem - ITIL Foundation

인시던트 관리가 문제사항에 대해 즉시적인 해결을 하는 게 목적이라면, 문제 관리의 목적은 인시던트의 원인을 파고들어 근본 원인(root cause)을 밝혀냄으로써 해당 원인과 관련된 인시던트가 반복되지 않도록 하는 것이다. 즉, 인시던트 관리 프랙티스가 조치 및 수정을 다룬다면, 문제 관리 프랙티스는 예방에 중점을 둔다고 할 수 있다. 또한 인시던트 관리는 신속성이, 문제 관리는 정확성이 핵심이다. ITIL에서 정의하는 문제(Problem)란 다음과 같다. ITIL 문제 정의 "A cause, or potential cause, of one or more incidents" "한 개 이상 인시던트의 실재하는 원인이나 잠재적 원인" 인시던트의 근본원인을 알 수 없을 때에만 문제로 등록이 되며, 근본원인이 ..

ITSM_ITIL 2022.09.08

딥러닝 최신 용어정리 #3 전처리 개인정보 알고리즘 편향 지속적인 학습 등

Chapter 02 딥러닝의 한계 ​ 01. 딥러닝과 데이터 ​ 딥러닝에서는 데이터의 절대량이 무엇보다 중요하다. 여러 경로로부터 수집된 데이터는 딥러닝에 활용되기 전에 '전처리'라는 과정을 거치는데 이것이 실제 딥러닝의 학습보다 더 많은 시간과 비용을 소요한다. 따라서 전처리의 수준은 경험적으로 결정하는 것이 일반적이다. ​ 02. 데이터의 가치 ​ 딥러닝에서 유의미한 결과를 보여주는 부분은 지도학습 (Supervised Learning)을 활용한 것인데 이를 위해서는 출력 데이터에 라벨링이 되어 있어야 한다. 이는 단순히 데이터만으로는 학습이 불가능함을 보여주고 이 작업은 결국 사람이 해야 되므로 비용과 직결된다. 따라서 이런 데이터는 높은 가치를 갖게 되고 최근 미국을 시작으로 전개되고 있는 데이터..

반응형