본문 바로가기

DL/세미나

9/21 세미나 [Generative Models with IndustrialApplications for Smart Cities]

Embedded Intelligence

: 어떤 제품 기능의 하나로서 ROM에 의해 고정적 프로그램이 주어진 프로세서 혹은 컨트롤러로서 그 제품의 일부로 내부에 입력되어 그 프로그램은 제품의 수명이 다할 때까지 변경되지 않음

=> 정보를 가공, 수집하여 필요로 하는 장소와 시간에 사용할 수 있도록 하는 패러다임으로 사물인터넷(IoT)에서 그대로 활용됨

 

Quantum Machine Learning : 양자 머신 러닝 (QML)

양자 역학의 속성에 의존하여 양자 컴퓨팅은 고전적 컴퓨터로 접근이 안되는 문제를 해결한다.

큐비트라는 것을 사용함

고전적 컴퓨터는 결정론적 고전 연산 수행 / 샘플링 메서드를 사용해 확률적 과정을 따라할 수 있음

양자 컴퓨터는 중첩과 얽힘을 공유하는 큐비트 기능을 활용하여 대규모 emulate하기 어려운 양자 연산 수행 가능

=> 최적화, 양자 시뮬레이션, 암호화 및 머신러닝에 활용됨

 

1) 양자 데이터

2)하이브리드 양자 고전 모델

위 두가지 개념을 기반으로 적용됨]

 

-양자 데이터 : 인공적, 자연적 양자 시스템에서 발생하는 모든 데이터 소스

                      중첩과 얽힘을 나타내 표현하거나 저장하는 데 있어서 기하급수적인 양의 고전 계산 리소스가 필요할 수 있는 결합 확률 분포                        가 발생하는데 양자 우월성 실험에서 이 샘플링이 가능함을 보여줌

-하이브리드 양자 고전 모델 : 양자 모델은 양자 역학적 기원을 가진 데이터를 표현하고 일반화할 수 있음

                                             단기 양자 프로세서는 여전히 상당히 작고 노이즈가 존재해 양자 모델은 양자 프로세서만 사용하면 부족하고                                               기존 보조 프로세서와 함꼐 작동해야 효과적 => tensorflow같은 경우 이미 cpu, gpu 및 tpu에서  이기종                                                 컴퓨팅을 지원해 하이브리드 양자 고전 알고리즘 실험의 기본 플랫폼으로 사용됨

QNN : 양자 신경망

 

Research Department of Embedded Intelligence

Human centric AI human activity recognition

Hardware design and implementation

Machine learning
Human-Computer Interaction

Augmented reality with connected embedded devices

Quantum Machine Learning

 

- multi-modal

여러가지 형태의 정보를 통해 소통하는 환경 //즉 다른 형태의 인풋을 함께 다루는 문제

기존 AI의 경우 텍스트나 자연어 이해에 중점을 둠 : 즉, 자연어 처리 NLP가 전제였음

modality = 데이터의 종류로 AI가 우리 세상을 제대로 인식하기 위해 멀티모달의 등장은 필수적

이러한 multimodal AI가 활성화되면 텍스트나 이미지로만 가능했던 활용 영역을 엄청 변화시킬 것임

https://jiho-ml.com/weekly-nlp-42/

 

Week 42 - 사물 인식 모델의 한계를 NLP로 깨부수는 CLIP!

Week 36에서 AI가 인간 수준으로 세상을 이해하려면 단순히 텍스트 뿐만 아니라 여러 가지 인지(Perception) 데이터를 다룰 수 있어야 한다고 얘기를 하였습니다. 이것의 첫걸음은 텍스트와 이미지를

jiho-ml.com

 

Transformer

2017년 구글이 발표한 논문인 "Attention is all you need"에서 나온 모델로 기존의 seq2seq의 구조인 인코더-디코더를 따르면서도, 논문의 이름처럼 어텐션(Attention)만으로 구현한 모델

-기존 seq2seq 모델 

인코더-디코더 구조로 구성

인코더 : 입력 시퀀스를 하나의 벡터 표현으로 압축

디코더 : 인코더가 압축한 벡터 표현을 통해 출력 시퀀스를 만들어냄

위 구조는 인코더의 입력 시퀀스 압축 과정에서 입력 시퀀스 일부 정보가 손실, vanishing gradient 문제가 발생되기 때문에 이를 보정하기 위해 어텐션 사용

 

-어텐션 : attention

디코더의 출력 단어를 예측하는 매 시점마다 인코더의 전체 입력 문장을 다시 한 번 참고함

이때 해당 시점에서 예측할 단어와 연관있는 입력 단어 부분을 좀 더 집중해서 보게됨

Attention(Q,K,V) = Attention value 

위 어텐션 함수는 주어진 쿼리에 대해 모든 키와의 유사도를 각각 구하고 이 유사도를 키와 mapping되어있는 각각의 value에 반영해줌

유사도가 반영된 value를 모두 더해서 리턴하면 이 값이 attention value다.

 

seq2seq + 어텐션 모델

- Dot-Product attention

https://wikidocs.net/22893

 

15-01 어텐션 메커니즘 (Attention Mechanism)

앞서 배운 seq2seq 모델은 **인코더**에서 입력 시퀀스를 컨텍스트 벡터라는 하나의 고정된 크기의 벡터 표현으로 압축하고, **디코더**는 이 컨텍스트 벡터를 통해서 출력 …

wikidocs.net

 

=> 위에 attention 메커니즘 이해하고 transformer 이해하고 LSTM까지 공부하고싶음


- STAR: Safe and Trusted human centric ARtificial intelligence in future manufacturing lines

             생산 라인에 정교한 AI 시스템을 안전하게 배치할 수 있도록 능동 학습 시스템, 모의 현실 시스템, 첨단 강화 학습 기술 및 사이버                 방어 메커니즘 등 첨단 AI 기술 연구 및 통합이 목표

- Sensor-based Human Activity Recognition

              센서 데이터는 다루기가 어려움, video를 2d poses로 바꾸며 real sensor data와 비교하여 학습 진행

- Generative Modeling: Computer Graphics

             gan => cgan => acgan => wgan => wgan-gp => .. => diffusion

이미지 뿐만 아니라 오디오 등에도 적용됨

 

- 시뮬레이터를 data driven 모델로 대체하여 시간적 이득, 효과 증명해냄

- 리튬 이온 배터리 잔여 수명 예측

- 잔여 수명 예측, 불균형 데이터 생성

 

 


smart city

: 인간 생활의 삶의 질을 높임

: connected devices and IoT sensors // IoT 디바이스들이 real world 에서 벌어지는 일들을 big data화

: Data analytics and machine learning algorithms


나중에 하나씩 읽어보면서 과정 이해해봐야징 ㅎㅅㅎ

Smart City Applications