Embedded Intelligence
: 어떤 제품 기능의 하나로서 ROM에 의해 고정적 프로그램이 주어진 프로세서 혹은 컨트롤러로서 그 제품의 일부로 내부에 입력되어 그 프로그램은 제품의 수명이 다할 때까지 변경되지 않음
=> 정보를 가공, 수집하여 필요로 하는 장소와 시간에 사용할 수 있도록 하는 패러다임으로 사물인터넷(IoT)에서 그대로 활용됨
Quantum Machine Learning : 양자 머신 러닝 (QML)
양자 역학의 속성에 의존하여 양자 컴퓨팅은 고전적 컴퓨터로 접근이 안되는 문제를 해결한다.
큐비트라는 것을 사용함
고전적 컴퓨터는 결정론적 고전 연산 수행 / 샘플링 메서드를 사용해 확률적 과정을 따라할 수 있음
양자 컴퓨터는 중첩과 얽힘을 공유하는 큐비트 기능을 활용하여 대규모 emulate하기 어려운 양자 연산 수행 가능
=> 최적화, 양자 시뮬레이션, 암호화 및 머신러닝에 활용됨
1) 양자 데이터
2)하이브리드 양자 고전 모델
위 두가지 개념을 기반으로 적용됨]
-양자 데이터 : 인공적, 자연적 양자 시스템에서 발생하는 모든 데이터 소스
중첩과 얽힘을 나타내 표현하거나 저장하는 데 있어서 기하급수적인 양의 고전 계산 리소스가 필요할 수 있는 결합 확률 분포 가 발생하는데 양자 우월성 실험에서 이 샘플링이 가능함을 보여줌
-하이브리드 양자 고전 모델 : 양자 모델은 양자 역학적 기원을 가진 데이터를 표현하고 일반화할 수 있음
단기 양자 프로세서는 여전히 상당히 작고 노이즈가 존재해 양자 모델은 양자 프로세서만 사용하면 부족하고 기존 보조 프로세서와 함꼐 작동해야 효과적 => tensorflow같은 경우 이미 cpu, gpu 및 tpu에서 이기종 컴퓨팅을 지원해 하이브리드 양자 고전 알고리즘 실험의 기본 플랫폼으로 사용됨
QNN : 양자 신경망
Research Department of Embedded Intelligence
•Human centric AI – human activity recognition
•Hardware design and implementation
•Machine learning
•Human-Computer Interaction
•Augmented reality with connected embedded devices
•Quantum Machine Learning
- multi-modal
여러가지 형태의 정보를 통해 소통하는 환경 //즉 다른 형태의 인풋을 함께 다루는 문제
기존 AI의 경우 텍스트나 자연어 이해에 중점을 둠 : 즉, 자연어 처리 NLP가 전제였음
modality = 데이터의 종류로 AI가 우리 세상을 제대로 인식하기 위해 멀티모달의 등장은 필수적
이러한 multimodal AI가 활성화되면 텍스트나 이미지로만 가능했던 활용 영역을 엄청 변화시킬 것임
Week 42 - 사물 인식 모델의 한계를 NLP로 깨부수는 CLIP!
Week 36에서 AI가 인간 수준으로 세상을 이해하려면 단순히 텍스트 뿐만 아니라 여러 가지 인지(Perception) 데이터를 다룰 수 있어야 한다고 얘기를 하였습니다. 이것의 첫걸음은 텍스트와 이미지를
jiho-ml.com
Transformer
2017년 구글이 발표한 논문인 "Attention is all you need"에서 나온 모델로 기존의 seq2seq의 구조인 인코더-디코더를 따르면서도, 논문의 이름처럼 어텐션(Attention)만으로 구현한 모델
-기존 seq2seq 모델
인코더-디코더 구조로 구성
인코더 : 입력 시퀀스를 하나의 벡터 표현으로 압축
디코더 : 인코더가 압축한 벡터 표현을 통해 출력 시퀀스를 만들어냄
위 구조는 인코더의 입력 시퀀스 압축 과정에서 입력 시퀀스 일부 정보가 손실, vanishing gradient 문제가 발생되기 때문에 이를 보정하기 위해 어텐션 사용
-어텐션 : attention
디코더의 출력 단어를 예측하는 매 시점마다 인코더의 전체 입력 문장을 다시 한 번 참고함
이때 해당 시점에서 예측할 단어와 연관있는 입력 단어 부분을 좀 더 집중해서 보게됨
![](https://blog.kakaocdn.net/dn/mv5j4/btsu2bqTbY9/cX9LP6GQoeVmuzyKlzVZa1/img.png)
Attention(Q,K,V) = Attention value
위 어텐션 함수는 주어진 쿼리에 대해 모든 키와의 유사도를 각각 구하고 이 유사도를 키와 mapping되어있는 각각의 value에 반영해줌
유사도가 반영된 value를 모두 더해서 리턴하면 이 값이 attention value다.
seq2seq + 어텐션 모델
- Dot-Product attention
![](https://blog.kakaocdn.net/dn/7OaBx/btsuWYspVm2/CZIEmRxusKfifchcSrfs80/img.png)
15-01 어텐션 메커니즘 (Attention Mechanism)
앞서 배운 seq2seq 모델은 **인코더**에서 입력 시퀀스를 컨텍스트 벡터라는 하나의 고정된 크기의 벡터 표현으로 압축하고, **디코더**는 이 컨텍스트 벡터를 통해서 출력 …
wikidocs.net
=> 위에 attention 메커니즘 이해하고 transformer 이해하고 LSTM까지 공부하고싶음
- STAR: Safe and Trusted human centric ARtificial intelligence in future manufacturing lines
생산 라인에 정교한 AI 시스템을 안전하게 배치할 수 있도록 능동 학습 시스템, 모의 현실 시스템, 첨단 강화 학습 기술 및 사이버 방어 메커니즘 등 첨단 AI 기술 연구 및 통합이 목표
- Sensor-based Human Activity Recognition
센서 데이터는 다루기가 어려움, video를 2d poses로 바꾸며 real sensor data와 비교하여 학습 진행
- Generative Modeling: Computer Graphics
gan => cgan => acgan => wgan => wgan-gp => .. => diffusion
이미지 뿐만 아니라 오디오 등에도 적용됨
- 시뮬레이터를 data driven 모델로 대체하여 시간적 이득, 효과 증명해냄
- 리튬 이온 배터리 잔여 수명 예측
- 잔여 수명 예측, 불균형 데이터 생성
smart city
: 인간 생활의 삶의 질을 높임
: connected devices and IoT sensors // IoT 디바이스들이 real world 에서 벌어지는 일들을 big data화
: Data analytics and machine learning algorithms
나중에 하나씩 읽어보면서 과정 이해해봐야징 ㅎㅅㅎ
Smart City Applications
'DL > 세미나' 카테고리의 다른 글
[후두암 세미나 9/5] (0) | 2023.10.05 |
---|---|
[의료영상 데이터 전처리 세미나] (0) | 2023.10.05 |
[CEGAN] 세미나인데 이제 교수님 연구 과제들 주루룩 훑은 느낌 (0) | 2023.09.21 |