728x90
반응형

AI분야에서  거의 모든 분야에서 Transformer모델이 널리 적용되고 있습니다.

 

HugginfFace 에서는 Transformer 라이브러리를 제공하고 있으며,

이를 통해  다양한 Pretrained 모델을 Fine Tunning할 수 있는 코드를 소개하고 있습니다.

 

https://huggingface.co/docs/transformers/index

 

🤗 Transformers

Reinforcement learning models

huggingface.co

 튜토리얼의 내용을 보면 간단합니다. 

     1. 추론(inference)은 다단계를 거쳐(pipelines) 활용 가능합니다.

     2.  라이브러리를 통해 쉽게 구현할 수 있습니다.

     3. 물론 제일 중용한 것은 데이터의 준비입니다. 아마도 이 부분이 제일 많은 작업을 필요로 할 것입니다.

     4. 기존의 Pretrained 모델을 Fine튜닝합니다.  인프라적인 요소입니다. 많은 비용이 필요할 수 있습니다. 빅모델에 따라 GPU용량도 큰 것을 필요로 합니다. 그에 따라 비용도 증대되고 있습니다.

    5.  FineTuning하는 과정(Training)을 Script로 공개되어 있습니다. 간단하게는 10줄이 안됩니다.

    6. 새롭게 튜닝한 모델을 공유하는 체계를 소개하고 있습니다.

 

그 다음은 각 미디어 또는 분야별로 자세히 설명하고 있습니다.

     1. NLP : 글자 데이터 처리

     2. Audio :  음성 데이터 처리

     3. Computer Vision : 영상 데이터 처리.

     4. MultiModal :   동영상 데이터 처리..

 

 

 

Transformer 모델에 대한 기술적 요소는 아래에 잘 정리되어 있습니다.

 

Transformer 분석(2): Transformer의 Encoder 이해하기 | by daewoo kim | Medium

 

Transformer 분석(2): Transformer의 Encoder 이해하기

Transformer Encoder의 구조에 대해서 알아보자…

moon-walker.medium.com

 

https://arxiv.org/abs/1706.03762

 

Attention Is All You Need

The dominant sequence transduction models are based on complex recurrent or convolutional neural networks in an encoder-decoder configuration. The best performing models also connect the encoder and decoder through an attention mechanism. We propose a new

arxiv.org

https://wikidocs.net/31379

 

16-01 트랜스포머(Transformer)

* 이번 챕터는 앞서 설명한 어텐션 메커니즘 챕터에 대한 사전 이해가 필요합니다. 트랜스포머(Transformer)는 2017년 구글이 발표한 논문인 Attention i…

wikidocs.net

 

https://theaisummer.com/transformer/

 

How Transformers work in deep learning and NLP: an intuitive introduction | AI Summer

An intuitive understanding on Transformers and how they are used in Machine Translation. After analyzing all subcomponents one by one such as self-attention and positional encodings , we explain the principles behind the Encoder and Decoder and why Transfo

theaisummer.com

 

728x90
반응형
728x90
반응형

미국의 Assembly AI사는 Conformer-1 이라는 아키텍처를 음성인식에 적용하여 좋은 성과를 이루었다고 블로그를 통해 설명하였습니다.

 

Conformer-1모델은  Transformer 모델과 Convolutional 모델의 장점을 합친 것이라고 소개하고 있습니다.

 

Conformer모델은 2020년에 구글브레인(Google Brain)을 통해 소개된 음성인식용 신경망 체계입니다.

Conformer모델 내의 Transformer Archtecture는 병렬화 및 Attention mechanisim의 장정이 있다고 이미 알려져 있습니다.
Convolutional layer들을 Transformer 구조에 추가를 함으로써, Conformer모델은 지협적인(Local) 요소 및 전역(Global)적인 특성을 모두 모델링할 수 있다는 특성을 가지게 됩니다. ( 2000년도경에 나타난 Wavelet 처럼, Wavelet을 통한 분석은 기존의 Fourier Transform을 통한 주파수 분석보다 다양한 스케일로 분석을 수행할 수 있었죠.)

 

Assembly AI는 Conformer architecture는 최고의 성능을 나타내지만, 연산량 및 메모리 사용량을 줄여 효율성이 증대되었다고 합니다. 

650,000시간의 데이터를 통해  인간 수준의 성능에 도달하였고, 다양한 형태의 데이터 특히 잡음이 섞인 데이터에 대해 높은 성능을 나타냈다고 설명하고 있습니다.

 

구체적인 사항은 

https://www.assemblyai.com/blog/conformer-1/

에서 확인할 수 있습니다.

 

기계번역에서는 Transformer모델과 CNN기반의 모델이 상용화 측면에서 경쟁을 하고 있습니다.

 

 

 

Efficient Conformer encoder model architecture.  출처 : Efficient Conformer 관련 논문

 

728x90
반응형

+ Recent posts