728x90
반응형

AI분야에서  거의 모든 분야에서 Transformer모델이 널리 적용되고 있습니다.

 

HugginfFace 에서는 Transformer 라이브러리를 제공하고 있으며,

이를 통해  다양한 Pretrained 모델을 Fine Tunning할 수 있는 코드를 소개하고 있습니다.

 

https://huggingface.co/docs/transformers/index

 

🤗 Transformers

Reinforcement learning models

huggingface.co

 튜토리얼의 내용을 보면 간단합니다. 

     1. 추론(inference)은 다단계를 거쳐(pipelines) 활용 가능합니다.

     2.  라이브러리를 통해 쉽게 구현할 수 있습니다.

     3. 물론 제일 중용한 것은 데이터의 준비입니다. 아마도 이 부분이 제일 많은 작업을 필요로 할 것입니다.

     4. 기존의 Pretrained 모델을 Fine튜닝합니다.  인프라적인 요소입니다. 많은 비용이 필요할 수 있습니다. 빅모델에 따라 GPU용량도 큰 것을 필요로 합니다. 그에 따라 비용도 증대되고 있습니다.

    5.  FineTuning하는 과정(Training)을 Script로 공개되어 있습니다. 간단하게는 10줄이 안됩니다.

    6. 새롭게 튜닝한 모델을 공유하는 체계를 소개하고 있습니다.

 

그 다음은 각 미디어 또는 분야별로 자세히 설명하고 있습니다.

     1. NLP : 글자 데이터 처리

     2. Audio :  음성 데이터 처리

     3. Computer Vision : 영상 데이터 처리.

     4. MultiModal :   동영상 데이터 처리..

 

 

 

Transformer 모델에 대한 기술적 요소는 아래에 잘 정리되어 있습니다.

 

Transformer 분석(2): Transformer의 Encoder 이해하기 | by daewoo kim | Medium

 

Transformer 분석(2): Transformer의 Encoder 이해하기

Transformer Encoder의 구조에 대해서 알아보자…

moon-walker.medium.com

 

https://arxiv.org/abs/1706.03762

 

Attention Is All You Need

The dominant sequence transduction models are based on complex recurrent or convolutional neural networks in an encoder-decoder configuration. The best performing models also connect the encoder and decoder through an attention mechanism. We propose a new

arxiv.org

https://wikidocs.net/31379

 

16-01 트랜스포머(Transformer)

* 이번 챕터는 앞서 설명한 어텐션 메커니즘 챕터에 대한 사전 이해가 필요합니다. 트랜스포머(Transformer)는 2017년 구글이 발표한 논문인 Attention i…

wikidocs.net

 

https://theaisummer.com/transformer/

 

How Transformers work in deep learning and NLP: an intuitive introduction | AI Summer

An intuitive understanding on Transformers and how they are used in Machine Translation. After analyzing all subcomponents one by one such as self-attention and positional encodings , we explain the principles behind the Encoder and Decoder and why Transfo

theaisummer.com

 

728x90
반응형
728x90
반응형

현지시간 2월 2일, 구글의 CEO( 선다 피차이)는  Open AI의 Chat-GPT의 동향에 놀라,  [몇 주 또는 몇 달 이내에 대규모 언어모델을 출시] 할 것이라고 한다.  ( 출처 :  인공지능 신문, https://www.aitimes.kr/news/articleView.html?idxno=27289 )

 

신문에서는 

    선다 피차이 CEO, '챗GPT'보다 우수한... ”대규모 AI언어 모델, 앞으로 몇 주, 몇 달 안에 출시할 것!"

라고 제목을 붙였습니다.

 

필자가 새로 알게된 사실이나 강조하고자 하는 키워드들은

  • 생성(AI) : Generative AI ,    글이나, 그림, 문장 등을 생성해 준다.
  • LLM : 대규모 언어모델 ( Large Language Model)
  • 구글의 람다(LaMDA : Language Model for Dialogue Applications ) : 2022년 5월, Google Conference,  Transformer 신경망 아키텍처 사용.
  • ChatGPT :   LLM, GPT-3.5 기반,  지도학습과 강화학습을 모두 사용

 

전체 문맥(의도사항) 및 필자의 의견사항 ::

    OpenAI의 ChatGPT의 공개(2022년 11월) 및 사용자의 반응에 대해 Google이 놀라서, 구글의 챗봇을 곧 공개하겠다고 Announce함.  ( 기술적으로 OpenAI가 공개한 내용에 대해 대수롭게 여기지 않다가,  기술적 요소 이외의 반응이 너무 Hot해서, 공개 계획을 밝혔을 수도 있다고 필자는 생각합니다. ChatGTP의 공개는 Feedback을 받아서 개선하겠다는 강화학습의 목적성이 있기 때문입니다.  세상이 AI를 너무 얕게 이해하다가, 뭔가를 하니 그 반응이 너무 큰 것도 있지 않나 싶습니다.)

728x90
반응형

+ Recent posts