(Meta AI) LLaMA 사용법

AI 2023. 3. 21. 06:00

LLaMA (Large Language Model Meta AI) 
2023-02 발표


//-----------------------------------------------------------------------------

논문 LLaMA: Open and Efficient Foundation Language Models
https://research.facebook.com/publications/llama-open-and-efficient-foundation-language-models/

GPT-3등 다른 모델과 성능 비교 벤치마크

 


//-----------------------------------------------------------------------------
사용법
https://huggingface.co/docs/transformers/main/model_doc/llama


* 유출된 모델 다운로드 방법
https://aituts.com/llama/
https://rentry.org/llama-tard-v2

 

* 원본모델파일을 Hugging Face Transformers 형식으로 변환
python src/transformers/models/llama/convert_llama_weights_to_hf.py --input_dir /path/to/downloaded/llama/weights --model_size 7B --output_dir /output/path 

    - convert_llama_weights_to_hf.py 는 https://github.com/huggingface/transformers 에 포함되어 있음
    - ex)
python convert_llama_weights_to_hf.py --input_dir LLaMA-m --model_size 7B --output_dir LLaMA-m/output7b 

 

* 예제 코드

import torch
from transformers import AutoTokenizer, LlamaForCausalLM, LlamaTokenizer

# 로딩 시간 : 3분
model = LlamaForCausalLM.from_pretrained(
    "../llama/output7b/llama-7b/", revision="float16", torch_dtype=torch.float16
).cuda()

tokenizer = LlamaTokenizer.from_pretrained(
    "../llama/output7b/tokenizer/")

prompt = "Hey, are you consciours? Can you talk to me?"
inputs = tokenizer(prompt, return_tensors="pt").input_ids.cuda()

# Generate
generate_ids = model.generate(inputs, max_length=30)
ret = tokenizer.batch_decode(
    generate_ids, skip_special_tokens=True, clean_up_tokenization_spaces=False)[0]
print(ret)

 

반응형

'AI' 카테고리의 다른 글

(Meta AI) LLaMA 4bit 실행 방법  (0) 2023.03.22
text-generation-webui 사용법  (0) 2023.03.21
GPT-J 사용법  (0) 2023.03.03
[AI 음악] Riffusion 사용법  (0) 2023.02.26
OpenAI Whisper 음성 인식 사용법  (5) 2023.02.24
Posted by codens


반응형