Note
KaKao KoGPT 본문
728x90
import torch
from transformers import AutoTokenizer, AutoModelForCausalLM
tokenizer = AutoTokenizer.from_pretrained(
'kakaobrain/kogpt', revision='KoGPT6B-ryan1.5b-float16', # or float32 version: revision=KoGPT6B-ryan1.5b
bos_token='[BOS]', eos_token='[EOS]', unk_token='[UNK]', pad_token='[PAD]', mask_token='[MASK]'
)
model = AutoModelForCausalLM.from_pretrained(
'kakaobrain/kogpt', revision='KoGPT6B-ryan1.5b-float16', # or float32 version: revision=KoGPT6B-ryan1.5b
pad_token_id=tokenizer.eos_token_id,
torch_dtype='auto', low_cpu_mem_usage=True
).to(device='cuda', non_blocking=True)
_ = model.eval()
prompt = '인간처럼 생각하고, 행동하는 \'지능\'을 통해 인류가 이제까지 풀지 못했던'
with torch.no_grad():
tokens = tokenizer.encode(prompt, return_tensors='pt').to(device='cuda', non_blocking=True)
gen_tokens = model.generate(tokens, do_sample=True, temperature=0.8, max_length=64)
generated = tokenizer.batch_decode(gen_tokens)[0]
print(generated)
코드 출처 : https://github.com/kakaobrain/kogpt
'Deep Learning > NLP' 카테고리의 다른 글
한글, 영어 구분 함수 (0) | 2022.06.16 |
---|---|
RNN을 이용한 텍스트 생성 2 (0) | 2022.05.25 |
RNN을 이용한 텍스트 생성 1 (0) | 2022.05.24 |
Py-Hanspell (0) | 2022.05.15 |
PyKoSpacing (0) | 2022.05.11 |
Comments