목록Deep Learning (51)
Note
# 패키지 로딩 from tensorflow.keras.models import Sequential from tensorflow.keras.layers import Dense, Dropout # 모델 정의 def fit_and_evaluate(X_train, y_train, X_test, y_test): model = Sequential() model.add(Dense(256, input_shape=(vocab_size,), activation='relu')) model.add(Dropout(0.5)) model.add(Dense(128, activation='relu')) model.add(Dropout(0.5)) model.add(Dense(num_classes, activation='softmax'..
# 패키지 로딩 import pandas as pd from sklearn.datasets import fetch_20newsgroups import matplotlib.pyplot as plt from tensorflow.keras.preprocessing.text import Tokenizer from tensorflow.keras.utils import to_categorical # 사이킷런 20개 뉴스 그룹 데이터 로딩 # subset = train 은 훈련 데이터만 리턴 newsdata = fetch_20newsgroups(subset = 'train') data = pd.DataFrame(newsdata.data, columns = ['email']) data['target'] = pd.Ser..
import numpy as np from tensorflow.keras.preprocessing.text import Tokenizer texts = ['탐스러운 사과', '맛있는 바나나', '노랗고 길쭉한 바나나 바나나', '저는 과일이 좋아요'] tokenizer = Tokenizer() tokenizer.fit_on_texts(texts) print(tokenizer.word_index) # mode 옵션은 count, binary, tfidf, freq print(tokenizer.texts_to_matrix(texts, mode = 'count')) 각 단어에 숫자 1부터 시작하는 정수 인덱스 부여하기 텍스트 데이터에 texts_to_matrix() 적용 입력된 텍스트 데이터로부터 행렬(mat..
1. 잠재 의미 분석 ( Latent Semantic Analysis, LSA ) 토픽 모델링을 위해 최적화된 알고리즘은 아니지만, 아이디어를 제공하여 밑바탕이 된 알고리즘이다. BoW에 기반한 알고리즘은 기본적으로 단어 빈도수에 기반한 수치화 방법이기 때문에 의미를 고려하지 못한다는 단점이 있는데, 의미를 고려하지 못하는 것을 보완하기 위해 잠재적인 의미를 끌어내는 방법으로 사용한다. 특이값 분해를 통해 차원을 축소하고 축소된 차원에서 근접 단어들을 토픽으로 묶는다. 2. 잠재 디리클레 할당 ( Latent Dirichlet Allocation, LDA ) LDA는 문서 집합으로부터 어떤 토픽이 존재하는지 알아내기 위한 알고리즘이며, 단어의 수는 신경 쓰지 않는다. 즉, 단어가 특정 토픽에 존재할 확률..
Word2Vec은 추론 기반 방법이다. 여기서 사용하는 추론이란 주변 단어나 맥락이 주어졌을 때, 무슨 단어가 들어가는지를 추측하는 것이다. 통계기반 방법의 단점 대규모 말뭉치를 다룰 때 메모리상의 문제가 발생한다. 한 번에 학습 데이터 전체를 진행한다. 학습을 통해서 개선하기가 어렵다. Word2Vec은 위 단점을 보완하기 위한 방법이다. 정의 - 단어간 유사도를 반영하여 단어를 벡터로 바꿔주는 임베딩 방법론이다. 원-핫 벡터 형태의 sparse matrix가 가지는 단점을 보완하기 위해 저 차원의 공간에 벡터로 매핑하는 것이 특징이다. - Word2Vec은 비슷한 위치에 등장하는 단어들은 비슷한 의미를 가진다라는 가정을 기반으로 학습을 진행한다. 1) CBOW 주변에 있는 단어들을 가지고 중간에 있는..