반응형
반응형
gensim.models.Word2Vec.train 


 Update the model’s neural weights from a sequence of sentences (can be a once-only generator stream). For Word2Vec, each sentence must be a list of unicode strings. (Subclasses may accept other examples.)
문장의 시퀀스에서 모델의 신경 가중치를 업데이트하십시오 (한 번만 생성기 스트림 일 수 있음). Word2Vec의 경우 각 문장은 유니 코드 문자열 목록이어야합니다. 서브 클래스는 다른 예를 받아들이는 일이 있습니다.

 To support linear learning-rate decay from (initial) alpha to min_alpha, either total_examples (count of sentences) or total_words (count of raw words in sentences) should be provided, unless the sentences are the same as those that were used to initially build the vocabulary.
(초기) alpha에서 min_alpha까지의 선형 학습 률 감소를 지원하려면, 문장이 처음 빌드에 사용 된 것과 같지 않으면 total_examples (문장의 수) 또는 total_words (문장의 원시 단어의 수)가 제공되어야합니다 어휘.






import gensim

sentences = [["my", "name", "is", "jamie"], ["jamie", "is", "cute"]]
model = gensim.models.Word2Vec(sentences)


#----------------------------------------------------------------------

sentences_vocab = SentenceReader('corpus.txt')
sentences_train = SentenceReader('corpus.txt')

model = gensim.models.Word2Vec()
model.build_vocab(sentences_vocab)
model.train(sentences_train)

#----------------------------------------------------------------------

class SentenceReader:

    def __init__(self, filepath):
        self.filepath = filepath

    def __iter__(self):
        for line in codecs.open(self.filepath, encoding='utf-8'):
            yield line.split(' ')


#----------------------------------------------------------------------

model.save('model')
model = gensim.models.Word2Vec.load('model')


model.most_similar(positive=["한국/Noun", "도쿄/Noun"], negative=["서울/Noun"], topn=1)
# [("일본/Noun", 0.6401702165603638)]


#----------------------------------------------------------------------

import multiprocessing

config = {
    'min_count': 5,  # 등장 횟수가 5 이하인 단어는 무시
    'size': 300,  # 300차원짜리 벡터스페이스에 embedding
    'sg': 1,  # 0이면 CBOW, 1이면 skip-gram을 사용한다
    'batch_words': 10000,  # 사전을 구축할때 한번에 읽을 단어 수
    'iter': 10,  # 보통 딥러닝에서 말하는 epoch과 비슷한, 반복 횟수
    'workers': multiprocessing.cpu_count(),
}
model = gensim.models.Word2Vec(**config)


#----------------------------------------------------------------------

...


반응형
반응형

[TEDx] 왜 내가 하루에 책을 읽어야하는지(그리고 왜 그렇게해야하는지) 33 % 법칙 - 타이 로페즈


반응형
반응형

책을 읽어야 하는 이유 (영화 '디테치먼트')





.

반응형
반응형

[2017 GSC] 스타트업, 겁먹지 말고 도전하라 메가스터디 그룹 손주은 회장


반응형
반응형
구분일정대상시행처
구분일정대상시행처

3월

2017년 3월 9일 (목)

고등학교 1, 2학년

서울특별시교육청
(경기, 광주 미실시)

고등학교 3학년

서울특별시교육청

4월

2017년 4월 12일 (수)

고등학교 3학년

경기도교육청

6월

2017년 6월 1일 (목)

고등학교 1, 2학년

부산광역시교육청
(서울, 세종 미실시)

고등학교 3학년 - 대수능 모의평가

한국교육과정평가원

7월

2017년 7월 12일 (수)

고등학교 3학년

인천광역시교육청

9월

2017년 9월 6일 (수)

고등학교 1, 2학년

인천광역시교육청
(경기, 세종 미실시)

고등학교 3학년 - 대수능 모의평가

한국교육과정평가원

10월

2017년 10월 17일 (화)

고등학교 3학년

서울특별시교육청

11월

2017년 11월 22일 (수)

고등학교 1, 2학년

경기도교육청

시행지역 및 일정은 각 지역교육청 및 시행처 사정에 따라 변경 될 수 있습니다.


반응형
반응형

리더는 겸손해야 한다.

직원에게 기회를 주기 위해서다.

리더가 할 일은 직원들이 편하게 아이디어를 나누고,

어떤 ‘미친’ 생각이라도 표현할 수 있도록 하는 것이다.

- 조 앤드루 (법률회사 덴턴스 회장) 


실패하는 리더는 대부분 ‘능력 부족’이 아닌,

‘자만’ 때문에 망합니다.

어렵게 쌓아올린 성공의 탑을 일순간의 자만으로

무너뜨리는 것은 참으로 안타까운 일입니다.

리더가 결코 잊어서는 안될 단 하나의 단어,

바로 ‘겸손’입니다.



...

반응형

+ Recent posts