반응형
gensim.models.Word2Vec.train 


 Update the model’s neural weights from a sequence of sentences (can be a once-only generator stream). For Word2Vec, each sentence must be a list of unicode strings. (Subclasses may accept other examples.)
문장의 시퀀스에서 모델의 신경 가중치를 업데이트하십시오 (한 번만 생성기 스트림 일 수 있음). Word2Vec의 경우 각 문장은 유니 코드 문자열 목록이어야합니다. 서브 클래스는 다른 예를 받아들이는 일이 있습니다.

 To support linear learning-rate decay from (initial) alpha to min_alpha, either total_examples (count of sentences) or total_words (count of raw words in sentences) should be provided, unless the sentences are the same as those that were used to initially build the vocabulary.
(초기) alpha에서 min_alpha까지의 선형 학습 률 감소를 지원하려면, 문장이 처음 빌드에 사용 된 것과 같지 않으면 total_examples (문장의 수) 또는 total_words (문장의 원시 단어의 수)가 제공되어야합니다 어휘.






import gensim

sentences = [["my", "name", "is", "jamie"], ["jamie", "is", "cute"]]
model = gensim.models.Word2Vec(sentences)


#----------------------------------------------------------------------

sentences_vocab = SentenceReader('corpus.txt')
sentences_train = SentenceReader('corpus.txt')

model = gensim.models.Word2Vec()
model.build_vocab(sentences_vocab)
model.train(sentences_train)

#----------------------------------------------------------------------

class SentenceReader:

    def __init__(self, filepath):
        self.filepath = filepath

    def __iter__(self):
        for line in codecs.open(self.filepath, encoding='utf-8'):
            yield line.split(' ')


#----------------------------------------------------------------------

model.save('model')
model = gensim.models.Word2Vec.load('model')


model.most_similar(positive=["한국/Noun", "도쿄/Noun"], negative=["서울/Noun"], topn=1)
# [("일본/Noun", 0.6401702165603638)]


#----------------------------------------------------------------------

import multiprocessing

config = {
    'min_count': 5,  # 등장 횟수가 5 이하인 단어는 무시
    'size': 300,  # 300차원짜리 벡터스페이스에 embedding
    'sg': 1,  # 0이면 CBOW, 1이면 skip-gram을 사용한다
    'batch_words': 10000,  # 사전을 구축할때 한번에 읽을 단어 수
    'iter': 10,  # 보통 딥러닝에서 말하는 epoch과 비슷한, 반복 횟수
    'workers': multiprocessing.cpu_count(),
}
model = gensim.models.Word2Vec(**config)


#----------------------------------------------------------------------

...


반응형
반응형
구분일정대상시행처
구분일정대상시행처

3월

2017년 3월 9일 (목)

고등학교 1, 2학년

서울특별시교육청
(경기, 광주 미실시)

고등학교 3학년

서울특별시교육청

4월

2017년 4월 12일 (수)

고등학교 3학년

경기도교육청

6월

2017년 6월 1일 (목)

고등학교 1, 2학년

부산광역시교육청
(서울, 세종 미실시)

고등학교 3학년 - 대수능 모의평가

한국교육과정평가원

7월

2017년 7월 12일 (수)

고등학교 3학년

인천광역시교육청

9월

2017년 9월 6일 (수)

고등학교 1, 2학년

인천광역시교육청
(경기, 세종 미실시)

고등학교 3학년 - 대수능 모의평가

한국교육과정평가원

10월

2017년 10월 17일 (화)

고등학교 3학년

서울특별시교육청

11월

2017년 11월 22일 (수)

고등학교 1, 2학년

경기도교육청

시행지역 및 일정은 각 지역교육청 및 시행처 사정에 따라 변경 될 수 있습니다.


반응형
반응형

 Wordcloud 만들기 


from collections import Counter
from konlpy.tag import Twitter
import pytagcloud
 
f = open('blog_data.txt')
data = f.read()
 
nlp = Twitter()
nouns = nlp.nouns(data)
 
count = Counter(nouns)
tags2 = count.most_common(40)
taglist = pytagcloud.make_tags(tags2, maxsize=80)
pytagcloud.create_tag_image(taglist, 'wordcloud.jpg', size=(900, 600), fontname='korean', rectangular=False)
 
f.close()



반응형
반응형

파이썬에 내장되어 있는 함수 join, split을 이용해 문자열(String)을 리스트(List)로 변환하는 방법입니다. 

Join 함수는 리스트를 특정 구분자를 포함해 문자열로 변환해 주는 함수입니다. 

Split함수는 문자열을 특정 구분자를 기준으로 나누어 리스트로 변환해 주는 함수입니다.

리스트(List)를 특정 구분자를 포함해 문자열(String)으로 변환


animals = ['사자', '코끼리', '기린', '원숭이', '바나나원숭이']


print ",".join(animals)

# >> 사자,코끼리,기린,원숭이,바나나원숭이 


print "\n".join(animals)

# >> 사자

# >> 코끼리 

# >> 기린 

# >> 원숭이

# >> 바나나원숭이


print "/".join(animals)

# >> 사자/코끼리/기린/원숭이/바나나원숭이

문자열(String)을 특정 '구분자'를 기준으로 리스트(List) 로 변환

animal_string = "/".join(animals)

# >> 사자/코끼리/기린/원숭이/바나나원숭이


animal_split = animal_string.split("/")

print animal_split

# >> ["사자", "코끼리", "기린", "원숭이", "바나나원숭이"]





...

반응형
반응형
여행 서비스도 모바일 퍼스트 

 http://www.bloter.net/archives/284358

글로벌 애드테크 기업 크리테오가 유로모니터와 파트너십을 통해 2017년 2월 온라인으로 여행 상품을 검색·구매한 200명의 국내 여행객들을 대상으로 온라인 소비자 설문조사를 했다.

연구 결과에 따르면, 2016년 한국 온라인 여행 상품 거래 5건 중 1건이 모바일을 통해 이루어졌다. 모바일 여행 판매는 계속해서 증가할 것으로 예상된다. 본 연구는 여행 업계와 온라인 여행사가 여행자들의 구매를 극대화하는데 필요한 최적의 디지털 전략을 채택하도록 돕기 위해 진행됐으며, 온라인 여행 환경과 한국인의 여행 검색 및 구매 행동을 분석했다.


여행 상품·예약에도 단연 모바일 대세


보고서는 모바일을 통한 여행 매출이 급증하고 있으며, 온라인을 통한 여행 매출 성장을 앞지르고 있다는 점을 보여준다. 모바일 여행 매출은 2011년에서 2016년까지 연평균 59%의 성장률을 기록했으며, 2020년까지 모바일 판매량이 온라인 전체 예약 판매량의 절반에 이를 것으로 예측했다.

여행 예약에도 모바일이 대세다. 모든 연령대에 걸쳐 스마트폰은 여행 옵션 검색에 가장 많이 사용되는 기기로 43%의 응답자가 검색에 모바일 앱이나 웹을 가장 많이 사용한다고 답변했다. 데스크톱과 노트북이 각각 36%와 20%를 차지해 뒤를 이었다.


그 중에도 앱의 선호도가 특히 높게 나타났다. 모바일 사용자의 77%가 여행 옵션 검색에 앱을 활용한다고 답했다. 세대별로 비교했을 때, 밀레니엄 세대에서 특히 앱 선호도가 높은 것으로 나타났다. 밀레니엄 세대들의 38%가 다른 플랫폼보다 앱을 통해 여행 옵션 검색할 정도로 모바일 앱을 가장 많이 사용한다.


반면, X세대 및 베이비붐 세대는 여행 제품이나 서비스의 온라인 검색을 위해 데스크톱을 사용한다고 답변했다. 데스크톱과 노트북 대신 모바일을 통한 검색을 선호한다고 답한 응답자 중 32%가 편리성을 이유로 손꼽았으며, 74%가 이동성을 주요 이유로 선택했다.


검색은 모바일, 예약은 데스크톱


여행에 대한 검색 역시 주로 모바일로 이루어진다. 하지만 실제 여행을 예약하는 데는 데스크톱이 가장 많이 사용한다. 데스크톱은 예약에 사용되는 기본 기기로, 데스크톱에서 발생하는 온라인 여행 판매는 전체의 38%, 모바일은 31%, 노트북은 26%를 차지했다.

데스크톱을 통한 예약을 선호하는 이유로 ‘큰 화면으로 구매하는 것이 편리함'(45%)과 ‘작은 화면에서는 많은 개인 정보를 입력하기 어려움'(36%)을 꼽았다. 반면, 모바일을 통한 예약을 선호하는 이유로는 ‘어디에서나 예약할 수 있음'(62%)과 ‘데스크톱과 노트북보다 편리함'(35%)이라는 답변이 많았다.


이 외 크리테오는 연구 결과를 통해 구매에 영향을 미치는 요인에 대한 핵심 사항을 다음과 같이 정리했다.


  • 온라인 예약을 하는 주요 요인은 편리성이다. 84%의 응답자가 온라인을 통한 예약의 선호 이유로 시간 절약(51%), 제품 비교의 용이성(44%), 전화 및 실제 예약 대비 편리함(38%) 등을 선택했다.
  • 다음으로 중요한 온라인 예약 이유는 가격이다. 응답자의 35%가 온라인을 통한 여행 상품 구매가 가격 측면에서 더 나은 거래를 제공한다고 믿는다.
  • 온라인 여행 구매의 절반은 숙박 및 항공 구매인 것으로 나타났다.
  • 온라인 구매 시 한국인은 온라인 여행 가격 비교(58%)를 통해 예약을 진행하며, 가격 측면에서 나은 선택권을 제공하기 때문(60%)이라고 응답했다.


한국 구매자의 89%가 리타깃팅 광고를 본 적 있으며, 62%가 광고를 클릭해 본 적 있다고 답변했다.

크리테오 이정은 부장은 “한국의 경우 온라인 구매가 활성화되고, 간편한 결제 서비스가 확산되고 있다”라며 “여행 시장에서의 온라인 구매가 점점 보편화되면서 여행업계 및 OTA는 맞춤 마케팅에 더 많은 투자를 해야 하며, 이를 위해서는 다양한 디바이스를 사용하는 경우에도 일관되며 개인 연관성이 높은 쇼핑 경험을 제공해야 할 것”이라고 말했다.



...


반응형
반응형

OTSAW Robotics O-R3. World's first ground-aerial outdoor security robot

 로봇자율주행, 무인감시

두바이 거리 순찰, 자율주행차가 맡는다


반응형
반응형


네이버 비즈니스 플랫폼(NBP)의 클라우드 서비스인 ‘네이버 클라우드 플랫폼‘은 매달 마지막 주 목요일 저녁마다 신규 상품을 추가한다. NBP는 이번에도 네이버 클라우드 플랫폼에 네이버 API 중심의 신규상품 14개가 새롭게 추가됐다고 6월30일 홈페이지를 통해 밝혔다.

공개된 AI API는 ▲클로바 스피치 리코그니션 ▲클로바 스피치 씬티시스 ▲클로바 페이스 리코그니션 등을 포함해 총 6종이다. 이 외에 네이버 지도를 포함한 네이버 서비스 API는 3종, 보안 컴퓨팅 상품 6종이 있다.

신규 AI API 5종

■ 클로바 스피치 레코그니션(Clova Speech Recognition, CSR)
– 사람의 목소리를 텍스트로 바꿔 음성 인식 서비스에 활용할 수 있다. 한국어와 영어, 일어, 중국어(간체)를 지원한다.

■ 클로바 스피치 씬티시스(Clova Speech Synthesis, CSS)
– 음성 합성 API로 입력한 텍스트를 자연스러운 목소리로 재생해준다.

■ 클로바 페이스 레코그니션(Clova Face Recognition, CFR)
– 이미지 속의 얼굴을 감지하고 인식하여 얻은 정보를 제공한다. 네이버가 보유한 이미지 DB를 이용한다.

■ 파파고 SMT
– 대규모 학습 데이터에 기반을 두어 언어 자동 번역 서비스를 제공한다. 네이버 서비스를 통해 번역 품질에 대한 축적된 피드백으로 기술 한계를 보완했다.

■ 파파고 한국어 이름 로마화 (Papago Korean Name Romanizer)
– 현행 로마자 표기법에 맞춰 한글 이름을 로마자로 변환하는 서비스. 영어판 명함 작성, 신용카드 발급, 여권 발급 등에 사용할 수 있는 API이다.

신규 네이버 서비스 API 3종

■ 네이버 지도 API
– 네이버 지도 기능을 활용해 위치 기반 서비스를 만들 수 있도록 돕는다. 실시간 교통상황을 표시하거나 360도 파노라마 뷰를 활용하는 등 필요에 맞는 지도를 만들 수 있다.

■ 캡차 (CAPTCHA)
– 이미지를 보여주고 정답을 맞히게 해 사람과 컴퓨터를 판별하고 어뷰징을 막아준다. 입력 주체가 사람인지 컴퓨터인지 판별하기 위해 스타일이 다른 두 종류의 캡차 이미지를 랜덤으로 제공한다.

■ nShortURL
– 긴 URL을 짧게 줄여 글자수 제한이 있는 SNS나 SMS를 이용할 때 도움을 준다. 최근 유해 정보를 통해 유해 사이트 URL 단축은 차단한다. QR코드 이미지를 무료로 함께 생성할 수 있다.

박원기 NBP 대표는 “네이버의 기술과 서비스 노하우가 반영된 API 상품들은 고객들이 가장 기대하고 있는 상품 중 하나로, 이러한 클라우드 상품을 통해 기업들은 기술 및 장애 대응 등의 지원을 받으며 네이버의 서비스를 한껏 활용할 수 있게 됐다”라며 “앞으로도 AI 및 API 상품 라인업을 지속해서 추가함으로써 클라우드 플랫폼을 통해 내부의 기술과 노하우들을 널리 확산하도록 할 것”이라고 덧붙였다.

반응형
반응형

구주이배


구하는게 뭐지?

주어진게 뭐지?

이것을 어떻게 이용하지?

배운게 뭐가 있지?



...

반응형

+ Recent posts