반응형
반응형

 Customized Konlpy 사용하기

 

okt 에 dict 추가하기

https://inspiringpeople.github.io/data%20analysis/ckonlpy/

 

Customized Konlpy 사용하기

Text Mining 데이터 분석은 다른 데이터 종류 분석보다 손이 많이 가고 데이터를 더 많이 들여다보아야 한다.특히, 한국어 Text Mining은 같은 의미 단어라도 뒤에 붙는 조사/어미에 따라 변형될 수 있

inspiringpeople.github.io

Ckonlpy로 전처리하고 형태소 분석하기

전처리 단에서는 단어 추가, 치환, 필터, 복합명사 변환 작업 등을 하면서 data cleansing 작업을 한다.
Ckonlpy에서는 add_dictionary 함수와 Postprocessor 모듈을 통해서 이와 같은 작업을 할 수 있다.

  • 단어 추가 : domain specific한 단어 추가 (ex. 아이오아이, 트와이스 ..)
  • 단어 치환 : 오타 관련 cleansing 작업 (ex. 잇다 -> 있다 ..)
  • 단어 선택 : 선택한 단어/품사만 추출
  • 단어 필터 : 너무 general 데이터 분석에 도움이 안되는 단어들 삭제 (ex. 나, 너..)
  • 단어 결합 : n-gram 이상의 단어를 한 단어로 결합

단어 추가 (add_dictionary)

기존 트위터 분석기 사전에 존재하지 않는 단어를 추가할 때 사용한다.
자신이 분석하는 domain specific 단어를 추가할 때 유용하다.

  • add_dictionary 함수 사용 : 단어 또는 단어 리스트 단위로 등록
  • 사전 파일 등록 : 파일 단위로 단어 뭉치 등록
    위치 : customized_konlpy/ckonlpy/data/twitter (자신이 등록하는 파일의 품사에 따라 등록)

주의사항 !!!
파일 단위로 단어를 등록하는 경우에는 등록한 이후 pip install customized_konlpy를 다시 실행시켜줘야 반영이 된다.

반응형
반응형

konlpy에서 다음과 같은 에러가 나옵니다. TypeError: No matching overloads found for kr.lucypark.okt.OktInterface.tokenize(list,java.lang.Boolean,java.lang.Boolean), options are: public java.util.List kr.lucypark.okt.OktInterface.tokenize(java.lang.String,java.lang.Boolean,java.lang.Boolean)

`from konlpy.tag import Okt
from konlpy import jvm
from konlpy.corpus import kolaw
import nltk
from collections import Counter

twitter=Okt()

file = open("d:/study/test.txt", 'r')
data = file.readlines()
file.close()
data

news_word=twitter.nouns(data)`

 

news_word=twitter.nouns(data)

이 부분에서 자꾸 에러가 나는데요.

 

현재 data는 test.txt의 각 줄을 원소로 하는 문자열 배열입니다.

Konlpy의 함수는 배열을 인자로 받지 않고, 보통 문자열을 받습니다.
이 경우에는 data를 for문을 돌면서 사용하셔야 합니다.

for data in line:
   news_word = twitter.nouns(line)
   
   

이렇게 얻은 news_word를 적절히 활용하시면 됩니다.

반응형
반응형
fontpath = "C:/Windows/Fonts/NanumBarunGothic.ttf"

[python] SyntaxError: (unicode error) 'unicodeescape' codec can't decode bytes in position 2-3: truncated \UXXXXXXXX escape 에러 해결법

 

\를  /로 변경해서 적용하니까 에러 안남. 

반응형
반응형

seaborn: statistical data visualization

 

seaborn.pydata.org/examples/index.html

 

Example gallery — seaborn 0.11.0 documentation

 

seaborn.pydata.org

 

반응형
반응형

gspread를 이용하여 Python에서 구글 시트 연동하기

public-google-sheets-parser 

yurimkoo.github.io/python/2019/07/20/link-with-googlesheets-for-Python.html

 

유림's Blog

베짱이가 되고 싶은 개미의 기술 블로그

yurimkoo.github.io

 

googlesheets를 이용하여 R에서 구글 시트 연동하기

yurimkoo.github.io/r/2019/07/20/link-with-googlesheets-for-R.html

 

유림's Blog

베짱이가 되고 싶은 개미의 기술 블로그

yurimkoo.github.io

 

반응형
반응형

Jupyter 영화 리뷰 분류: 이진 분류 문제

nbviewer.jupyter.org/github/cyc1am3n/Deep-Learning-with-Python/blob/master/Chap03-getting_started_with_neural_networks/Chap03-4-classifying_movie_reviews.ipynb

 

Jupyter Notebook Viewer

마지막으로 손실함수와 옵티마이저를 선택하면 학습 할 준비가 끝납니다. 이 문제는 이진 분류 문제이고 신경망의 출력이 확률이기 때문에, binary_crossentropy손실이 적합합니다.(mean_squared_error도

nbviewer.jupyter.org

네이버 영화 리뷰 감성 분류

github.com/rickiepark/python-machine-learning-book-3rd-edition/blob/master/ch08/naver_movie_review.ipynb

 

rickiepark/python-machine-learning-book-3rd-edition

"머신 러닝 교과서"(길벗, 2020) 2판의 코드 저장소. Contribute to rickiepark/python-machine-learning-book-3rd-edition development by creating an account on GitHub.

github.com

 

반응형

+ Recent posts