반응형

분수 계산기






.

반응형
반응형

플랜 B, 즉 백업 계획은 안전장치라기보다는 차라리 올가미에 가깝다.


실제로 백업계획이 있는 사람은

실패를 예상하기에 모든 것을 다 쏟아붓지 못한다.

백업계획이 있다는 건 스스로 실패하겠다고

미리 계획을 짜두는 것과 같다.

그러니 백업 계획을 죽여라,

그렇지 않으면 백업계획이 당신을 죽일 것이다.

- 스탠 비첨, ‘엘리트 마인드’에서

 

물론 플랜 B가 필요할 때가 있습니다.

그러나 플랜 B는 생각보다 부작용이 큽니다.

백업계획은 우리 자신을 망치는 아주 좋은 방법이 되기도 합니다.

두렵지 않은 목표는 무용지물에 가깝습니다.

배수진을 쳐야 각오도 달라지고 그에 따라 노력과 결과가 달라집니다.



.

반응형
반응형

수행자가

제대로 수련하기 위해서는 

헌신, 열정, 끊임없는 각성, 꾸준한 노력 등 

네 가지 자질이 요구된다. 수행자도 수준에 따라 

약한 수행자, 보통 수행자, 열의에 찬 수행자, 최상의 

수행자, 이 네 가지로 나뉜다. 그리고 수행자의 단계도

네 가지로 나뉜다. 요가를 처음 시작한 초보자, 신체 

내면의 기능을 머리로 이해한 수행자, 지성을 몸의 

모든 부분과 연결시킬 수 있는 수행자, 자신의 몸,

마음, 영혼을 하나로 만든 수행자가 

그것이다. 


- B.K.S 아헹가의《요가 수트라》중에서 - 


* 모든 일에는

수준과 단계가 있습니다.

한 걸음에 최상의 달인이 될 수 없습니다.

고통스런 반복의 계단을 하나하나 어렵게 오르면서 

자라고 무르익게 됩니다. 중요한 것은 '시작'입니다.

첫 단계부터 시작해야 두 번째, 세 번째, 네 번째

단계에 이를 수 있고, 몸과 마음과 영혼이 

하나가 되는 경지도 맛볼 수 있습니다.

시작이 반입니다.



.

반응형

'생활의 발견 > 아침편지' 카테고리의 다른 글

'어떻게'가 더 중요하다  (0) 2017.06.12
고통의 짐  (0) 2017.06.11
'예술의 어머니'  (0) 2017.06.08
산삼을 대하는 태도  (0) 2017.06.07
케네디의 명연설은 어떻게 탄생했나  (0) 2017.06.07
반응형


베이 즈 규칙

 진정한 베이지안은 실제로 조건부 확률 을 합동 확률 보다 기본이라고 생각 합니다. 관절 확률 P (A, B)를 참조하지 않고 P (A | B)를 정의하는 것은 쉽습니다. 이 노트를 보려면 조건부 확률 공식 을 재 배열 하여 다음을 얻을 수 있습니다.

P (A | B) P (B) = P (A, B)

그러나 대칭에 의해 우리는 또한 얻을 수 있습니다 :

P (B | A) P (A) = P (A, B)

그것은 다음과 같습니다 :

이미지 \ BBNs0050.gif

이것은 베이 즈 규칙 ( Bayes Rule) 이라고 불리는 것 입니다.

새로운 증거 B에 비추어 가설 A 에 대한 우리의 믿음을 갱신하는 관점에서 베이 즈 규칙을 생각하는 것이 일반적 이다. 특히, 우리의 후방 믿음 P ( A | B는 ) 우리 곱하여 이전 의 믿음 P (  의해) 가능도 P ( | A B 해당) B 경우 발생할 A는 사실이다.

 베이 즈 규칙의 힘은 P (A | B)를 계산하려는 많은 상황에서 직접 그렇게하기가 어렵다는 것을 알았지 만 P (B | A)에 대한 직접적인 정보를 가지고있을 수도 있습니다. 베이 즈 규칙은 P ( B | A )의 관점에서 P ( A | B ) 를 계산할 수있게 합니다.

예를 들어, 흉부 클리닉을 방문하는 환자의 암 진단에 관심이 있다고 가정합니다.

하자 A는 "사람은 암이있다"이벤트를 나타냅니다

하자 B는 이벤트를 대표하는 "사람는 흡연"

우리는 이전의 데이터 (임상에 진입 한 환자의 10 %가 암을 가지고 있음이 판명 됨)를 기준으로 이전 사건 P ( A ) = 0.1 의 확률을 알고 있습니다. 우리는 사건 P ( A | B ) 의 확률을 계산하려고합니다 이것을 직접 찾아내는 것은 어렵습니다. 그러나 우리는 담배를 피우는 환자의 비율을 고려하여 P ( B )를 알 수 있습니다. P ( B ) = 0.5 라고 가정 하십시오. 우리는 또한 P ( B | A )를 우리의 기록에서 진단받은 사람들 중 흡연자의 비율을 조사함으로써 알 수 있습니다. P ( B | A ) = 0.8 이라고 가정하자 .

이제 Bayes의 규칙을 사용하여 다음을 계산할 수 있습니다.

 P ( A | B ) = (0.8 '0.1) /0.5=0.16

따라서, 사람이 흡연자라는 증거 에 비추어 우리는 사전 확률을 0.1에서 사후 확률 0.16으로 수정합니다. 이것은 의미있는 증가이지만 암에 걸릴 확률은 여전히 ​​낮습니다.

분모 P ( B 식에서)는, 예를 들면, 계산 될 수있는 정규화 상수이다 소외 있다

이미지 \ BBNs0051_wmf.gif

그러므로 베이 즈 규칙을 다른 방식으로 표현할 수 있습니다.

이미지 \ BBNs0052_wmf.gif

베이 즈 정리 의 예를 보라.





베이 즈 규칙 예제

 우리는 각각 검은 색과 흰 색 공이 들어있는 두 개의 봉지가 있다고 가정합니다. 1 개의 부대는 까만의 3 배 많은 백색 공을 포함한다. 다른 가방에는 흰색처럼 검은 색 공이 세 배나 많이 들어 있습니다. 우리가이 봉지 중 하나를 무작위로 선택한다고 가정 해보십시오. 이 가방에서는 무작위로 5 개의 볼을 선택하여 각 볼을 선택한 후에 교체합니다. 결과는 우리가 흰 공 4 개와 검은 색 공 1 개를 찾는다는 것입니다. 주로 하얀 공이 든 가방을 사용할 확률은 얼마입니까?

 해결책. A를 무작위 변수 "가방 선택"이라고하면 A = {a1, a2}이고, 여기서 a1은 "대부분 하얀 공이있는 봉"을 나타내고 a2는 "대부분 검은 색 공이있는 봉지"를 나타냅니다. 우리는 가방을 무작위로 선택하기 때문에 P (a1) = P (a2) = 1 / 2라는 것을 알고 있습니다.

B가 "4 개의 흰색 볼과 5 개의 선택에서 선택된 하나의 검은 공"이벤트라고합시다.

그런 다음 P (a1 | B)를 계산해야합니다. 에서 베이 즈 규칙 이 있습니다 :

 이미지 \ BBNs0053_wmf.gif

 이제 대부분 흰색 공이있는 가방의 경우 공이 흰색 인 확률은 3/4이고 공이 검은 색이 될 확률은 1/4입니다. 따라서 우리는 이항 정리 (Binomial Theorem)를 사용하여 P (B | a1)를 다음과 같이 계산할 수 있습니다.

이미지 \ BBNs0054_wmf.gif

비슷하게

이미지 \ BBNs0055_wmf.gif

금후

이미지 \ BBNs0056_wmf.gif








.

반응형
반응형

가장 힘든 길이 항상 옳은 길이다.

절대 지름길을 택하지 마라.

지름길은 경력을 망치는 길,

질척질척한 길과 같다.

- 바이런 윈, 블랙스톤 부회장

 

보통 사람들은 본능적으로 편안한 길을 찾게 됩니다.

그러나 성장과 편안함은 공존할 수 없습니다.

성공한 사람들은 현재의 편안함에 안주하는 대신,

기꺼이 어려움을 택한 사람들입니다.

힘들고 험한 길일수록 나를 성장시키는 거름이 될 수 있습니다.



.

반응형
반응형

뛰어난 예술가는 

첫 번째이자 가장 중요한 특징으로 

언제나 자연에 대한 무한한 사랑을 품고 있다. 

그는 자연이 결코 예술의 대체물은 아니지만 

모든 예술의 원천이자 어머니라는 사실을 

무의식적으로 확실하게 알고 있다. 


- 헤르만 헤세의《헤세의 예술》중에서 -


* 자연은 

'예술의 어머니'입니다.

무궁한 사랑과 생명력이 그 안에 있습니다.

그것을 글로, 그림으로, 노래로, 건축물로 그려내면

그것이 곧 예술입니다. 어머니의 품에 안기듯, 

있는 그대로의 자연 속에 풍덩 몸을 던지면

예술의 원형들이 조각처럼 보입니다.

뛰어난 예술의 시작입니다.



.

반응형

'생활의 발견 > 아침편지' 카테고리의 다른 글

고통의 짐  (0) 2017.06.11
수행자의 네 가지 단계  (0) 2017.06.09
산삼을 대하는 태도  (0) 2017.06.07
케네디의 명연설은 어떻게 탄생했나  (0) 2017.06.07
목련 한 그루, 그리고 정원사  (0) 2017.06.07
반응형

Awesome-Korean-NLP


Github https://github.com/datanada/Awesome-Korean-NLP


참고 : http://konlpy.org/en/v0.4.4/



A curated list of Natural Language Processing (NLP) of

  • NLP of Korean Text
  • NLP information written in Korean.

Feel free to contribute! or blab it here

Maintainer: Jaemin Cho

Index

  1. Tools
  2. Dataset
  3. Blogs / Slides / Researchers
  4. Papers
  5. Lectures
  6. Journals / Conferences / Institutes / Events
  7. Online Communities
  8. How to contribute

1. Tools

(Korean-specific tools are listed ahead of language-agnostic tools.)

1.1. Morpheme/형태소 분석기 + Part of Speech(PoS)/품사 Tagger

  • Hannanum (한나눔) (Java, C) [link]
    • KoNLPy (Python) [link]
  • Kkma (꼬꼬마) (Java) [link] [paper]
    • KoNLPy (Python) [link]
  • Komoran (Java) [link]
    • KoNLPy (Python) [link]
  • Mecab-ko (C++) [link]
    • KoNLPy (Python) [link]
  • Twitter (Scala, Java) [link]
    • KoNLPy (Python) [link]
    • .NET, Node.js, Python, Ruby, Elasitc Search bindings
  • dparser (REST API) [link]
  • UTagger [link]
  • Arirang (Lucence, Java) [link]
  • Rouzeta [link] [slide] [video]
  • seunjeon (Scala, Java) [link]
  • RHINO (라이노) [link]
  • KTS [paper]
  • 깜짝새 [link]

1.2. Named Entity(NE) Tagger / 개체명 인식기

1.3. Spell Checker / 맞춤법 검사기

  • PNU Spell Checker [link]
  • Naver Spell Checker [link]
  • Daum Spell Checker [link]
  • hunspell-ko [link]

1.4. Syntax Parser / 구문 분석기

  • dparser (REST API) [link]
  • NLP HUB (Java) [link]

1.5. Sentimental Analysis / 감정 분석기

1.6. Translator / 번역기

1.7. Packages

1.8. Others / 기타

  • Hangulpy (Python) [link]
    • 자동 조사/접미사 첨부, 자모 분해 및 결합
  • Hangulize (Python) [link]
    • 외래어 한글 변환
  • Hanja (Python) [link]
    • 한자 한글 변환
  • kroman [link]
  • hangul (Perl) [link]
    • Hangul Romanization
  • textrankr (Python) [link] [demo]
    • TextRank 기반 한국어 문서 요약
  • 한국어 Word2Vec [demo] [paper]
    • 한국어 Word2Vec의 analogy test 데모
  • 나쁜 단어 사전 [link]
    • crowdsourced dic about badword in korean

2. Dataset

  • Sejong Corpus [link]
  • KAIST Corpus [link]
  • Yonsei Univ. Corpus
  • Korea Univ. Corpus
  • Ulsan Univ. Corpus [link]
  • Wikipedia Dump [link] [Extractor]
  • NamuWiki Dump [link] [Extractor]
  • Naver News Archive [link]
  • Chosun Archive [link]
  • Naver sentiment movie corpus [link]
  • sci-news-sum-kr-50 [link]

3. Blogs / Slides / Researchers

3.1. Blogs

  • dsindex's blog [link]
  • 엑사젠, "혼자 힘으로 한국어 챗봇 개발하기" [link]
  • Beomsu Kim, "word2vec 관련 이론 정리" [link]
  • CPUU, "Google 자연어 처리 오픈소스 SyntaxNet 공개" (Korean tranlsation of Google blog) [link]
  • theeluwin, "python-crfsuite를 사용해서 한국어 자동 띄어쓰기를 학습해보자" [link]
  • Jaesoo Lim, "한국어 형태소 분석기 동향" [link]

3.2. Slides

  • Lucy Park, "한국어와 NLTK, Gensim의 만남" (PyCon APAC 2015) [link]
  • Jeongkyu Shin, "Building AI Chat bot using Python 3 & TensorFlow" (PyCon APAC 2016) [link]
  • Changki Lee, "RNN & NLP Application" (Kangwon Univ. Machine Learning course) [link]
  • Kyunghoon Kim, "뉴스를 재미있게 만드는 방법; 뉴스잼" (PyCon APAC 2016) [link]
  • Hongjoo Lee, "Python 으로 19대 국회 뽀개기" (PyCon APAC 2016) [link]
  • Kyumin Choi,"word2vec이 추천시스템을 만났을 때" (PyCon APAC 2015) [link]
  • 進藤裕之 (translated by Hongbae Kim), "딥러닝을 이용한 자연어처리의 연구동향" [link]
  • Hongbae Kim, "머신러닝의 자연어 처리기술(I)" [link]
  • Changki Lee, "자연어처리를 위한 기계학습 소개" [link]
  • Taeil Kim, Daeneung Son, "기계 번역 모델 기반 질의 교정 시스템" (Naver DEVIEW 2015) [link]

4. Papers

4.1. Korean

  • 김동준, 이연수, 장정선, 임해창, 고려대학교, (주)엔씨소프트, "한국어 대화 화행 분류를 위한 어휘 자질의 임베딩(2015년 동계학술발표회 논문집)" [paper] link dead

4.2. English

5. Lectures

5.1. Korean Lectures

  • Kangwon Univ. 자연언어처리 [link]
  • 데이터 사이언스 스쿨 [link]
  • SNU Data Mining / Business Analytics [link]

5.2. English Lectures

  • Stanford CS224n: Natural Language Processing [link] [YouTube]
  • Stanford CS224d: Deep Learning for Natural Language Processing [link] [YouTube]
  • NLTK with Python 3 for NLP (by Sentdex) [YouTube]
  • LDA Topic Models [link]

6. Conferences / Institutes / Events

6.1. Conferences

  • 한글 및 한국어 정보처리 학술대회 [link]
  • KIPS (한국정보처리학회) [link]
  • 한국음성학회 학술대회 [link]

6.2. Institutes

  • 언어공학연구회 [link]
    • 한글 및 한국어 정보처리 학술대회 (Since 1989, 매년 개최) [link]
    • 국어 정보 처리 시스템 경진대회 (Since 2010, 매년 개최, 주최: 문화체육관광부 및 국립국어원) [link]
    • 자연언어처리 튜토리얼 (비정기적) [link]
    • 자연어처리 및 정보검색 워크샵 [link]
  • 한국음성학회 [link]

6.3. Events / Contests

  • 국어 정보 처리 시스템 경진 대회 [link]

7. Online Communities

  • Tensorflow KR (Facebook Group) [link]
  • AI Korea (Facebook Group) [link]
  • Bot Group (Facebook Group) [link]
  • 바벨피쉬 (Facebook Group) [link]
  • Reddit Machine Learning Top posts [link]

8. How to contribute

  1. Fork this Repository, by clicking on "fork" icon at the top right corner.

  2. Get the link for the forked repo, by clicking on the green button on your page. something like, "https://github.com/[username]/Awesome-Korean-NLP.git"

  3. On your local machine, "git clone https://github.com/[username]/Awesome-Korean-NLP.git"

  4. "cd Awesome-Korean-NLP"

  5. open "README.md" with your favorite text editor.

  6. Edit.

  7. git commit -a -m "added section 8: emoticons"

  8. git push, and verify on your fork

  9. goto https://github.com/datanada/Awesome-Korean-NLP and create pull request.

  10. "compare across forks" with base: datanada/Awesome.. and head: [username]/Awesome..

[beginners guide]





.........

반응형
반응형

[MAC] 맥북에서 ssh 원격접속 하기- like Putty


윈도우에서는 Putty로 잘 접속했는데, 맥에선 해본적이 없어서. 


기본적으로 터미널이 있다. 

터미널에서 ssh 입력하고 엔터. 하니 설명이 나온다. 


>ssh root@~~ ip~~ -p 포트번호 


이렇게 입력하면 바로 접속. 비밀번호 입력하면 끝. 

이렇게 간단한 것을. 

반응형

+ Recent posts