반응형
반응형

 

인공지능 시대
일잘러가 되는법

 

물론 인공지능이 앞서 말씀 드린 스스로 학습하고 일하는 인공 일반 지능이 아닌 이상에야, 당장 인간을 대체하지는 못할 것 같아요. 다만 미래의 세상에는 인공지능을 잘 다루는 사람과 그렇지 않은 사람의 위상은 크게 달라질 것으로 믿어요. 예를 들어 챗GPT로 무슨 일을 할 수 있을까요?

 

정확한 정보 검색

생성형 인공지능을 활용한다면, 더 빠른 속도로 정보를 찾을 수 있어요. 지메일 창업자인 폴 부하이트는 구글이 혼란에 빠지는 데까지 1~2년이 안 남았다고 경고를 했을 정도입니다. 향후 실시간 데이터를 받아들일 경우 정확하게 정보를 검색할 수 있는 사람이 더 업무 능력이, 향상될 것으로 보이는데요. 이를 위해서는 정확하 질문을 입력하는 기술(?)이 필요해요.

 

글을 작성한다

사실 글을 쓴다는 것은 고단한 일인데요. 논란이 있지만 직장에서라면 생산성 향상을 위해 유용해요. 오히려 유펜 교수인 이던 몰리는 학생들한테 일부러 챗GPT를 권장한다고 해요. “공부 알아서 하고, 더 정확하고, 더 엄격한 리포트를 갖고와하고 말이죠. 글의 눈높이가 앞으로는 더 높아질 듯 합니다.

 

데이터를 분석한다

이런 기능은 잘 안써 봤는데요. GPT를 활용해 방대한 양의 데이터를 분석할 수 있다고 해요. 어떻게? 좀 더 궁금하신 분은 여기를 클릭해 보세요.

  • 데이터 요약 요청
  • 데이터 관계 설명을 요청
  • 데이터를 토대로 미래 예측을 요청해 본다 (안되네요..)
  • 데이터 시각화를 요청 (아직은 안됩니다)
  • 추가 분석을 위한 권장 사항을 요청

 

시간 관리에 활용

유튜버인 Micha는 챗GPT를 활용해 작업 일부를 자동화하는 영상을 시연했는데요. 좌표는 여기. 인공지능을 활용해 일정과 작업 우선순위를 지정할 수 있다고 해요. 예를 들어 보고서를 작성하는 것과 상사와 회의 일정을 잡는 것처럼 일정이 겹쳐버린다면? 시간 단위로 가능한지 여부를 알려준다고 해요. 개인 비서?

반응형
반응형

광주 AI 체험 쇼케이스 가보니…"무인매장서 AI 비전 기술 느껴보니 색다르네

 

http://www.aitimes.com/news/articleView.html?idxno=141776 

 

광주 AI 체험 쇼케이스 가보니…"무인매장서 AI 비전 기술 느껴보니 색다르네" - AI타임스

“치O스는 1,200원입니다”“진열된 모든 상품은 인공지능(AI) 데이터로 학습된 상태입니다”“로봇 팔이 컵을 순서대로 카메라에 비추면 컵 속 재료들을 맞춰요”광주영상문화관 1층에 위치한 A

www.aitimes.com

'광주시민 대상 AI 체감 높인다'…AI 기술 체험관 운영돼
시민들, 미래 무인매장 방문해 AI 비전 기술 생생히 느껴
디투리소스, AI 매장관리 주방 무인화 플랫폼 선보여
AI 체험관, 단기적 운영 넘어 지속적 확대‧개선 필요 지적

광주영상문화관 1층에 위치한 AI 기술 체험관 ‘인공지능 카페 테스트베드’ 에서는 로봇 팔이 분주하게 움직이는 모습이었다. 컵을 카메라에 비추고, 'AI 영상 비전' 기술로 내용물을 인식하고 있는 모습. (사진=구아현 기자).
반응형
반응형

[tensorflow] 한글 음절 인식기 - hangul-syllable-recognition

 

https://github.com/junstar92/hangul-syllable-recognition

 

GitHub - junstar92/hangul-syllable-recognition: hangul syllable recognition 한글 음절 인식기

hangul syllable recognition 한글 음절 인식기. Contribute to junstar92/hangul-syllable-recognition development by creating an account on GitHub.

github.com

 

Introduction

한글은 조합이 다양하기 때문에 영어에 비해서 OCR 성능이 조금 떨어진다고 알고 있다.

다양한 폰트와 손글씨 데이터를 가지고, 얼마나 한글을 잘 인식하는지 확인하기 위해서 프로젝트를 진행했다.

Getting started

python and pakage version

python3 == 3.8.3

tensorflow_gpu == 2.3.0

numpy == 1.19.5

argparse == 1.1

pandas == 1.2.0

cv2 == 4.5.1

streamlit == 0.74.1

streamlit_drawable_canvas

반응형
반응형

메가스터디교육, 인공지능(AI) 서비스 본격 시동

 

 

메가스터디교육이 인공지능(AI) 서비스 확대 적용을 통한 디지털 역량 강화에 나섰다.

메가스터디교육은 최근 인공지능(AI) 딥러닝 기술을 활용한 '인공지능 음성인식 엔진'을 개발, 올해 안에 관련 서비스를 제공할 예정이다.



'인공지능 음성인식 엔진'은 기존 개발된 범용 엔진에 강사 개별 말하기 특성을 학습시켜 인식 정확도를 높인 것이 특징이다.

기존 85% 수준에 머물던 음성인식 정확도를 95% 이상 끌어올려 한층 업그레이드했다. 이 AI 기술은 강의 자막 등 다양한 서비스에 활용될 예정이다.

이 엔진은 메가스터디교육과 마이스가 협업하여 개발했다.
마이스는 올 2월 메가스터디교육과 인공지능(AI) 기술 기업 스켈터랩스가 교육 분야 AI 기술을 개발하기 위해 설립한 조인트벤처다. 메가스터디교육은 디지털 교육에 필요한 다양한 인공지능 기술을 마이스와 공동 개발할 예정이다.

메가스터디교육은 지난해부터 AI 기술 도입을 위한 본격적인 행보를 지속하고 있다. 올 초에는 대표이사 직속 AI사업부를 신설했으며, AI 기술을 보유하고 있는 스타트업에 대한 투자와 협업을 다각도로 진행하는 등 AI 기술 활용에 적극적으로 나서고 있다.

메가스터디교육 관계자는 "지난 2000년부터 국내 온라인 교육 시장을 선도해온 메가스터디교육이 인공지능(AI)을 접목, 새로운 차원의 교육 서비스를 만들어 갈 계획"이라며 "초등, 중등, 고등, 성인 등 전 사업영역으로 AI 기술을 확대 적용, AI 기술분야를 선도하는 혁신적인 에듀테크 기업으로 성장시킬 것"이라고 말했다.

출처 : 뉴스웍스(http://www.newsworks.co.kr)

 

https://www.newsworks.co.kr/news/articleView.html?idxno=567985 

 

메가스터디교육, 인공지능(AI) 서비스 본격 시동 - 뉴스웍스

[뉴스웍스=문병도 기자] 메가스터디교육이 인공지능(AI) 서비스 확대 적용을 통한 디지털 역량 강화에 나섰다.메가스터디교육은 최근 인공지능(AI) 딥러닝 기술을 활용한 '인공지능 음성인식 엔

www.newsworks.co.kr


https://www.news1.kr/articles/?4451817 

 

메가스터디교육, 초·중등 학습 서비스 'AI스마트매쓰' 선봬

사실 앞에 겸손한 민영 종합 뉴스통신사 뉴스1

www.news1.kr

메가스터디교육, 초·중등 학습 서비스 'AI스마트매쓰' 선봬

AI 기반 개인별 학습 프로그램 제공

메가스터디교육은 초등 엘리하이와 중등 엠베스트 회원을 대상으로 새로운 인공지능(AI) 기술을 적용한 학습 서비스 'AI스마트매쓰'를 선보인다고 5일 밝혔다.

'AI스마트매쓰'는 기존 '스마트매쓰 플러스'에 개인화 맞춤학습 기능을 더했다. 온라인 학습의 한계를 극복하기 위해 AI를 적극 활용해 학습 시간은 줄이고 편의성은 높이도록 기획됐다.

먼저 AI가 학생 수준을 분석해 같은 문제를 다시 틀리지 않도록 개인별 학습 프로그램을 제공한다.

누적 37만명이 푼 수학 문항을 분석해 개인별 오답 패턴을 정밀하게 파악하고 취약점을 추적, 25만개 문항 중 학생이 꼭 풀어봐야 하는 문제를 선별해 제공한다. 틀린 문제에 대해서는 2차 문제를 추가로 생성해 자주 틀리는 유형을 반복 학습함으로써 오답을 마스터할 수 있도록 설계됐다.

이와 함께 교재 채점 결과를 바탕으로 AI가 분석한 유형별, 난도별, 단원별 종합분석 결과를 확인할 수 있다. 이를 참고로 자신의 취약점을 보완해 나가면 학습 효율성을 높일 수 있다. 초등 1학년부터 중학교 3학년까지 사용할 수 있다.

메가스터디교육은 올 연말부터 교재나 연습장, 필기구를 사용하지 않고 간편한 학습이 가능한 AI서비스도 선보일 계획이다.

이를 위해 실제 종이 연습장에 문제를 푸는 것과 같은 느낌의 손가락 필기인식 기능을 AI를 활용해 개발 중이다. 이 기능을 활용하면 태블릿에서 학생이 손으로 직접 쓰고 문제를 풀면서 수학 개념을 빠르고 편리하게 익힐 수 있다.

반응형
반응형

인공지능(AI) 언어모델 ‘BERT(버트)'는 무엇인가

github.com/google-research/bert

 

google-research/bert

TensorFlow code and pre-trained models for BERT. Contribute to google-research/bert development by creating an account on GitHub.

github.com

지난해 11월, 구글이 공개한 인공지능(AI) 언어모델 ‘BERT(이하 버트, Bidirectional Encoder Representations from Transformers)’는 일부 성능 평가에서 인간보다 더 높은 정확도를 보이며 2018년 말 현재, 자연 언어 처리(NLP) AI의 최첨단 딥러닝 모델이다. 

또한 BERT는 언어표현 사전학습의 새로운 방법으로 그 의미는 '큰 텍스트 코퍼스(Wikipedia와 같은)'를 이용하여 범용목적의 '언어 이해'(language understanding)' 모델을 훈련시키는 것과 그 모델에 관심 있는 실제의 자연 언어 처리 태스크(질문·응답 등)에 적용하는 것이다.

특히 BERT는 종래보다 우수한 성능을 발휘한다. BERT는 자연언어 처리 태스크를 교육 없이 양방향으로 사전학습하는 첫 시스템이기 때문이다. 교육 없음이란 BERT가 보통의 텍스트 코퍼스만을 이용해 훈련되고 있다는 것을 의미한다. 이것은 웹(Web) 상에서 막대한 양의 보통 텍스트 데이터가 여러 언어로 이용 가능하기 때문에 중요한 특징으로 꼽는다.

사전학습을 마친 특징 표현은 문맥에 '의존하는 방법'와 '의존하지 않는 방법'의 어느 방법도 있을 수 있다. 또 문맥에 의존하는 특징적인 표현은 단방향인 경우와 혹은 양방향일 경우가 있다. word2vec나 GloVe와 같이 문맥에 의존하지 않는 모델에서는, 어휘에 포함되는 각 단어마다 '단어 삽입(word embedding)'이라는 특징 표현을 생성한다. 따라서, 'bank'라는 단어는 'bank deposit' 또는 'river bank'과 같은 특징으로 표현되며, 문맥에 의존하는 모델에서는 문장에 포함되는 다른 단어를 바탕으로 각 단어의 특징을 표현 생성한다.

 

 

 

BERT는 문맥에 의존하는 특징적인 표현의 전학습을 실시하는 대응을 바탕으로 구축되었다. 그러한 대응은 Semi-supervised Sequence Learning, Generative Pre-Training, ELMo, 및 ULMFit를 포함하며, 대응에 의한 모델은 모두 단방향 혹은 얕은 양방향이다. 각 단어는 단지 그 왼쪽(혹은 오른쪽)에 존재하는 단어에 의해서만 문맥의 고려가 되는 것을 의미한다.

예를 들어, I made a bank deposit라는 문장은 bank의 단방향 특징표현은 단지 I made a만에 의해 결정되며, deposit은 고려되지 않는다. 몇개의 이전의 대응에서는 분리한 좌문맥모델과 우문맥모델에 의한 특징표현을 조합하고 있었지만, 이것은 얕은 양방향 방법이다. BERT는 bank를 왼쪽과 오른쪽 양쪽의 문맥 I made a ... deposit을 딥 뉴럴 네트워크(Deposit)의 최하층에서 이용해 특징을 표현하기 때문에 BERT는 '딥 양방향(deeply bidirectional)'이다.

BERT는 간단한 접근법을 사용한다. 입력에서 단어의 15%를 숨기고 딥 양방향 Transformer encoder(관련 논문다운)를 통해 전체 시퀀스를 실행한 다음 마스크 된 단어만 예측한다. 예를 들어, 아래와 같이 문간의 관계를 학습하기 위해서는 임의의 단언어 코퍼스에서 생성 가능한 심플한 작업을 이용하여 학습한다. A와 B의 두 개의 글을 받았을 때 B가 A의 뒤에 오는 실제 문장인지, 코퍼스 안의 랜덤한 글인지를 판정하는 태스크이다.
 

또한 큰 모델(12층에서 24층의 Transformer)을 큰 코퍼스(Wikipedia + BookCorpus)로 긴 시간을 들여(100만 갱신 스텝) 훈련했다. 그것이 BERT이며, 이용은 '사전학습'과 '전이학습'의 2단계로 구분된다.

사전학습(pre-training)은 상당히 고가로 4에서 16개의 Cloud TPU로 4일(12 층의 Transformer 모델의 경우 4개의 TPU를 사용하여 4일, 24층 Transformer 모델의 경우 16개의 TPU를 사용하여 4일이라는 의미) 각 언어마다 1회만의 순서이다. 자연 언어 처리 개발자는 처음부터 자신의 모델을 사전 학습할 필요가 없다.

전이학습(Fine-tuning)은 저렴하며, 논문(아래 참조)과 똑같은 사전학습이 끝난 모델을 사용하여 하나의 Cloud TPU를 이용, 1시간 GPU를 사용하면 2, 3시간만에 재현할 수 있다. 예를 들면 SQuAD는 하나의 Cloud TPU를 이용 30분으로 하나의 시스템으로서는 최첨단(state-of-the-art)인 91.0%의 Dev F1을 달성할 수 있다.

이밖에 BERT의 또 다른 중요한 측면은 많은 종류의 자연 언어 처치 태스크로 인해 매우 쉽게 채택될 수 있다. 논문 중에서 문장 수준 (SST-2 등), 문장 쌍 수준(MultiNLI 등), 단어 수준(NER 등) 스팬 레벨 2 (SQuAD 등)의 태스크에 대해서 거의 태스크 특유의 변경을 실시하는 일 없이, 최첨단 결과를 얻을 수 있는 것을 나타내고 있다.

참고) 'BERT: 언어 이해를 위한 양방향 트랜스포머 사전 학습(BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding)' 논문(다운받기), BERT Google-research의 깃허브(GitHub) (바로가기) 
 

www.aitimes.kr/news/articleView.html?idxno=13117

 

인공지능(AI) 언어모델 ‘BERT(버트)'는 무엇인가 - 인공지능신문

지난해 11월, 구글이 공개한 인공지능(AI) 언어모델 ‘BERT(이하 버트, Bidirectional Encoder Representations from Transformers)’는 일부 성능 평가에서 인간보다 더 높은 정확도를 보이며 2018년 말 현재, ...

www.aitimes.kr

ebbnflow.tistory.com/151

 

[BERT] BERT에 대해 쉽게 알아보기1 - BERT는 무엇인가, 동작 구조

● 언어모델 BERT BERT : Pre-training of Deep Bidirectional Trnasformers for Language Understanding 구글에서 개발한 NLP(자연어처리) 사전 훈련 기술이며, 특정 분야에 국한된 기술이 아니라 모든 자연어..

ebbnflow.tistory.com

vhrehfdl.tistory.com/15

 

슬기로운 NLP 생활 [13] BERT

이전 글 [1] 자연어처리란? [2] Classification Task [3] POS Tagging [4] Stemming, Lemmatizing [5] 형태소 분석기 [6] One-Hot Encoding, Bag Of Word [7] TF-IDF [8] Word2vec [9] Fasttext [10] Glove [11] E..

vhrehfdl.tistory.com

 

반응형
반응형

이투스 - Etoos AI모의지원 MOJI

 

www.mo-ji.co.kr/event/main

 

MOJI 사전예약 이벤트

 

www.mo-ji.co.kr

 

 

 

반응형

+ Recent posts