반응형

메가스터디교육, 인공지능(AI) 서비스 본격 시동

 

 

메가스터디교육이 인공지능(AI) 서비스 확대 적용을 통한 디지털 역량 강화에 나섰다.

메가스터디교육은 최근 인공지능(AI) 딥러닝 기술을 활용한 '인공지능 음성인식 엔진'을 개발, 올해 안에 관련 서비스를 제공할 예정이다.



'인공지능 음성인식 엔진'은 기존 개발된 범용 엔진에 강사 개별 말하기 특성을 학습시켜 인식 정확도를 높인 것이 특징이다.

기존 85% 수준에 머물던 음성인식 정확도를 95% 이상 끌어올려 한층 업그레이드했다. 이 AI 기술은 강의 자막 등 다양한 서비스에 활용될 예정이다.

이 엔진은 메가스터디교육과 마이스가 협업하여 개발했다.
마이스는 올 2월 메가스터디교육과 인공지능(AI) 기술 기업 스켈터랩스가 교육 분야 AI 기술을 개발하기 위해 설립한 조인트벤처다. 메가스터디교육은 디지털 교육에 필요한 다양한 인공지능 기술을 마이스와 공동 개발할 예정이다.

메가스터디교육은 지난해부터 AI 기술 도입을 위한 본격적인 행보를 지속하고 있다. 올 초에는 대표이사 직속 AI사업부를 신설했으며, AI 기술을 보유하고 있는 스타트업에 대한 투자와 협업을 다각도로 진행하는 등 AI 기술 활용에 적극적으로 나서고 있다.

메가스터디교육 관계자는 "지난 2000년부터 국내 온라인 교육 시장을 선도해온 메가스터디교육이 인공지능(AI)을 접목, 새로운 차원의 교육 서비스를 만들어 갈 계획"이라며 "초등, 중등, 고등, 성인 등 전 사업영역으로 AI 기술을 확대 적용, AI 기술분야를 선도하는 혁신적인 에듀테크 기업으로 성장시킬 것"이라고 말했다.

출처 : 뉴스웍스(http://www.newsworks.co.kr)

 

https://www.newsworks.co.kr/news/articleView.html?idxno=567985 

 

메가스터디교육, 인공지능(AI) 서비스 본격 시동 - 뉴스웍스

[뉴스웍스=문병도 기자] 메가스터디교육이 인공지능(AI) 서비스 확대 적용을 통한 디지털 역량 강화에 나섰다.메가스터디교육은 최근 인공지능(AI) 딥러닝 기술을 활용한 '인공지능 음성인식 엔

www.newsworks.co.kr


https://www.news1.kr/articles/?4451817 

 

메가스터디교육, 초·중등 학습 서비스 'AI스마트매쓰' 선봬

사실 앞에 겸손한 민영 종합 뉴스통신사 뉴스1

www.news1.kr

메가스터디교육, 초·중등 학습 서비스 'AI스마트매쓰' 선봬

AI 기반 개인별 학습 프로그램 제공

메가스터디교육은 초등 엘리하이와 중등 엠베스트 회원을 대상으로 새로운 인공지능(AI) 기술을 적용한 학습 서비스 'AI스마트매쓰'를 선보인다고 5일 밝혔다.

'AI스마트매쓰'는 기존 '스마트매쓰 플러스'에 개인화 맞춤학습 기능을 더했다. 온라인 학습의 한계를 극복하기 위해 AI를 적극 활용해 학습 시간은 줄이고 편의성은 높이도록 기획됐다.

먼저 AI가 학생 수준을 분석해 같은 문제를 다시 틀리지 않도록 개인별 학습 프로그램을 제공한다.

누적 37만명이 푼 수학 문항을 분석해 개인별 오답 패턴을 정밀하게 파악하고 취약점을 추적, 25만개 문항 중 학생이 꼭 풀어봐야 하는 문제를 선별해 제공한다. 틀린 문제에 대해서는 2차 문제를 추가로 생성해 자주 틀리는 유형을 반복 학습함으로써 오답을 마스터할 수 있도록 설계됐다.

이와 함께 교재 채점 결과를 바탕으로 AI가 분석한 유형별, 난도별, 단원별 종합분석 결과를 확인할 수 있다. 이를 참고로 자신의 취약점을 보완해 나가면 학습 효율성을 높일 수 있다. 초등 1학년부터 중학교 3학년까지 사용할 수 있다.

메가스터디교육은 올 연말부터 교재나 연습장, 필기구를 사용하지 않고 간편한 학습이 가능한 AI서비스도 선보일 계획이다.

이를 위해 실제 종이 연습장에 문제를 푸는 것과 같은 느낌의 손가락 필기인식 기능을 AI를 활용해 개발 중이다. 이 기능을 활용하면 태블릿에서 학생이 손으로 직접 쓰고 문제를 풀면서 수학 개념을 빠르고 편리하게 익힐 수 있다.

반응형
반응형

인공지능이
인간을 넘어설지에 대하여
많은 논의가 진행되고 있습니다.
인공지능은 데이터를 바탕으로 지식을 추출하고
미래를 예측합니다. 반면에 인간은 창의적인 사고로
인류가 경험하지 못한 상황에서도 적절한 판단이 가능할
것입니다. 이러한 면에서 인공지능은 인간을 넘어서기
어려워 보입니다. 단, 데이터는 감정이 없습니다. 모든
상황에서 객관적인 평가를 할 수 있습니다. 반대로
인간은 감정에 치우치며 종종 일을 그르치곤
합니다. 인공지능과 공존하기 위해서
인간에게 필요한 것이 무엇인지
생각하게 됩니다.


- 김용대의 《데이터 과학자의 사고법》 중에서 -




* 시대가 변하고 있습니다.
이전과는 전혀 다른 세상이 열리고 있습니다.
인류가 경험하지 못했던, 한 번도 걸어보지 않은 길을
가고 있습니다. 인공지능이 사람 일을 대신하고 있고,
모든 것은 데이터로 남아 스스로 공부하며 진화하고
있습니다. 그 정점에 메타버스가 있습니다. 그러나
인공지능에는 온기가 없습니다. 사랑과 감사,
따뜻한 감성, 영적 정서적 교감이 없습니다.
인공지능은 인간이 사용하는 도구일 뿐  
사람은 사람과 더불어야 삽니다.

반응형

'생활의 발견 > 아침편지' 카테고리의 다른 글

오래된 과거의 잘못  (0) 2021.10.14
지옥 같은 고통은 왜 올까  (0) 2021.10.13
공짜 행복  (0) 2021.10.12
내가 사는 공간을 가꾸는 일  (0) 2021.10.12
두려울 게 없다  (0) 2021.10.08
반응형

인공지능(AI) 언어모델 ‘BERT(버트)'는 무엇인가

github.com/google-research/bert

 

google-research/bert

TensorFlow code and pre-trained models for BERT. Contribute to google-research/bert development by creating an account on GitHub.

github.com

지난해 11월, 구글이 공개한 인공지능(AI) 언어모델 ‘BERT(이하 버트, Bidirectional Encoder Representations from Transformers)’는 일부 성능 평가에서 인간보다 더 높은 정확도를 보이며 2018년 말 현재, 자연 언어 처리(NLP) AI의 최첨단 딥러닝 모델이다. 

또한 BERT는 언어표현 사전학습의 새로운 방법으로 그 의미는 '큰 텍스트 코퍼스(Wikipedia와 같은)'를 이용하여 범용목적의 '언어 이해'(language understanding)' 모델을 훈련시키는 것과 그 모델에 관심 있는 실제의 자연 언어 처리 태스크(질문·응답 등)에 적용하는 것이다.

특히 BERT는 종래보다 우수한 성능을 발휘한다. BERT는 자연언어 처리 태스크를 교육 없이 양방향으로 사전학습하는 첫 시스템이기 때문이다. 교육 없음이란 BERT가 보통의 텍스트 코퍼스만을 이용해 훈련되고 있다는 것을 의미한다. 이것은 웹(Web) 상에서 막대한 양의 보통 텍스트 데이터가 여러 언어로 이용 가능하기 때문에 중요한 특징으로 꼽는다.

사전학습을 마친 특징 표현은 문맥에 '의존하는 방법'와 '의존하지 않는 방법'의 어느 방법도 있을 수 있다. 또 문맥에 의존하는 특징적인 표현은 단방향인 경우와 혹은 양방향일 경우가 있다. word2vec나 GloVe와 같이 문맥에 의존하지 않는 모델에서는, 어휘에 포함되는 각 단어마다 '단어 삽입(word embedding)'이라는 특징 표현을 생성한다. 따라서, 'bank'라는 단어는 'bank deposit' 또는 'river bank'과 같은 특징으로 표현되며, 문맥에 의존하는 모델에서는 문장에 포함되는 다른 단어를 바탕으로 각 단어의 특징을 표현 생성한다.

 

 

 

BERT는 문맥에 의존하는 특징적인 표현의 전학습을 실시하는 대응을 바탕으로 구축되었다. 그러한 대응은 Semi-supervised Sequence Learning, Generative Pre-Training, ELMo, 및 ULMFit를 포함하며, 대응에 의한 모델은 모두 단방향 혹은 얕은 양방향이다. 각 단어는 단지 그 왼쪽(혹은 오른쪽)에 존재하는 단어에 의해서만 문맥의 고려가 되는 것을 의미한다.

예를 들어, I made a bank deposit라는 문장은 bank의 단방향 특징표현은 단지 I made a만에 의해 결정되며, deposit은 고려되지 않는다. 몇개의 이전의 대응에서는 분리한 좌문맥모델과 우문맥모델에 의한 특징표현을 조합하고 있었지만, 이것은 얕은 양방향 방법이다. BERT는 bank를 왼쪽과 오른쪽 양쪽의 문맥 I made a ... deposit을 딥 뉴럴 네트워크(Deposit)의 최하층에서 이용해 특징을 표현하기 때문에 BERT는 '딥 양방향(deeply bidirectional)'이다.

BERT는 간단한 접근법을 사용한다. 입력에서 단어의 15%를 숨기고 딥 양방향 Transformer encoder(관련 논문다운)를 통해 전체 시퀀스를 실행한 다음 마스크 된 단어만 예측한다. 예를 들어, 아래와 같이 문간의 관계를 학습하기 위해서는 임의의 단언어 코퍼스에서 생성 가능한 심플한 작업을 이용하여 학습한다. A와 B의 두 개의 글을 받았을 때 B가 A의 뒤에 오는 실제 문장인지, 코퍼스 안의 랜덤한 글인지를 판정하는 태스크이다.
 

또한 큰 모델(12층에서 24층의 Transformer)을 큰 코퍼스(Wikipedia + BookCorpus)로 긴 시간을 들여(100만 갱신 스텝) 훈련했다. 그것이 BERT이며, 이용은 '사전학습'과 '전이학습'의 2단계로 구분된다.

사전학습(pre-training)은 상당히 고가로 4에서 16개의 Cloud TPU로 4일(12 층의 Transformer 모델의 경우 4개의 TPU를 사용하여 4일, 24층 Transformer 모델의 경우 16개의 TPU를 사용하여 4일이라는 의미) 각 언어마다 1회만의 순서이다. 자연 언어 처리 개발자는 처음부터 자신의 모델을 사전 학습할 필요가 없다.

전이학습(Fine-tuning)은 저렴하며, 논문(아래 참조)과 똑같은 사전학습이 끝난 모델을 사용하여 하나의 Cloud TPU를 이용, 1시간 GPU를 사용하면 2, 3시간만에 재현할 수 있다. 예를 들면 SQuAD는 하나의 Cloud TPU를 이용 30분으로 하나의 시스템으로서는 최첨단(state-of-the-art)인 91.0%의 Dev F1을 달성할 수 있다.

이밖에 BERT의 또 다른 중요한 측면은 많은 종류의 자연 언어 처치 태스크로 인해 매우 쉽게 채택될 수 있다. 논문 중에서 문장 수준 (SST-2 등), 문장 쌍 수준(MultiNLI 등), 단어 수준(NER 등) 스팬 레벨 2 (SQuAD 등)의 태스크에 대해서 거의 태스크 특유의 변경을 실시하는 일 없이, 최첨단 결과를 얻을 수 있는 것을 나타내고 있다.

참고) 'BERT: 언어 이해를 위한 양방향 트랜스포머 사전 학습(BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding)' 논문(다운받기), BERT Google-research의 깃허브(GitHub) (바로가기) 
 

www.aitimes.kr/news/articleView.html?idxno=13117

 

인공지능(AI) 언어모델 ‘BERT(버트)'는 무엇인가 - 인공지능신문

지난해 11월, 구글이 공개한 인공지능(AI) 언어모델 ‘BERT(이하 버트, Bidirectional Encoder Representations from Transformers)’는 일부 성능 평가에서 인간보다 더 높은 정확도를 보이며 2018년 말 현재, ...

www.aitimes.kr

ebbnflow.tistory.com/151

 

[BERT] BERT에 대해 쉽게 알아보기1 - BERT는 무엇인가, 동작 구조

● 언어모델 BERT BERT : Pre-training of Deep Bidirectional Trnasformers for Language Understanding 구글에서 개발한 NLP(자연어처리) 사전 훈련 기술이며, 특정 분야에 국한된 기술이 아니라 모든 자연어..

ebbnflow.tistory.com

vhrehfdl.tistory.com/15

 

슬기로운 NLP 생활 [13] BERT

이전 글 [1] 자연어처리란? [2] Classification Task [3] POS Tagging [4] Stemming, Lemmatizing [5] 형태소 분석기 [6] One-Hot Encoding, Bag Of Word [7] TF-IDF [8] Word2vec [9] Fasttext [10] Glove [11] E..

vhrehfdl.tistory.com

 

반응형
반응형
[현장] 구글 ‘텐서플로우’ 개발자가 생각하는 머신러닝이란?

http://www.bloter.net/archives/254962

– 텐서플로우와 다른 머신러닝 라이브러리와의 차이점은 무엇인가? 비슷한 질문으로 다른 라이브러리가 아닌 텐서플로우를 선택해야 하는 이유는 무엇인가?

= 모든 기술을 이용해봐라. 토치, 카페 등 다른 기술들을 다운로드 하는 건 어려운 게 아니다. 다양한 기술을 작은 예제와 함께 일단 사용해보라. 그러면 결국 여러분들의 상황에 적합한 기술을 찾을 수 있을 거다. 텐서플로우가 모든 문제를 해결할 수 있는 만능 기술은 아니다. 텐서플로우의 장점은 구글이 만든 2세대 머신러닝 기술이고, 100여명의 인력이 투여되는 기술이라는 점이다. 그 말은 기술 지원이 활발하고, 오류도 더 빨리 발견하고 개선할 수 있다는 뜻이다. 작은 회사의 직원이고 어떤 기술을 선택할 지 고민하고 있다면 텐서플로우가 분명 좋은 대안이 될 것이다. 큰 데이터 규모에서는 더더욱.

– 텐서플로우는 윈도우에서 이용할 수 없다. 향후 윈도우를 지원할 계획이 있는가?

= 계획에 대해서는 뭔가 확실하게 이야기할 게 없다. 하지만 나도 윈도우 기기를 가지고 있고, 텐서플로우를 이용하고 있다. 그래서 추천하는 방법은 VM웨어를 설치하라. 무료 아닌가.(웃음) 그 위에서 다른 운영체제를 설치하고 텐서플로우를 이용해라.

– 알파고가 ‘강화학습(Reinforcement Training)’ 알고리즘을 이용했다고 들었다. 텐서플로우에서 강화학습 혹은 알파고 같은 기술을 지원할 계획이 있는가?

= 텐서플로우는 미국 본사에서 개발한다. 딥마인드는 영국에서 개발한다. 두 팀 모두 구글이란 같은 회사에 속해 있지만 서로 멀리 떨어져 있고 시차가 있어서 빨리 소통하기 어렵다. 딥마인드팀은 자체적으로 기술을 개발하고 있기 때문에 딥마인드가 하는 일에 대해서 많이 알지 못한다. API나 기술 지원은 언젠가 가능할 것으로 본다. 딥마인는 텐서플로우를 포함한 구글의 소프트웨어를 이용하고 있다. 텐서플로우나 구글 고유의 기술을 사용하는 비중이 얼마나 되는지는 잘 모른다.

– ‘텐서플로우 플레이그라운드‘라는 것을 이용해 봤다. 자바스크립트로 만든 시각화 도구인데 매우 흥미로웠다. 이런 도구는 텐서플로우 입문자에게 좋을 것 같더라. 혹시 비슷하게 텐서플로우와 통합해 사용할 수 있는 모니터링 도구나 프로파일 도구를 알고 있는가?

= 텐서플로우 그래프를 이용할 때 갑자기 속도가 느려지는 것을 경험하는 사용자가 있을 것이다. 무엇 때문에 속도가 늦어졌는지 알기 위해서 모니터링 도구나 프로파일링 도구가 필요하다. 텐서플로우 내부 팀이 이용하는 프로파일링 도구가 따로 있긴 하다. 좋은 도구인데 아직 이걸 오픈소스 기술로 공개할지는 결정하지 못했다. 언젠가 오픈소스 기술로 전환할 것이나, 그게 언제일지는 아직 모른다. 하지만 우리팀도 사람들이 어떤 문제를 해결하고 싶은지 명확하게 이해하고 있다. 텐서플로우 플레이그라운드라는 도구는 나도 잘 알고 있다. 여기 있는 분들도 한 번쯤 이용해보셨으면 좋겠다. 어떤 구성요소가 어떻게 작용하는지 쉽게 알 수 있을 것이다.

텐서플로우 플레이그라운드

▲텐서플로우플레이그라운드. 구글과는 별개로 진행되는 외부 프로젝트다.

– 나는 맥 OS 사용자다. 텐서플로우를 이용하려고 했는데 AMD GPU를 지원하지 않더라. 향후 AMD GPU를 지원할 계획은 없는가?

= 계획에 대해 아는 것은 없다. 의존성 문제 때문에 기술을 변경하는 게 쉽지 않더라. 현재 말할 수 있는 가장 좋은 제안은 그냥 엔비디아 카드를 사는 것이다.(웃음)

– 구글의 딥러닝 프로젝트에 합류하려면 어떻게 해야 하는가? 지원자는 경력자여야 하나? 학위 같은 게 있어야 하나?

= 학위가 있으면 좋긴 할 것이다. 하지만 사실 텐서플로우팀은 정말 다양한 사람으로 구성됐다. 많은 사람들이 다른 국적을 가지고 있다. 모두가 일류 대학을 졸업하지도 않았다. 가장 중요한 것은 당연히 프로그래밍 실력이다. 너무 중요하다. 또 어떤 문제를 해결하고 싶어하는 마음이 있어야 한다. 열린 태도를 지니는 것도 중요한 부분이다. 사실 2015년 11월 ‘브레인 레지던시’라는 프로그램을 시작했다. 많은 사람이 이 프로그램에 지원했다. 그 중 30명이 1년간 브레인 레지던시 프로그램에 참여하게 됐다. 참여자들은 머신러닝을 배우고, 자신이 하고 싶은 프로젝트를 진행한다. 여건이 허락된다면 이 프로그램을 내년에도 진행할 계획이다. 여기 있는 많은 분들이 지원해주셨으면 좋겠다.

구글 브레인 레지던시 프로그램

– 박사님께서 음성인식 분야를 전공하신 걸로 알고 있다. 음성인식 분야에서 기계가 인간의 실력을 뛰어넘을 수 있을 것이라고 보는가?

= 이미 기계가 음성인식 분야에서 인간보다 앞서 있다. 같은 문장이라고 가정하면 캘리포니아 출신이냐 텍사스 출신이냐에 따라 말 소리가 매우 다르게 들린다. 많은 사람이 서로 다른 억양을 가진 언어를 잘 이해하지 못한다. 기계는 모든 억양을 이해한다. 실제로 우리가 인도 사람의 말을 받아 적으라고 해보니 사람보다 음성인식 기계가 더 잘 이해했다. 아마 앞으로 서기는 필요 없을지도 모른다. 기계가 더 잘 이해하는 이유는 크게 2가지다. 하나는 억양, 두 번째는 맥락 정보를 잘 알고 있기 때문이다. 남자 아이가 형에게 하는 말은 부모님은 가끔 이해 못할 것이다. 맥락 정보가 없기 때문이다. 기계는 가능하다. 물론 현재 음성인식 앱은 성능이 별로 안 좋을 수 있다. 하지만 앞으로 더 나아질 것이다. 특히 5-6년 안에 음성인식 서비스와 관련해서 엄청난 변화가 있을 것이다.

– 텐서플로우를 기업에서 직접 활용한 사례를 알고 있는가?

= 많은 기업이 텐서플로우를 내려받고 이용하고 있다. 하지만 그걸로 정확히 무엇을 하고 있는지는 알지 못한다. 사실 내가 안다고 해도 그걸 여기서 말할 수 없다. 기업 비밀이지 않은가. 텐서플로우에 관심을 가지고 있는 기업 종류는 특정 산업군에 국한되지 않으며 매우 다양하다.

– 텐서플로우로 챗봇 시스템을 만들 계획이 있는가?

= 챗봇은 아주 만들기 쉬운 기술이다. 챗봇은 아주 기본적인 언어 구조를 이용한다. 문자가 입력되면 답변을 예상하고 다시 질문과 답변을 주고받는 식이다. 이 일련의 과정을 포함한 언어 모델을 계속 훈련시키면 챗봇을 만들 수 있다. 이러한 개념을 일단 이해만 하면 챗봇이 얼마나 쉬운 기술인지 알 수 있을 것이다. 텐서플로우로 지금 당장 개발할 수 있다. 하지만 챗봇을 정말로 쓸모 있게 만드는 것은 또 다른 문제다. 복잡한 대화를 이해하려면 많은 지식을 알고 있어야 하기 때문이다. 현재 나온 챗봇은 바보같은 대화만 할 수 있다. ‘안녕’, ‘이름이 뭐예요?’ 정도만 묻는 식이다. 복잡한 대화는 이해하지 못한다.
반응형
반응형

우리 아이들의 자신감이나 

학습 호기심은 최하위 수준이다. 

어떤 학습법도 호기심을 이기지는 못한다. 

과도한 학습이 아이들의 호기심을 죽이고 우리의 

교육 경쟁력을 떨어뜨리는 가장 큰 주범인 것이다. 

이보다 더 심각한 문제는 초중등 시절의 과도한 학습으로 

아이들이 불행하다는 점이다. OECD보고서에 따르면 

회원국 27개국 및 비회원국 15개국 중에서 한국 

학생들이 몇 해 동안 가장 불행한 것으로 

나타났다. 



- 조기숙의《지금 당장 교육을 빅딜하라》중에서 - 



* '호기심 최하위'.

어둡고 부끄러운 자화상입니다.

아이들의 앞날을 생각하면 암울하기까지 합니다.

호기심은 미래를 여는 원동력입니다. 자동차로 치면 

연료와 같습니다. 아무리 좋은 자동차도 연료가 없으면 

굴러갈 수 없습니다. 4차산업, 인공지능, 우주탐사, 

로봇왕, 대문호, 명상가, 영적 세계도 그 시작은

호기심에서 비롯됩니다. '호기심 최하위'를 

'호기심 천국'으로 만들어야 합니다. 

그래야 우리 아이들의 장래도 

밝아집니다.



...

반응형

'생활의 발견 > 아침편지' 카테고리의 다른 글

기분 좋은 사람  (0) 2017.12.08
자연농, 사람 살리는 밥상  (0) 2017.12.07
'숨통이 탁 트였다'  (0) 2017.12.05
운동과 절식  (0) 2017.12.04
당신이 그립습니다  (0) 2017.12.02
반응형
Slaughterbots




..


반응형
반응형

어도비, ‘포토샵 라이트룸 CC’ 클라우드 포토그래피 출시

어도비가 10월23일 새로운 어도비 포토샵 라이트룸 CC 포토그래피 서비스를 출시했다. 새 라이트룸 CC는 클라우드 기반으로 접근성이 향상돼 앞으로 사용자는 언제, 어디서든 사진을 편집, 정리, 저장 및 공유할 수 있다.


새로운 라이트룸 CC는 포토샵 CC와 클래식 라이트룸 CC(구 라이트룸 CC)의 이미징 기술을 모두 적용했다. 사진 색감 및 밝기를 조절하는 슬라이더는 사용이 보다 쉬워졌고 프리셋, 빠른 수정 도구도 좀더 간편해졌다.



모바일, 데스크톱 그리고 웹상에서 풀 해상도 화질로 편집할 수 있다. 사용자가 한 기기에서 사진을 편집하면 라이트룸 CC에 연결된 모든 기기 및 온라인상에서 변경사항이 자동 적용된다. 사진 공유도 가능하다. 또 확장 가능한 클라우드 스토리지를 제공해 모든 해상도 사진 백업을 지원한다.


인공지능으로 사진 정리 돕는다

어도비의 이미지 처리 인공지능, ‘어도비 센세이’의 활용도도 높아졌다. 원하는 키워드를 검색하면 사진에 있는 사물이 무엇인지 파악해 알아서 검색해준다. 원래 태그를 달아 검색이 가능했지만 센세이가 자동으로 태그를 달아주기 때문에 사진 정리가 한층 편해졌다. 예를 들어 풍경 사진을 찍었을 때 ‘공원’이나 ‘하늘’ 등으로 검색하면 관련 사진을 다 찾아볼 수 있다.


소셜 미디어 공유도 가능하다. 트위터, 페이스북, 어도비 디자이너 커뮤니티 비핸스 등과 라이트룸 CC와 새롭게 통합된 어도비 포트폴리오에 사진을 공유할 수 있다.

모바일·웹 업데이트하고 데스크톱 기능은 보강

iOS 및 안드로이드 라이트룸 앱도 업데이트됐다. 웹용 라이트룸 CC는 어도비 포트폴리오와의 연계가 향상돼 몇 번의 클릭만으로 사진을 개인 포트폴리오에 게시할 수 있게 됐다. 또 어도비 포토샵 라이트룸 클래식 CC는 데스크톱 중심 워크플로우에 초점을 맞춰 업데이트됐다.


새로운 라이트룸 CC 플랜은 새로운 라이트룸 CC 플랜(월 1만1천원), 크리에이티브 클라우드 포토그래피 플랜(월 1만1천원), 1TB 크리에이티브 클라우드 포토그래피 플랜(월 2만3100원) 중 선택할 수 있으며 100GB를 사용할 수 있는 라이트룸 모바일 플랜은 iOS에서 월 5.49달러, 안드로이드에서는 월 5500원에 이용 가능하다.


https://www.adobe.com/kr/creativecloud/plans.html






...

반응형
반응형

[AI] 인공지능과 사랑에 빠질 수 있을까?





...

반응형

+ Recent posts