반응형
반응형
강화 학습(Reinforcement learning)기계 학습이 다루는 문제 의 하나로, 어떤 환경 안에서 정의된 에이전트가 현재의 상태를 인식하여, 선택 가능한 행동들 중 보상을 최대화하는 행동 혹은 행동 순서를 선택하는 방법이다.

개요
환경은 일반적으로 유한상태 마르코프 결정 프로세스(MDP)로 표현할 수 있다. 이런 관점에서 강화 학습 알고리즘은 동적 계획법과 깊은 연관이 있다. MDP에서 상태 전이 확률(state transition probabilities)와 포상은 확률에 따른 값일 수도 있고, 이미 결정되어 있는 값일 수도 있다.

알고리즘



응용
강화 학습이 원하지 않는 행동을 명시적으로 수정하는 지도 학습과 다른 점은 온라인 수행에 중심을 두고 있다는 점이다. 강화 학습은 아직 조사되지 않는 영역을 탐험하는 것과 이미 알고 있는 지식을 이용하는 것의 균형을 잡는 것이다. 이 탐험과 이용 사이에 있는 트레이드오프는 Multi-armed bandit과 같은 문제에서 알아 볼 수 있다.


반응형
반응형


네이버·라인, 인공지능 플랫폼 ‘클로바’ 공개  http://www.bloter.net/archives/273017


Clova clova.ai 공식 통합형 인공지능 플랫폼 Clova

 

네이버와 라인이 인공지능 플랫폼 확장을 위해 힘을 합친다. 이데자와 다케시 라인주식회사 대표는 3월1일(현지시간) 열린 ‘모바일 월드 콩그레스(MWC) 2017’ 기조연설에서 양사 합작 인공지능 플랫폼 ‘클로바’를 공개했다. 클로바(Clova)는 ‘CLOud Virtual Assistant’의 약자로, 음성인식 기반의 클라우드 플랫폼을 의미한다.


클로바는 ‘프로젝트J’에서 내놓은 서비스다. 프로젝트J는 네이버랩스와 라인의 인공지능 연구소가 공동 연구개발을 하기 위해 꾸려졌다. 이번에 공개한 클로바는 프로젝트J가 네이버 음성인식 인공지능 플랫폼 ‘아미카’의 업그레이드 버전으로 내놓은 것이다. 네이버는 지난 1월26일 진행된 2016년 4분기 컨퍼런스콜에서 “프로젝트J의 기본적인 구상과 개발 방향은 24시간 언제나 사용자와 함께하는 인공지능 가상비서 서비스를 만드는 것이 목표”라고 밝힌 바 있다.


네이버 관계자는 “앞으로 클로바를 양사 단일 서비스 형태로 진행할 예정”이라고 말했다. 서비스 총괄 역시 프로젝트J를 총괄한 신중호 라인CGO(글로벌경영총괄)가 이어간다. 이번 합작은 양사 인공지능 기술력을 바탕으로 아시아 글로벌 시장 진출을 염두한 것으로 보인다.


클로바는 인간의 오감을 활용한 인공지능 플랫폼을 목표로 하고 있다. 인간이 오감을 활용하는 것처럼, 인공지능도 결국 인간의 오감을 활용하는 방향으로 나아갈 것이라는 인식에 기반했다. 기존 아미카가 주로 음성인식 서비스를 했던 것에서 나아가 다양한 감각을 인지하는 것으로 확장해 나갈 방침이다.


클로바는 ▲인간의 오감에 해당하는 ‘클로바 인터페이스’▲인간 두뇌에 해당하는 ‘클로바 브레인’▲기기와 애플리케이션을 연결하는 ‘클로바 인터페이스 커넥트’▲콘텐츠·서비스 연결로 ‘클로바 브레인’의 기능을 확장하기 위한 ‘클로바 익스텐션 키트’ 등으로 구성된다.


클로바 브레인은 인공신경망 기계번역(NMT)와 자연어처리 등 다양한 기술을 기반으로 한다. 기존 아미카가 음성 언어 이해, 대화관리, 응답 생성의 단계로 기술을 구사했다면, 클로바 브레인은 클로바 인터페이스로 인지된 상황을 자동 분석하고 이에 맞는 결과를 제시하는 방식으로 발전했다.


네이버와 라인은 올 여름 클로바가 탑재된 자체 스마트폰 앱 출시를 시작으로 AI 스피커 ‘웨이브’ 등 다양한 기기와 서비스들을 발표할 예정이다. 소니, 다카라 토미, 윈클 등 각 분야별 전문기업과 파트너십도 염두에 두고 있지만, 아직 구체적인 협의 사항은 없으며 앞으로 논의를 이어갈 예정이라고 말했다.


네이버 관계자는 <블로터>와 통화에서 “오늘 발표는 기존에 연구하던 AI플랫폼의 업그레이드 버전인 클로바의 명칭을 공개하고, 앞으로의 발전 방향성을 얘기하기 위함”이라며 “자세한 서비스에 대해서는 추후 공개할 예정”이라고 말했다.



반응형
반응형

‘인간 vs 인공지능’, 누구를 위한 대결이죠?


http://www.bloter.net/archives/272574


2월21일 ‘제2의 세기의 대결’이라는 타이틀을 걸고 열린 행사가 있습니다. 국제통역번역협회 (IITA)와 세종대학교, 세종사이버대학교가 공동 주최한  ‘인간 vs 인공지능(AI) 번역대결’ 행사입니다. ‘알파고’에 이어 인간과 AI의 두 번째 대결이라는 주최 측의 홍보가 더해지면서 대회는 뜨거운 화제로 떠올랐습니다.

주최측이 내린 결과는 인간의 승리. 기다렸다는 듯이 ‘인간의 압승이었다’라는 기사가 쏟아졌습니다. 동시에 알파고와의 바둑 대결에서 진 인간이 ‘정신 승리’한 것 아니냐는 비판이 쏟아졌습니다. 대결 방식을 두고 공정하지 않다는 논란이 이어졌습니다.


▲행사 메인 포스터, 세종대학교 제공

이 대결은 현업에 종사하고 있는 전문 번역사 4명과 구글 번역기, 네이버 번역기 ‘파파고’, 시스트란 번역기 등 총 번역기 3가지가 제한된 시간 안에 영어와 한국어 지문을 번역하는 방식으로 이뤄졌습니다. 번역기는 10분 동안, 인간은 50분 동안 문제를 번역했습니다.

대결 직후 번역 평가 점수가 공개된 부분에 대해서도 평가 기준이 사람에게 맞춰져 있다는 비판도 있었습니다. 번역기 순위에 대한 추측성 보도가 쏟아졌습니다.


이런 기사 분위기에 행사를 연 주최측도 이해는 하지만 다소 억울하다는 반응을 보였습니다. 번역 분야에서 AI가 얼마나 인간의 능력에 가까워졌는지 비교해보자는 취지에서 행사를 진행했는데, 여론과 언론보도가 부정적으로 나오자 당혹스럽다는 입장입니다.

급기야 국제통번역협회와 세종대 측은 책임을 서로 미루기 시작했습니다. 먼저 선을 그은 건 국제통번역협회입니다. 강대영 국제통번역협회 국장은 <블로터>와 전화통화에서 “주최는 우리(협회)가 한 것이 맞지만, 공정성 문제 때문에 출제 및 평가는 심사 위원에게 일임했으며, 우리는 진행만 했다”라고 밝혔습니다.

“불공정성 논란이 나오는 건 엄연한 사실입니다. 인간은 기계처럼 빨리 번역할 수 없습니다. 기계와 인간을 일대일로 대입한다면 본질에서 불합리합니다. 공정한 조건은 제한 시간을 동일하게 해야 하는데, 그게 불가능하니 한계라고 잡고 갔습니다. 시간을 좀 더 주는 것으로.”

인간과 번역기의 대결은 분야 특성상 완벽히 공정한 여건을 만들기는 어렵습니다. 번역엔 명확한 정답이 없기 때문입니다. 협회 측 역시 출제된 문제 중 인간 번역사한테 일방적으로 유리한 것도 있었다며 대회를 둘러싼 불공정성 논란을 인정했습니다.

김대종 세종대학교 홍보실장 역시 이번 행사에 대해 진행만 했을 뿐이라고 얘기합니다. 문제 제출과 평가를 세종대에서 맡긴 했지만, 그런 부분은 모두 곽중철 한국외대 통번역대학원 교수가 했다고 답했습니다.

“곽중철 교수가 한국 번역업계에서 누구도 토 달 수 없을 만큼 최고이기 때문에 그분에게 모든 걸 맡겼습니다. 행사 진행도 구글에는 연락했는데 답이 없었고, 네이버는 협회 측에서 연락한 것으로 알았으며, 시스트란은 행사 소식 듣고 먼저 연락이 왔습니다.”

국제통번역협회와 세종대학교 측 모두 행사는 주최했지만, 자세한 행사 내용이나 진행 과정에 대해서는 모른다고 입을 모았습니다. 주최한 곳은 있는데, 정말 주최했다고 얘기하는 곳은 없는 셈이지요.

행사를 두고 참여 업체로 거론된 구글, 네이버, 시스트란도 불만이 많습니다. 구글과 네이버는 행사에 자신들이 ‘참여’했다는 주최측 말에 황당하다는 반응을, 참여 의사를 밝힌 시스트란 역시 행사 진행에 대해 불만을 토로했습니다.


...


주최측과 여러 업체, 관계자의 말처럼 인간과 기계의 역할을 따로 분리할 것이 아니라 인간이 기술을 어떻게 활용할 수 있을지에 초점을 맞췄다면 어땠을까요. 소문난 잔치에 먹을 게 있는 행사가 됐을 지 모릅니다.

집단지성을 이용한 번역 서비스를 운영하는 이정수 플리토 대표는 이번 대회를 두고 ‘인간과 기계의 공존’을 생각해 봐야 한다는 의견을 내놓았습니다.

“이번 대회의 공정성과 인간과 기계의 장단점을 따지는 것은 아무 의미가 없습니다. 기계 번역이 아무리 발전하더라도 시대마다 달라지는 문화적 의미와 뉘앙스를 읽어내는 건 인간의 영역이죠. 동시에 기계번역이 인간에게 가져올 편리함은 분명히 존재한다는 점을 인정합니다. 결국, AI는 사람의 번역 데이터를 기반으로 발전하고, 기계의 도움으로 통번역가들은 서비스의 편의를 얻을 수 있으므로 둘의 공존이 불가피하죠.”

지난해 인간과 퀴즈대결을 벌인 국산 AI ‘엑소브레인’ 개발을 담당한 ETRI 박상규 박사는 번역기에 대해 다음과 같은 의견을 전했습니다.


“AI 번역이 아직 사람을 대체할 수준은 아니지만, 장점은 있어요. 인간처럼 정확하게는 못해도 빠른 시일 내에 많은 문장을 번역할 수 있다는 점, 여러 사람에게 동시에 서비스할 수 있다는 점입니다.”


인간과 AI가 서로 경쟁이 아닌, 상생할 수 있는 부분이 있습니다. 대결 결과처럼 기계의 빠르기와 생산성을 활용하면서 자동번역기가 번역하기 어려운 부분을 통번역사가 편집하면 훨씬 생산성 높은 번역 작업이 이뤄질 수 있을 것입니다. 


아마 곧 따라잡을수 없게 될 것이다. 기계는 잠을 자지 않고 배우고 있으니까. 


.

반응형
반응형
네이버 뉴스, 인공지능이 추천한다.


네이버 뉴스편집에서 인간의 개입이 줄어든다. 네이버는 지난 2월17일 모바일 메인 ‘뉴스판’에서 에어스(AiRS, AI Recommender System, 이하 ‘에어스’)를 통한 뉴스 추천 베타테스트를 사작한다고 밝혔다. 에어스는 네이버가 자체 연구, 개발한 인공지능 기반 추천 시스템이다.

AirS (1)
사진=네이버

에어스 추천 뉴스 베타판은 무작위로 선정된 일부 사용자를 대상으로 제공된다. 네이버 다이어리에서도 만나볼 수 있다. 에어스는 공기(air)와 같이 항상 이용자 곁에서 유용한 콘텐츠를 추천한다는 의미로 명명된 인공지능 기반 추천 시스템이다. 네이버는 이 같은 시스템을 2016년 MY피드, 네이버 TV 일부에 적용, 이용자들의 콘텐츠 소비패턴과 시간의 경과에 따라 변하는 개인별 관심사를 분석하며 이에 따른 콘텐츠를 자동으로 추천하고 있다.

네이버는 모바일 메인 ‘뉴스판’ 중단 배너 영역 아래, ‘AiRS 추천 뉴스 영역(베타버전)’을 마련하고, 최근 7일 간 ▲사용자가 네이버 모바일과 PC에서 구독한 뉴스 및 ▲사용자와 관심사가 비슷한 그룹이 구독한 뉴스를 기반으로, NPMI(추천 스코어)Normalized Point-wise Mutual Information, Item-to-item 모델에서 item(콘텐츠)간 유사도 계산 시에 사용되는 통계값이다.  co-occurrence(동시 발생)만을 고려한 모델에 비해 item간 조건부 확률까지 분석해, 보다 정교한 추천이 가능한 방식이다close, 최신성, 다양성 등을 추출 및 분석해 개인별 관심도, 선호도가 높은 뉴스를 추천한다. 해당 영역에서는 사용자의 관심사에 따른 뉴스를 추천하며, 소비에 따라 실시간으로 새로운 뉴스를 업데이트하며 다양한 뉴스를 제공한다.

네이버의 뉴스판은 워낙 많은 사람이 이용하다 보니 편집과 관련해 정치·사회적으로 민감하다. 비교적 논란이 적을 수 있는 ‘연예’, ‘스포츠’보다 뉴스판에 먼저 에어스를 적용한 이유는 베타 테스트의 관점에서 테스트 사용자의 규모와 추천 대상 콘텐츠의 생산량(회전율)을 고려했기 때문이다. 향후 에어스는 네이버 모바일 주제판인 ‘연예’, ‘스포츠’ 등 더욱 다양한 주제판과 ‘웹툰’과 같은 네이버의 콘텐츠 서비스로 확대해, 사용자들의 세분화, 개인화된 관심사와 니즈에 적합한 맞춤 콘텐츠를 추천해나갈 예정이다.

비슷한 관심사의 사람들이 본 뉴스를 추천한다

에어스는 같은 관심사를 가진 사용자 그룹이 구독한 콘텐츠를 추천하는 CF(Collaborative Filtering, 협력 필터) 기술을 바탕으로 한다. CF기술은 컴퓨터가 보편화하던 1970년대부터 시작됐다. 정보의 양이 빠른 속도로 증가하면서 그에 걸맞은 정보 추천 시스템이 필요해져서다.

CF 기술은 네이버의 ‘콘텐츠 네트워크’에 적용, 비슷한 관심사를 가진 사용자 네트워크를 구축하고, 해당 구성원들이 많이 본 콘텐츠 중 관련도가 높은 콘텐츠를 우선 추천한다. CF기술은 넷플릭스의 영화 및 드라마 추천, 아마존의 쇼핑 상품 추천, 유튜브의 동영상 추천 등 글로벌 IT기업들도 활용하고 있다.

AirS (2)
사진=네이버

네이버는 인공신경망 기술인 순환신경망(RNN, Recurrent Neural Network)을 통해 콘텐츠를 추천하기 위한 내부 연구도 진행 중이라고 알렸다. 해당 기술은 사용자가 콘텐츠를 구독한 순서까지 기억한다. 시간이 지날수록 더욱 정교하게 콘텐츠를 분석하고, 생성된 지 얼마 되지 않은 최신 콘텐츠까지 추천할 수 있는 기술이다. 스스로 학습이 가능한 추천 시스템이다.

AirS (3)
사진=네이버

최재호 에어스 리더는 “에어스는 계속해서 학습을 통해 고도화되기 때문에 추천 품질은 지속적으로 좋아지게 된다”라며 “앞으로 CF 기술과 RNN 등 딥러닝 기술이 가진 장점을 융합해 더욱 고도화된 형태의 추천 시스템으로 진화하기 위한 연구를 지속할 예정”이라고 밝혔다.

편리한 기술, 부작용은 없을까?

콘텐츠 추천 시스템은 편리하다. 사람이 할 일이 줄어든다는 것은 부차적이다. 개인화된 맞춤 추천도 사용자 입장에서 편리하게 받아들여질 수 있는 기술이다. 대중의 취향보다는 같은 관심사를 공유하는 사람들의 취향이 사용자의 입맛에도 맞다. 알고리즘이 추천하는 시스템을 적용하면 ‘포털이 사실상의 뉴스편집권을 행사한다’는 논란을 비껴가기에도 좋다. ‘로봇이 사용자의 관심사를 기반으로’ 추천한다는 사실은 굉장히 공정해 보이기 때문이다.

‘다음’을 운영하고 있는 카카오는 2015년부터 ‘루빅스’라는 이름의 알고리즘 기반 추천 시스템을 뉴스 콘텐츠 제공에 사용하고 있다. 카카오 측은 “루빅스 적용 후 사용자에 따라 다른 뉴스가 노출되므로 메인에 노출되는 뉴스 수가 늘어난다”라며 “사용자의 입맛에 맞는 콘텐츠를 노출하게 되므로 뉴스 콘텐츠 소비량도 증가하는 효과를 얻을 수 있다”라고 장점을 강조한다.

▲필터버블은 개인 맞춤형 정보를 제공하는 과정에서 생겨난다.
▲필터버블은 개인 맞춤형 정보를 제공하는 과정에서 생겨난다. 

다만 비슷한 그룹의 관심사에 기반해 추천하는 기술은 ‘필터버블’의 우려에서 벗어나지 못한다. 필터버블은 인터넷 정보제공자가 이용자 맞춤형 정보를 제공해 필터링 된 정보만 이용자에게 도달하는 현상을 지칭한다. 개인 맞춤형 콘텐츠 추천 시스템의 부작용이다.

개인 맞춤형 콘텐츠 추천 시스템에 뉴스가 섞이면 부작용이 생긴다. 자기가 좋아하는 뉴스, 보고 싶은 뉴스만 보면 결국 정치·사회적인 문제에서 고정관념과 편견을 강화하는 계기가 된다. 강화된 고정관념과 편견은 좀 더 입맛에 맞는 게시물만 가지고 온다. 악영향이 강화되는 셈이다. 이렇게 되면 여론을 잘못 이해하게 될 뿐만 아니라, 전혀 잘못된 소식이 확산력을 가지게 되는 상황도 생긴다. 이러한 필터버블은 개인의 편견이나 고정관념을 강화하는 데 그치지 않고 사회와 정치에도 악영향을 미칠 수 있다.

네이버는 이러한 우려에 대해 “이용자 행태를 분석하는 과정에서 일괄적으로 필터링하거나 어느 한쪽으로 쏠리기보다는, 개개인의 시시각각 변하는 관심사를 인식하여 최적화된 추천 결과를 예측하는 데 중점을 두고 있다”라며, “뉴스판의 경우만 보더라도 npmi(추천 스코어) 이외에 다양성이나 최신성 등이 충분히 고려되며, ‘추천 뉴스 새로 보기’를 통해 여러 분야의 다양한 기사들도 계속 접할 수 있다”라고 답변했다.

시스템과 로직은 공개할 의향 있어

보통 알고리즘은 기업 비밀로 취급되곤 한다. 하지만 뉴스편집은 약간 예외가 될 수 있다. ‘왜 해당 뉴스가 비중있게 다뤄지는지’, ‘더 긴 노출 시간을 확보하는지’는 기업의 문제이면서 동시에 사회의 문제다. 이와 관련된 알고리즘이 투명하게 알려지는게 중요한 이유다. 카카오는 작년 말에 “루빅스가 어떤 팩터로 구성됐고, 어떻게 작동하는지에 대한 공개를 준비하고 있다”라고 밝힌 바 있다. 네이버 측도 “아직 연구 실험 중인 부분이 있어 향후 바뀔 수는 있지만”이라고 전제는 달았지만 “기본적인 시스템이나 로직은 기회가 된다면 공개할 예정이다”라고 답변했다.

유봉석 네이버 미디어서포트 리더는 “에어스를 통해, 사용자들이 네이버 모바일 홈에서 다양한 영역에 걸쳐있는 개인 관심사에 대한 뉴스를 더욱 편리하게 확인할 수 있게 될 것으로 기대한다”라며, “기술을 기반으로 투명한 뉴스 서비스를 제공하기 위한 노력을 이어갈 것이다” 라고 말했다.






.


반응형
반응형

AI혁명…'제로스크린 시대'가 온다


올초 공개된 로이터연구소의 ‘디지털 뉴스 프로젝트 2017’에도 눈길 끄는 내용이 담겨 있다. (☞ 로이터연구소 보고서 바로가기)


로이터연구소가 주목한 것도 최근 IT 시장 흐름과 비슷하다. 아마존 알렉사를 비롯해 애플 시리, MS 코나타, 삼성의 비브, 구글 어시스턴트 같은 것들이 연이어 등장하면서 홈 디지털 생태계 경쟁이 뜨겁게 달아오를 것이란 전망에 바탕을 두고 있다.

뉴스 시장 경쟁도 이런 흐름과 크게 다르지 않을 것이란 얘기다.

여기서 중요하게 대두되고 있는 개념이 ‘제로 UI’다. 제로UI란 쉽게 얘기하면 ‘스크린이 없는 이용자 인터페이스’(screen-less user interface)를 의미한다.

지난 10년 간 IT 시장의 중심이 된 스마트폰의 상징은 터치스크린 UI다. 다양한 아이콘을 손끝으로 살짝 누르면 작동되는 터치스크린은 스마트폰을 ‘콘텐츠 소비 플랫폼’의 중심으로 만들어줬다.

하지만 사물인터넷(IoT)과 로봇, 그리고 인공지능 기술이 결합되면서 ‘터치스크린 시대’가 종언을 구하고 있다. 이 기술들의 결합물은 음성인식 비서만 있으면 굳이 스크린이 필요 없기 때문이다.




http://www.zdnet.co.kr/column/column_view.asp?artice_id=20170116160851




.

반응형
반응형

컴퓨터의 성능, 대규모 데이터의 생성 및 처리 능력이 향상함에 따라 인공지능의 성능도 비약적으로 증가했다. 책임이 필요한 판단의 영역도 인공지능이 처리할 수 있게 되면서 인공지능이 사회에 미칠 다양한 영향력, 윤리, 책임에 대한 논의가 필요해졌다. 이른바 ‘로봇 윤리’(Robot Ethics)에 대한 논의다.

로봇 윤리의 등장 배경

최초의 로봇 윤리에 대한 사고는 공상과학(SF) 소설에서 등장한다. 한 번쯤은 들어봤을 ‘로봇 3원칙’이다. 과학 소설 저술가인 아이작 아시모프는 로봇에 관한 소설 속에서 ‘로봇 3원칙’이라는 로봇의 작동 원리를 제안한다. 이는 1942년작 단편 ‘런어라운드'(Runaround)에서 처음 언급됐다. 3원칙은 다음과 같다.

  • 로봇은 인간에 해를 가하거나, 혹은 행동을 하지 않음으로써 인간에게 해가 가도록 해서는 안 된다.
  • 로봇은 인간이 내리는 명령들에 복종해야만 하며, 단 이러한 명령들이 첫 번째 법칙에 위배될 때에는 예외로 한다.
  • 로봇은 자신의 존재를 보호해야만 하며, 단 그러한 보호가 첫 번째와 두 번째 법칙에 위배될 때에는 예외로 한다. (출처 : 위키백과)

이처럼 로봇 윤리에 대한 논의는 이전부터 있었다. 그러나 로봇 3원칙의 유래가 공상과학이었던 것처럼, 이 논의가 당장 현실에서 필요하진 않았다. 하지만 지금은 상황이 조금 달라졌다. 백악관이 지난 10월 내놓은 ‘인공지능의 미래를 위한 준비’(Preparing for the Future of Artificial Intelligence)를 보자. 미국 국가과학기술위원회(NSTC)는 다음과 같이 윤리적인 문제에 대한 논의가 필요함을 말하고 있다.

 

MIT 미디어랩 스케일러블 코퍼레이션 ‘윤리기계’ 소개 동영상

 

 

 

출처 : http://www.bloter.net/archives/270256

 

반응형

+ Recent posts