카카오가 9월18일 오전 11시부터 모바일 주문 생산 플랫폼 메이커스 위드 카카오에서 스마트 스피커 카카오미니의 예약 판매를 시작한다고 9월11일 알렸다. 파격적인 할인과 구성을 내세웠다. 예약 판매 가격은 50% 할인된 5만9천원이며 멜론 1년 스트리밍 무제한 이용권에 카카오미니 전용 피규어 1종도 준다.
카카오미니는 카카오의 통합 인공지능 플랫폼 카카오 아이가 적용된 기기로, 카카오 계정을 기반으로 카카오톡과 멜론 등 다양한 카카오 서비스가 연동되는 점이 특징이다. ‘헤이카카오’로 스피커를 깨워 대화를 나눌 수 있고 음성으로 카카오톡 메시지를 친구에게 보낼 수 있다.
그 외에 스마트 스피커에 기대되는 기능은 대부분 들어가 있으며, 카카오가 밀고 있는 ‘생활플랫폼으로서의 카카오’라는 특징을 살려 추후 업데이트를 통해 택시 호출, 음식 주문, 장보기 등 서비스 영역이 늘어날 수 있다. 역시나 문제는 초기 단계의 제품인 만큼, 얼마나 실생활에서 쓸모를 증명할 수 있는가다. 카카오는”다양한 외부 파트너와의 연결을 통해 수많은 기능이 더해지며 카카오미니 생태계를 만들어낼 예정이다”라고 알렸다.
예약 구매자들은 10월 중 카카오미니를 받아볼 수 있다. 카카오는 예약 판매 물량을 공개하지 않았다. 네이버가 비슷한 구성으로 9만원에 팔았던 웨이브는 판매 35분 만에 완판됐다. 카카오미니는 10월 말부터 정식으로 판매된다.
AI 규제를 논하기 위해선 AI에 규제가 필요한 이유가 설명돼야 한다. 심우민 교수는 ‘알고리즘 기반 규제’로 이를 설명했다. 알고리즘 기반 규제는 기술적 구조가 인간 행위, 인간 자유에 제약을 가하는 것을 뜻한다. 기술은 편리를 제공해 인간 행위의 자유를 증진하는 동시에 기술적 구조 안에서만 판단하고 행동하도록 제약하기 때문이다.
예를 들어, 미국 법원은 피고인의 재범 가능성을 추측하는 컴퓨터 프로그램을 사용한다. 과거 재범 가능성을 예측하는 것은 인간의 영역이었다. 그런데 이제는 알고리즘의 영역으로 넘어간 것이다. 판사는 알고리즘이 추측한 재범 가능성을 바탕으로 피고인의 형량, 보석금 액수 등을 결정한다. 결과적으로 판사의 판단이 알고리즘의 제약을 받게 된 것이다.
심우민 교수는 국가가 법을 통해 AI 규제에 개입하는 건 되도록 자제해야 한다는 입장이다. 국가가 인허가 혹은 행위규제 방식으로 AI 산업을 규제하면 당연한 순리로 자율성이 저하된다. 엔지니어도 폭발적인 아이디어를 내기 어렵다. 심 교수는 또 “사람들이 우려하는 인간 수준의 AI는 아직 세상 어느 곳에도 없다”라며 직접적 법적 규제는 현 단계에서 논의할 수준이 아니라고 말했다.
심 교수는 ‘상시적 영향평가’라는 규제 방식을 제시했다. 그는 “반드시 무언가를 ‘하지 말라’라고 하는 것만이 규제가 아니다”라며 “지속해서 추적 평가하는 것도 법적 규제의 한 방식”이라고 말했다. 심 교수는 구글, 페이스북 등 유수 기업이 자발적으로 AI 기술 윤리위원회를 만들어 운영하는 사례를 들며 “한계는 있지만, 사업자들이 스스로 윤리위원회를 구성해 자발적 성찰을 하도록 하는 게 바람직하다”라고 말했다.
물론 기업의 손에 전적으로 인류와 AI의 미래를 맡기자는 게 아니다.
AI 기술에 대한 상시적 추적 평가는 국가적 차원에서 필요하다.
심 교수는 국가적 차원의 관리감독 기관이 AI 기술에 대한 상시적이고 실질적인 영향평가를 해야 한다고 말했다.
From Mobile first to AI first — Google I/O 2017 conference.
Announcements presented at Google I/O developer conference 2017 enhanced the real meaning of Google’s mission:
to organize the world’s information and make it universally accessible and useful.
Google make transition from mobile first to AI first, which means that main users problems will be solved through Artificial Intelligence. Moreover, all actions taken by company democratize the knowledge and make solutions easily accessible for each developer. So companies can widely use tools which were presented. That is the reason of upcoming changes for business and for all of us.
We have made summary of Google I/O first day, so you can check some of the news:
Google Lens — this is smart technology that can recognize what user is looking at. It can extend the user’s knowledge about the object or help visually impaired person to get the idea of objects around. “Google Lens is a set of vision based on computing capabilities, that can understand what you’re looking at,” explained CEO Sundar Pichai. Thanks to integration of Tango which recognizes environment and Google Maps it is possible to scan locations through smartphone and get the information about the place. User can make a better choice by getting necessary set of information like e.g. restaurant reviews, menu, additional services etc. (it is called Google Visual Positioning).
Google Photos — is able to identify the best photos and select them to make a photo book. It also has ability to recognize who is on the photo and suggest to share the files with indicated persons. This idea of instant communication is even enhanced by shared libraries where users can share their files instantly while uploading.
Google.ai — this represents community for sharing AI solutions and making improvements on specific technologies. Its aim is to spread the usage of AI solutions in business reality.
Tensor Processing Units — this is a second generation of TPU chips which makes machine learning faster and more efficient. It provides up to 180 teraflops of performance (Floating Point Operation Per Second) which means that speed and accuracy improve dramatically in comparison to current processing units (e.g. NVIDIA Volta GPU dedicated for AI processing has 100 teraflops). Google wrote “To put this into perspective, our new large-scale translation model takes a full day to train on 32 of the world’s best commercially available GPU’s (Graphics Processing Unit) — while one 1/8th of a TPU pod can do the job in an afternoon.”
Google Assistant — available on Google Home and Pixel Phone can help you in various queries. It has similar functionalities to Siri (available on iOS devices) but is more powerful due to some extensions. It lets you ask more complicated queries and has third-party integrations. Google Assistant also lets you control connected devices and makes it possible to command via sound or typing. Moreover it is available also on iOS system and soon will implement variety of languages.
Android O Beta — this version of Android enables users to ease usage by new utilities. Users can make autofill to make authentication process faster. System has picture-in-picture support for watching videos while doing other tasks, notifications updates, protection of battery usage, possibility of spotting security issues and others. Also Android O boot time accelerates twice so apps perform better.
Google for Jobs — uses AI tomatch applicants with jobs offers. With more searches it learns preferences and gives more suitable results. Users get also some additional information as for example commuting time, so they can consider all additional circumstances.
Daydream VR headset- gives possibility to play without connection to a games console, a computer, or even a smartphone. It allows users to walk around in virtual worlds without fear of real-world obstacles thanks to sensors and cameras. Google will deliver Qualcomm-based reference design to hardware makers, so it won’t deliver its own device.
360 YT videos: 360-degree video is coming to YouTube’s TV app where with the remote user can play around the video.
Kotlin — Google announced Kotlin as the first class language for making Android apps. Kotlin is a modern programming language (similar to Apple’s Swift) which is easy to learn and makes Android development more pleasant. It leverages existing libraries, JVM, Android and the browser with 100% compatibility. Its idea is to “make Kotlin a uniform tool for end-to-end development of various applications bridging multiple platforms with the same language” (Blog Jetbrains).
Video shortcut of conference from the Verge:
Everything becomes smarter, more automated and customized. It seems that users will get the answers instantly with much less effort. Convenience of communication becomes the main direction of development. So now the question is — how business will use the opportunities. Certainly soon we will see the split of companies to those that designate the direction of development and those that drop behind.
Some information about Google statistics from Sundar Pichai — Chief Executive Officer at Google:
Over 1 billion hours of video watched each day on YouTube
Over 1 billion kilometers checked on Google Maps every day
Over 800 million monthly active users on Google Drive
More than 500 million active users on Google Photos
구글(Google) I/O는 구글에서 매년 한번씩 주최하는 개발자 컨퍼런스이다.-I/O는 “Input/Output”과 “Innovation in the Open”의 약자라고 한다.[1]
올해 구글 I/O는 5월 17일부터 5월 19일까지 진행되었다. 이전 구글 I/O의 키워드가 “Mobile First”였다면 2017년 구글 I/O의 키워드는 “AI First”였다. AI에 큰 투자를 하고 있는 구글답게 모든 제품군 키노트-기조연설- 시간에 어떻게 해당 제품에 머신러닝과 AI 기술을 접목시켰는지 자세히 설명하였다.
하지만 역시 가장 주목할만한 키노트는 순다 피차이(Sundar Pichai) CEO의 키노트였는데 순다 피차이는 기조연설에서 구글의 AI 연구에 대한 청사진과 응용사례를 요약해서 설명하였다. 아래에 순다 피차이 CEO의 키노트 내용을 중요 키워드 별로 요약정리했다.
1. Smart Reply
Smart Reply는 구글 Gmail에 새로 추가된 기능으로 자연어처리(NLP) 기술을 이용해서 이메일에 대한 적절한 답장(Reply)을 제안(Suggestion)해주는 기술이다. 구체적인 기술적 내용은 Kannan, Anjuli, et al.의 논문 “Smart Reply: Automated Response Suggestion for Email”[2]과 구글 리서치 블로그[3]를 참조하라.
2. Google Home에 적용된 음석인식(Speech Recognition)
구글 홈(Google Home)[4]은 스마트홈을 위해 구글에서 만든 IoT(Internet of Things) 기기이다. 아마존 에코를 떠올리면 이해하기 쉽다. 구글 홈에도 딥러닝을 이용한 음성 인식 기술이 적용되었다. 특히, 구글 홈을 이용한 Hands-Free 전화와 구글 어시스턴트와의 연동을 중요하게 언급하였다.
3. 이미지 인식(Image Recognition) & 구글 렌즈(Google Lens)
이미지 인식 분야에서도 AI 기술이 적용되었다. 대표적인 응용 사례로, 저화질 이미지를 업로드하면 자동으로 고화질 이미지로 변경해주는 기능-컴퓨터비전 분야에서 이런 기법을 Super Resolution이라고 한다.-과, 철조망 사이로 찍힌 사진에서 철조망을 자동으로 지워주는 기능을 제시하였다.-컴퓨터비전 분야에서 이런 기법을 Image Inpainting이라고 한다.-
이어서 새로운 제품인 구글 렌즈(Google Lens)를 공개했다. 구글 렌즈는 인간의 눈과 같이 작동하는데, 앱을 켜고 이미지를 가리키면 이미지에서 자동으로 이미지 안에 내용을 해석해서 정보를 제공해준다. 예를 들어 와이파이 아이디와 비밀번호를 가리키면 자동으로 와이파이에 연결하는 것을 도와준다.
4. Cloud TPU
구글 딥러닝을 위한 별도의 프로세서인 TPU(Tensor Processing Unit)를 개발해서 사용하고 있는데, 이 TPU를 구글의 클라우드 컴퓨팅 플랫폼인 Google App Engine에서 제공할 예정이라고 한다. [5]
5. AutoML (Learn to Learn)
기존의 딥러닝 기법에 가장 큰 문제는 어떤 Task에 적합한 Neural Networks 구조를 끊임 없는 노가다를 통해서 알아 냈어야만 했다.-구글에서는 이런 반복적인 노가다를 머신 러닝으로 박사학위(Phd)를 받은 사람들이 수행해왔다고 한다.-
따라서 이런 지루한 과정을 해결하기 위해 구글은 일종의 메타 러닝 기법을 제안했는데, 어떤 문제에 적합한 Neural Networks 구조를 찾아내기 위한 Neural Networks를 학습시키는 기법을 제안하였고 이를 AutoML(Learn to Learn)이라고 이름지었다. 더욱 자세한 내용은 구글 리서치 블로그[9]를 참조하라.
6. 병리학(Pathology)에 응용
병리학 분야에도 딥러닝이 사용되었다. 대표적인 응용 사례는, 장기에서 암세포가 어떤 부분인지 판단하는(Labeling)하는 문제이다. 현재 딥러닝 기술을 실제 병리학자가 판단하는 것보다 더욱 정확한 수준까지 발전되었다.
7. AutoDraw
위에 언급된 사례들이 인공지능 기술이 실용적인 문제에 적용된 예제들이었다면, AutoDraw는 재미를 위한 프로젝트 중 하나이다. 그림판 같은 캔버스에 그림을 그리면, AI가 자동으로 유사한 Drawing을 찾아서 적절한 모양을 제안해준다. 아래의 링크[8]로 들어가면 직접 AutoDraw를 실험해 볼 수 있다.
우리의 사명은 전 세계의 정보를 체계화하여 보편적으로 액세스 가능하고 유용하게 만드는 것입니다. AI는 우리가 사용자, 고객 및 전세계의 문제를 해결하는 놀라운 새로운 방식으로이를 가능하게합니다.
AI는 내가 좋아하는 사람들의 사진을 검색하거나, 언어 장벽을 허물고, 개인 디지털 보조기로 일을 끝내도록 돕는 등 일상 생활을 쉽게합니다. 그러나 그것은 또한 오래된 문제를보고 우리가 일하고 사는 방식을 변화시키는 새로운 방법을 우리에게 제공하고 있습니다. 우리는 모든 사람들이 접근 할 수있을 때 가장 큰 영향이 올 것이라고 생각합니다.