반응형

구글 어시스턴트, 한국어도 “오케이, 구글”


http://www.bloter.net/archives/290622


구글은 9월21일 인공지능(AI) 기반의 음성비서 기술인 구글 어시스턴트의 한국어 서비스를 출시했다.

구글 어시스턴트는 머신러닝을 기반으로 한 자연어 처리, 음성인식, 번역 등과 같은 기술을 바탕으로 사용자의 질문에 대답하고 정보를 찾는 등 맞춤형 서비스를 제공한다. AI 스피커 등에서 쓰이다가 스마트폰에는 올해 3월 처음으로 탑재됐다.

구글 어시스턴트의 한국어 서비스는 LG전자가 최근 출시한 ‘V30’에서 우선 만나볼 수 있다. 몇 주 내로 안드로이드 6.0 이상(마시멜로, 누가, 오레오)을 사용하는 LG폰 외 여타 안드로이드 스마트폰에서도 구글 어시스턴트를 이용할 수 있다. 


구글 어시스턴트를 부르는 방법

구글 어시스턴트 한국어 서비스를 지원하는 스마트폰 기기에서 권한 설정 및 사용자 음성 인식 훈련을 통해 사용 설정을 한다. 이후 홈 버튼을 길게 누르거나 ‘오케이 구글’이라고 부르면 활성화된다.

  1. 일정 관리

구글 어시스턴트는 캘린더, 지메일, 검색, 사진, 지도 등 구글의 다양한 앱과 연결된다. “오늘 내 스케줄 알려줘”라고 말하면 날씨를 알려주고 출근 시간이 얼마나 걸릴지, 첫 미팅이 몇 시에 시작하는지 등 하루 일과에 필요한 정보를 요약해 알려준다.

  • 오늘 내 스케줄 알려 줘
  • 나의 하루는 어때?
  • 내일 아침 7시에 알람 맞춰줘
  • 계란찜 타이머 설정해줘
  1. 실시간 답변

날씨, 좋아하는 스포츠 팀의 경기 결과, 현재 주가에 대한 최근 소식 등 구글 어시스턴트는 인물, 장소 및 사물에 대한 유용한 정보를 제공한다.

  • 내일 서울 날씨 어때?
  • 구글 주가는 얼마야?
  • 265 곱하기 72는?
  1. 여행 어시스턴트 사용

해외 여행할 때 구글 지도와 구글 번역은 필수다. 이제 구글 어시스턴트가 한국어를 지원하니 다음 여행에서는 구글 어시스턴트를 불러 도움을 받아보자. 빠른 번역, 호텔에서 해변으로의 가장 빠른 경로, 환율 등을 알려준다. 또한 현지 식당, 카페, 노래방 등까지 추천해준다. 근처의 장소를 구글 어시스턴트에게 물으면 구글이 알아서 몇 가지 선택지를 제공한다.

  • 1달러는 얼마야?
  • ‘얼마에요’를 스페인어로 번역해 줘
  • 강남역 근처 일식집 알려 줘
  1. 사진 감상 및 비디오 시청

구글 어시스턴트에게 “사진 찍어줘” 혹은 “셀카 찍어줘”라고 말하면 카메라 앱이 실행된다. 찍으려고 굳이 홈 버튼을 누를 시간에 카메라 앱을 켜는 게 빠를 수도 있다. 하지만 사진을 보는 건 확실히 편리하다. 구글 어시스턴트에 “최근에 찍은 내 사진 보여줘”라고 말하면 구글 포토에서 사진을 찾아와서 대화에 불러올 수 있다. 동영상에도 적용되는 기능이다. 좋아하는 뮤직비디오를 보고 싶을 때에도 “유튜브에서 음악 재생해줘”라고 말하면 구글 어시스턴트가 유튜브 앱을 실행한다.

  • 셀카 찍어줘
  • 최근에 찍은 내 사진 보여줘
  • 유튜브에서 음악 재생해줘
  1. 친구 및 가족과 연락하기

전화, 문자, 이메일 전송도 쉽게 할 수 있다. 아이폰의 ‘시리’, 삼성의 ‘빅스비’가 하는 기능과 비슷하다. 손으로 굳이 타이핑을 치지 않아도 될 일은 구글 어시스턴트에게 맡기자.

  • 엄마한테 “5분 뒤에 도착”이라고 문자 보내줘
  • 아빠한테 전화 해줘
  • 이메일 보내줘
  1. 휴대전화 최적화

매번 와이파이, 블루투스를 키고 끄기 위해 스마트폰을 열고 설정을 누르는 게 귀찮았다면 이제 그것도 구글 어시스턴트에게 시키자. 기본적인 설정 조작을 구글 어시스턴트에게 시킬 수 있다. 손전등도 구글 어시스턴트가 켜준다. 또한 비행기 이륙 직전 구글 어시스턴트에게 비행기 모드 활성화를 요청할 수도 있다.

  • 비행기 모드 켜 줘
  • 블루투스 활성화 해 줘
  • 와이파이 켜줘
  1. 재미있는 기능

구글 어시스턴트를 사용해 게임을 즐길 수 있다. 동전을 던져서 누가 다음 차례인지 정하거나, 심심할 때 재미있는 사실을 알아볼 수 있다.

  • 나 심심해
  • 비트박스 해줘
  • 노래 불러 봐
  • 재밌는 얘기 해줘
  • 동전 던지기
  • 사자는 어떻게 울어?

이외에도 구글 어시스턴트는 다양한 기능을 제공한다. 장규혁 구글 테크니컬 프로그램 매니저는 “점점 더 많은 사람들이 구글에서 필요한 정보를 찾을 뿐만 아니라 일상생활에서 도움을 받기를 원한다”면서 “앞으로 더 다양한 기기에 구글 어시스턴트 한국어 서비스를 확대할 수 있기를 희망한다”고 말했다.  

한편 이번 업데이트를 통해 구글 어시스턴트는 ▲한국어 ▲영어 ▲프랑스어 ▲독일어 ▲스페인어 ▲브라질-포르투갈어 ▲힌디어 ▲인도네시아어 ▲일본어 등 총 9개의 언어를 지원하게 됐다.

구글 어시스턴트 한국어 서비스는 1.5GB 이상 RAM과 720P 이상 해상도를 지원하는 안드로이드 6.0 이상 버전 스마트폰에 자동으로 적용될 예정이다. 안드로이드 6.0 이전 버전이라면 구글 어시스턴트는 아쉽게도 사용할 수 없다. 사용자는 별도의 업데이트 없이 구글 어시스턴트를 사용할 수 있다.





...

반응형
반응형

음성인식 인공지능 스피커 전쟁이구만. 


모바일 퍼스트는 2007년 아이폰 나오면서 시작되었는데, 

이젠 사물인터넷으로 보이스 퍼스트 시대가 되어버림. 


아직도 모바일 퍼스트로 가지 않은 시스템은 지금이라도 변경되어야 함을 자각해야 할 것인데. 


이달 초 '유럽 최대 가전전시회 IFA 2017'이 열린 베를린 전시장에서는 전시회 기간 내내 "오케이 구글", "알렉사"를 부르는 목소리가 울려 퍼졌다. 


정작 이 음성 소프트웨어를 만든 구글과 아마존의 부스는 없거나 아주 작았다. 아마존과 구글의 음성비서들은 LG전자, 필립스(Phillips), 보쉬(Boche), 밀레(Miele), 지멘스(Siemens) 등 세계 유수기업들이 세운 대형 부스 곳곳의 냉장고, 청소기, 전등, 자동차 부품 속에서 목소리에 반응했다. 


2017년 전 세계 IT업계 최대의 화두인 '보이스 인공지능'의 모습이다. 네이버, 카카오, SK텔레콤, KT 등 한국 IT 기업들이 아직 완벽하다고 말하기는 힘들지만 각기 인공지능(AI) 스피커를 서둘러 내놓고 있는 이유다. 


인공지능 스피커는 인간의 목소리라는 명령에 반응하고, 목소리에 든 데이터를 수집한다. 10년 전인 2007년 탄생한 애플의 아이폰은 사람들이 정보를 소비하는 공간과 습관을 일거에 뒤바꿔 놓으며, '모바일 퍼스트(mobile first)' 시대를 열었다. 이로 인해 전 세계 산업 지형과 기업 순위가 바뀌는 결과를 초래했다. 


"2007년 스마트폰의 등장은 단기간에 인터넷의 이용 방식을 변화시켰고, 미디어, 금융, 상거래, 자동차 등 다양한 산업 영역을 휩쓸고 있는 거센 폭풍의 진원지로 기능했다. 그 과정에서 애플과 구글은 스마트폰 생태계의 성장 방향을 결정할 수 있는 강력한 플랫폼 지배력을 확보했다. 이제는 아마존 알렉사를 필두로 구글 어시스턴트, 애플 시리, 마이크로소프트 코타나, 삼성 빅스비뿐만 아니라 네이버 라인의 클로바, 카카오 아이, 그리고 SK텔레콤 누구, KT의 기가지니 등이 보이스 플랫폼의 성공적 구축을 위해 뛰고 있다. 누가 승리할 것인가?"'보이스 인공지능 서비스 전쟁' 중에서)


"아마존은 음성비서의 뛰어난 점이 '편재성(ubiquity)'이라는 사실을 간파했다. 목소리로 명령을 전달한다는 것은 굳이 좁은 스크린을 찾아 가거나 손에 쥐고 있을 필요가 없다는 것을 의미한다. 이를 위해서는 공간 전체에 컴퓨터가 존재해야만 했다. 이를 가능하도록 만든 것이 360도로 배열된 일곱 개의 마이크를 탑재한 원통형 스피커이다. 손을 대지 않고 목소리로 기계를 깨우는 인터페이스 기술은 이전에 없던 새로운 컴퓨팅을 가능하게 했다."(보이스 전쟁에 뛰어든 키 플레이어들 '시리, 왕좌를 내어주다' 중에서) 


아이폰이 열어젖힌 모바일 퍼스트 시대에는 터치 인터페이스를 통해 데이터를 수집하고 명령을 수행했다. 그로부터 불과 10년이 흐른 지금, 폰을 손으로 집어들 필요조차 없이 말로써 요청하면 쇼핑은 물론 메신저 보내기, 가전제품 제어까지 가능한 시대가 되었다. 이러한 세상을 '보이스 퍼스트 월드(Voice First World)'로 명명됐다. 



http://www.newsis.com/view/?id=NISX20170917_0000097650




...

반응형
반응형

[AI] ‘카카오미니’, 9월18일 예판…멜론 1년권 포함 5만9천원


http://www.bloter.net/archives/289582



카카오가 9월18일 오전 11시부터 모바일 주문 생산 플랫폼 메이커스 위드 카카오에서 스마트 스피커 카카오미니의 예약 판매를 시작한다고 9월11일 알렸다. 파격적인 할인과 구성을 내세웠다. 예약 판매 가격은 50% 할인된 5만9천원이며 멜론 1년 스트리밍 무제한 이용권에 카카오미니 전용 피규어 1종도 준다.


카카오미니는 카카오의 통합 인공지능 플랫폼 카카오 아이가 적용된 기기로, 카카오 계정을 기반으로 카카오톡과 멜론 등 다양한 카카오 서비스가 연동되는 점이 특징이다. ‘헤이카카오’로 스피커를 깨워 대화를 나눌 수 있고 음성으로 카카오톡 메시지를 친구에게 보낼 수 있다.


그 외에 스마트 스피커에 기대되는 기능은 대부분 들어가 있으며, 카카오가 밀고 있는 ‘생활플랫폼으로서의 카카오’라는 특징을 살려 추후 업데이트를 통해 택시 호출, 음식 주문, 장보기 등 서비스 영역이 늘어날 수 있다. 역시나 문제는 초기 단계의 제품인 만큼, 얼마나 실생활에서 쓸모를 증명할 수 있는가다. 카카오는”다양한 외부 파트너와의 연결을 통해 수많은 기능이 더해지며 카카오미니 생태계를 만들어낼 예정이다”라고 알렸다.


예약 구매자들은 10월 중 카카오미니를 받아볼 수 있다. 카카오는 예약 판매 물량을 공개하지 않았다. 네이버가 비슷한 구성으로 9만원에 팔았던 웨이브는 판매 35분 만에 완판됐다. 카카오미니는 10월 말부터 정식으로 판매된다.



...


반응형
반응형

인공지능비서, 거실→아파트→자동차로 영토 넓힌다


http://www.hani.co.kr/arti/economy/it/810564.html?_fr=st3



‘언제나, 어디서나’

인공지능(AI) 비서의 진격이 거침없다. 손바닥 안 스마트폰에서 벗어나 거실을 차지하더니 어느새 집안 전체로 무대를 넓히고, 이제 자동차 안까지 점령하고 있다. 하루 24시간, 거의 전 생활영역에 파고드는 셈이다.



 인공지능서비스가 영토를 넓히면서 성능도 향상될 전망이다. 인공지능이 학습하는 데이터가 계속 쌓이기 때문이다. 


에스케이텔레콤 관계자는 “티맵의 일평균 사용자가 240만명에 이르는 점을 고려하면 이들 


사용자가 2건씩만 음성명령을 이용해도 매일 인공지능이 학습가능한 데이터가 480만 건이나 된다”며 


“누구가 티맵의 사용자 기반을 확보해 더욱 업그레이드될 것”이라고 말했다. 기업들이 각자의 인공지능 생태계를 넓히려고 하는 이유다. 문지현 미래에셋 연구원은 “기업들이 인공지능 플랫폼 지배력을 확대하려는 경쟁을 본격화하고 있다”고 말했다.


데이터는 점점 쌓여가고 학습되면 초인공지능은 어느 순간 임계점에 도달할 것이다. 


"하루에 2배씩 자라는 연꽃이 있습니다. 

이 연꽃이 연못을 다 덮는데는 30일이 걸립니다. 

그럼 연꽃이 연못을 절반만 덮는데는 며칠이 걸릴까?"


준비없이 있다가는 뒤로 쓰러질 일만 남았을지도 모른다. 

29일째 되는 날, "아직 다 덮인건 아니자나?" 하고 외치는 어리석은 Human은 되지 않기를.


...

반응형
반응형

[AI] “인공지능 규제? 상시적 영향평가 필요해”


http://www.bloter.net/archives/289201



AI 규제를 논하기 위해선 AI에 규제가 필요한 이유가 설명돼야 한다. 심우민 교수는 ‘알고리즘 기반 규제’로 이를 설명했다. 알고리즘 기반 규제는 기술적 구조가 인간 행위, 인간 자유에 제약을 가하는 것을 뜻한다. 기술은 편리를 제공해 인간 행위의 자유를 증진하는 동시에 기술적 구조 안에서만 판단하고 행동하도록 제약하기 때문이다.


예를 들어, 미국 법원은 피고인의 재범 가능성을 추측하는 컴퓨터 프로그램을 사용한다. 과거 재범 가능성을 예측하는 것은 인간의 영역이었다. 그런데 이제는 알고리즘의 영역으로 넘어간 것이다. 판사는 알고리즘이 추측한 재범 가능성을 바탕으로 피고인의 형량, 보석금 액수 등을 결정한다. 결과적으로 판사의 판단이 알고리즘의 제약을 받게 된 것이다.


심우민 교수는 국가가 법을 통해 AI 규제에 개입하는 건 되도록 자제해야 한다는 입장이다. 국가가 인허가 혹은 행위규제 방식으로 AI 산업을 규제하면 당연한 순리로 자율성이 저하된다. 엔지니어도 폭발적인 아이디어를 내기 어렵다. 심 교수는 또 “사람들이 우려하는 인간 수준의 AI는 아직 세상 어느 곳에도 없다”라며 직접적 법적 규제는 현 단계에서 논의할 수준이 아니라고 말했다.


심 교수는 ‘상시적 영향평가’라는 규제 방식을 제시했다. 그는 “반드시 무언가를 ‘하지 말라’라고 하는 것만이 규제가 아니다”라며 “지속해서 추적 평가하는 것도 법적 규제의 한 방식”이라고 말했다. 심 교수는 구글, 페이스북 등 유수 기업이 자발적으로 AI 기술 윤리위원회를 만들어 운영하는 사례를 들며 “한계는 있지만, 사업자들이 스스로 윤리위원회를 구성해 자발적 성찰을 하도록 하는 게 바람직하다”라고 말했다.


물론 기업의 손에 전적으로 인류와 AI의 미래를 맡기자는 게 아니다. 


AI 기술에 대한 상시적 추적 평가는 국가적 차원에서 필요하다. 


심 교수는 국가적 차원의 관리감독 기관이 AI 기술에 대한 상시적이고 실질적인 영향평가를 해야 한다고 말했다.




...

반응형
반응형

Mobile first to AI first


https://medium.com/appchance/from-mobile-first-to-ai-first-google-i-o-2017-conference-c93247d8c234


From Mobile first to AI first — Google I/O 2017 conference.

Announcements presented at Google I/O developer conference 2017 enhanced the real meaning of Google’s mission:

to organize the world’s information and make it universally accessible and useful.

Google make transition from mobile first to AI first, which means that main users problems will be solved through Artificial Intelligence. Moreover, all actions taken by company democratize the knowledge and make solutions easily accessible for each developer. So companies can widely use tools which were presented. That is the reason of upcoming changes for business and for all of us.

We have made summary of Google I/O first day, so you can check some of the news:

  • Google Lens — this is smart technology that can recognize what user is looking at. It can extend the user’s knowledge about the object or help visually impaired person to get the idea of objects around. “Google Lens is a set of vision based on computing capabilities, that can understand what you’re looking at,” explained CEO Sundar Pichai. Thanks to integration of Tango which recognizes environment and Google Maps it is possible to scan locations through smartphone and get the information about the place. User can make a better choice by getting necessary set of information like e.g. restaurant reviews, menu, additional services etc. (it is called Google Visual Positioning).
  • Google Photos — is able to identify the best photos and select them to make a photo book. It also has ability to recognize who is on the photo and suggest to share the files with indicated persons. This idea of instant communication is even enhanced by shared libraries where users can share their files instantly while uploading.
  • Google.ai — this represents community for sharing AI solutions and making improvements on specific technologies. Its aim is to spread the usage of AI solutions in business reality.
  • Tensor Processing Units — this is a second generation of TPU chips which makes machine learning faster and more efficient. It provides up to 180 teraflops of performance (Floating Point Operation Per Second) which means that speed and accuracy improve dramatically in comparison to current processing units (e.g. NVIDIA Volta GPU dedicated for AI processing has 100 teraflops). Google wrote “To put this into perspective, our new large-scale translation model takes a full day to train on 32 of the world’s best commercially available GPU’s (Graphics Processing Unit) — while one 1/8th of a TPU pod can do the job in an afternoon.”
  • Google Assistant — available on Google Home and Pixel Phone can help you in various queries. It has similar functionalities to Siri (available on iOS devices) but is more powerful due to some extensions. It lets you ask more complicated queries and has third-party integrations. Google Assistant also lets you control connected devices and makes it possible to command via sound or typing. Moreover it is available also on iOS system and soon will implement variety of languages.
  • Android O Beta — this version of Android enables users to ease usage by new utilities. Users can make autofill to make authentication process faster. System has picture-in-picture support for watching videos while doing other tasks, notifications updates, protection of battery usage, possibility of spotting security issues and others. Also Android O boot time accelerates twice so apps perform better.
  • Google for Jobs — uses AI to match applicants with jobs offers. With more searches it learns preferences and gives more suitable results. Users get also some additional information as for example commuting time, so they can consider all additional circumstances.
  • Daydream VR headset- gives possibility to play without connection to a games console, a computer, or even a smartphone. It allows users to walk around in virtual worlds without fear of real-world obstacles thanks to sensors and cameras. Google will deliver Qualcomm-based reference design to hardware makers, so it won’t deliver its own device.
  • 360 YT videos: 360-degree video is coming to YouTube’s TV app where with the remote user can play around the video.
  • Kotlin — Google announced Kotlin as the first class language for making Android apps. Kotlin is a modern programming language (similar to Apple’s Swift) which is easy to learn and makes Android development more pleasant. It leverages existing libraries, JVM, Android and the browser with 100% compatibility. Its idea is to “make Kotlin a uniform tool for end-to-end development of various applications bridging multiple platforms with the same language” (Blog Jetbrains).

Video shortcut of conference from the Verge:

Everything becomes smarter, more automated and customized. It seems that users will get the answers instantly with much less effort. Convenience of communication becomes the main direction of development. So now the question is — how business will use the opportunities. Certainly soon we will see the split of companies to those that designate the direction of development and those that drop behind.

Some information about Google statistics from Sundar Pichai — Chief Executive Officer at Google:

  • Over 1 billion hours of video watched each day on YouTube
  • Over 1 billion kilometers checked on Google Maps every day
  • Over 800 million monthly active users on Google Drive
  • More than 500 million active users on Google Photos
  • 1.2 billion photos uploaded to Google every day
  • 2 billion active users of Android globally


반응형
반응형

Google I/O 키노트 (Google I/O '17)


Google 제품과 플랫폼 혁신에 대해 배워보세요 Google I/O '17의 모든 발표는 여기서 보세요: https://goo.gl/D0D4VE I/O '17에서의 더 많은 Android 발표는 여기서 보세요: https://goo.gl/c0LWYl I/O '17에서의 더 많은 Chrome 발표는 여기서 보세요: https://goo.gl/Q1bFGY I/O '17에서의 더 많은 Firebase 발표는 여기서 보세요: https://goo.gl/pmO4Dr Google 개발자 채널을 구독하세요l: http://goo.gl/mQyv5L #io17 #GoogleIO #GoogleIO2017

Mobile first to AI first




---------------------------------------------------------------------------------------------------------------


구글(Google) I/O는 구글에서 매년 한번씩 주최하는 개발자 컨퍼런스이다.-I/O는 “Input/Output”과 “Innovation in the Open”의 약자라고 한다.[1]

올해 구글 I/O는 5월 17일부터 5월 19일까지 진행되었다. 이전 구글 I/O의 키워드가 “Mobile First”였다면 2017년 구글 I/O의 키워드는 “AI First”였다. AI에 큰 투자를 하고 있는 구글답게 모든 제품군 키노트-기조연설- 시간에 어떻게 해당 제품에 머신러닝과 AI 기술을 접목시켰는지 자세히 설명하였다.

하지만 역시 가장 주목할만한 키노트는 순다 피차이(Sundar Pichai) CEO의 키노트였는데 순다 피차이는 기조연설에서 구글의 AI 연구에 대한 청사진과 응용사례를 요약해서 설명하였다. 아래에 순다 피차이 CEO의 키노트 내용을 중요 키워드 별로 요약정리했다.

 

1. Smart Reply

Smart Reply는 구글 Gmail에 새로 추가된 기능으로 자연어처리(NLP) 기술을 이용해서 이메일에 대한 적절한 답장(Reply)을 제안(Suggestion)해주는 기술이다. 구체적인 기술적 내용은 Kannan, Anjuli, et al.의 논문 “Smart Reply: Automated Response Suggestion for Email”[2]과 구글 리서치 블로그[3]를 참조하라.

 

2. Google Home에 적용된 음석인식(Speech Recognition)

구글 홈(Google Home)[4]은 스마트홈을 위해 구글에서 만든 IoT(Internet of Things) 기기이다. 아마존 에코를 떠올리면 이해하기 쉽다. 구글 홈에도 딥러닝을 이용한 음성 인식 기술이 적용되었다. 특히, 구글 홈을 이용한 Hands-Free 전화와 구글 어시스턴트와의 연동을 중요하게 언급하였다.

 

3. 이미지 인식(Image Recognition) & 구글 렌즈(Google Lens)

 

이미지 인식 분야에서도 AI 기술이 적용되었다. 대표적인 응용 사례로, 저화질 이미지를 업로드하면 자동으로 고화질 이미지로 변경해주는 기능-컴퓨터비전 분야에서 이런 기법을 Super Resolution이라고 한다.-과, 철조망 사이로 찍힌 사진에서 철조망을 자동으로 지워주는 기능을 제시하였다.-컴퓨터비전 분야에서 이런 기법을 Image Inpainting이라고 한다.-

이어서 새로운 제품인 구글 렌즈(Google Lens)를 공개했다. 구글 렌즈는 인간의 눈과 같이 작동하는데, 앱을 켜고 이미지를 가리키면 이미지에서 자동으로 이미지 안에 내용을 해석해서 정보를 제공해준다. 예를 들어 와이파이 아이디와 비밀번호를 가리키면 자동으로 와이파이에 연결하는 것을 도와준다.

 

4. Cloud TPU

구글 딥러닝을 위한 별도의 프로세서인 TPU(Tensor Processing Unit)를 개발해서 사용하고 있는데, 이 TPU를 구글의 클라우드 컴퓨팅 플랫폼인 Google App Engine에서 제공할 예정이라고 한다. [5]

 

5. AutoML (Learn to Learn)

기존의 딥러닝 기법에 가장 큰 문제는 어떤 Task에 적합한 Neural Networks 구조를 끊임 없는 노가다를 통해서 알아 냈어야만 했다.-구글에서는 이런 반복적인 노가다를 머신 러닝으로 박사학위(Phd)를 받은 사람들이 수행해왔다고 한다.-

따라서 이런 지루한 과정을 해결하기 위해 구글은 일종의 메타 러닝 기법을 제안했는데, 어떤 문제에 적합한 Neural Networks 구조를 찾아내기 위한 Neural Networks를 학습시키는 기법을 제안하였고 이를 AutoML(Learn to Learn)이라고 이름지었다. 더욱 자세한 내용은 구글 리서치 블로그[9]를 참조하라.

 

6. 병리학(Pathology)에 응용

병리학 분야에도 딥러닝이 사용되었다. 대표적인 응용 사례는, 장기에서 암세포가 어떤 부분인지 판단하는(Labeling)하는 문제이다. 현재 딥러닝 기술을 실제 병리학자가 판단하는 것보다 더욱 정확한 수준까지 발전되었다.

 

7. AutoDraw

위에 언급된 사례들이 인공지능 기술이 실용적인 문제에 적용된 예제들이었다면, AutoDraw는 재미를 위한 프로젝트 중 하나이다. 그림판 같은 캔버스에 그림을 그리면, AI가 자동으로 유사한 Drawing을 찾아서 적절한 모양을 제안해준다. 아래의 링크[8]로 들어가면 직접 AutoDraw를 실험해 볼 수 있다.

 

...


반응형
반응형


ai.google


우리의 사명은 전 세계의 정보를 체계화하여 보편적으로 액세스 가능하고 유용하게 만드는 것입니다. AI는 우리가 사용자, 고객 및 전세계의 문제를 해결하는 놀라운 새로운 방식으로이를 가능하게합니다.

AI는 내가 좋아하는 사람들의 사진을 검색하거나, 언어 장벽을 허물고, 개인 디지털 보조기로 일을 끝내도록 돕는 등 일상 생활을 쉽게합니다. 그러나 그것은 또한 오래된 문제를보고 우리가 일하고 사는 방식을 변화시키는 새로운 방법을 우리에게 제공하고 있습니다. 우리는 모든 사람들이 접근 할 수있을 때 가장 큰 영향이 올 것이라고 생각합니다.


...

반응형

+ Recent posts