A WebGL accelerated, browser based JavaScript library for training and deploying ML models.

https://js.tensorflow.org/

TensorFlow를 브라우저에서 실행시키는 공식 프로젝트입니다. WebGL를 이용한 JavaScript 라이브러리이며 기존 모델을 변환기를 통해 쉽게 브라우저에서 실행이 된다고 합니다.

#web #TensorFlow #JavaScript #AI #WebGL

...
Posted by 홍반장水 홍반장水
Slaughterbots




..


Posted by 홍반장水 홍반장水

개발자가 알려주는 ‘AI 연구가 괴로운 순간’ 7가지

http://www.bloter.net/archives/292312


인공지능(AI) 기술이 발전하면서 관련 전문가 몸값도 치솟고 있다. 최근 국내에서도 대기업에서 스타트업까지 인공지능 전문가를 찾는다는 이야기를 많이 한다. 이런 상황에서 기술 업계에 있는 여러 대학생, 대학원생, 개발자, 엔지니어 등은 자신의 직업이나 진로에 대해 한번쯤 고민하게 된다. 임도형 엑셈 기술연구소 수석연구원도 그런 부류에 속한다. 10년 넘게 오랫동안 자바, 서버 솔루션을 만들었던 임도형 개발자는 최근 엑셈 기술연구소에 합류하면서 AI 관련 연구 및 개발을 담당하고 있다. 그는 학부시절 전자공학을 전공했으며, 대학원에서 인지과학을 공부했다. 대학원 시절에 살펴봤던 내용이 지금 인공지능 기술이라고 불리는 신경망, 패턴인식, 컴퓨터비전 등이다. 임도형 연구원은 “졸업했을 당시는 인공지능 기술의 침체기여서 전공을 살릴 데가 없었다”라며 “올해 초 새로운 일에 도전하고자 인공지능 개발 일을 시작했다”라고 밝혔다.


임도형 연구원은 인공지능 업무에 대해 ‘하이 리스크, 하이 리턴'(High risk , High return)의 속성을 가졌다고 표현한다. 얻는 것도 많지만 특히 기업에서 일하는 과정에선 괴로운 점도 생각보다 많다는 뜻이다. 그리고 지난주 열린 데이터과학 컨퍼런스 ‘데이터야놀자‘에서 인공지능 협업 개발자로 힘든 점들을 다음과 같이 공유했다.


1. 소프트웨어 개발이 차라리 더 쉽다

소프트웨어 개발은 아예 처음부터 뒤엎어서 다시 개발하지 않는다면 일정 시점에 결과를 얻을 수 있다. 물론 이 자체도 어려울 수 있다. 하지만 AI는 더하다고 한다. 임도형 연구원은 “소프트웨어 개발도 고달픈 부분도 있지만 그래도 몇 달을 하고 나면 ‘결과를 (어떻게든) 만들수 있겠다’는 감이 있었다”라며 “인공지능은 ‘이게 해서 될까’라는 질문에 계속 부딪힌다”라고 말했다.

현재 임도형 연구원은 공장 기기의 고장 상황을 예측하고 원인을 찾아내고, 궁극적으로 생산성을 높여주는 방법을 개발 중이다. 이 과정에서 가장 많이 받는 질문이 “그거 돼요?”란다. 문제는 여기에 어떤 근거를 들어 확답해주기 어려운 점이다. 보통 인공지능 연구는 ‘과거 이런 사례가 있었는데, 해당 사례를 우리 업계에도 적용해보자’라는 식으로 발전하기 때문이다. 따라서 완전히 동일한 상황과 조건에 맞는 참고 사례를 찾기 힘들다. 대부분 처음 시도하는 경우가 많다. 임도형 연구원은 “된다고 믿기 때문에 하는 것입니다 라고 답할 수밖에 없다”라며 “그 과정에서 스트레스를 받는다”라고 말했다.


2. 정리되지 않은 코드들

소프트웨어 개발은 기능을 구현, 테스트, 배포 등으로 나뉘므로 개발 과정을 분리해 설명할 수 있다. 작은 단위의 일이 완료되는 시점도 분명하다. 인공지능 분야는 다르다. 결과를 도출하기까지 중간에 반복되는 과정이 많다. 무엇인가 시도하고, 결과를 보고, 고민하고, 다시 일부 상황을 바꿔서 시도하고, 결과를 보고 고민을 한다. 또 소프트웨어 개발처럼 코드 리뷰도 하고, 리팩토링에 문서화까지 완료해서 보내기에는 시간이 부족하다. 임도형 연구원은 “변수이름, 디렉토리 구조 등이 엉망인데 결과를 내보내야 한다는 것 때문에 결국 정리를 못하고 시간에 쫓긴다”라고 설명했다.


3. 실행 결과를 보기까지 기다리는 긴 간격

인공지능 업무는 많은 데이터를 활용할 수 밖에 없다. 여기에 데이터를 학습시키고 결과를 얻기까지 오랜 시간이 필요하다. 물론 작은 데이터로 작업하면 몇 분 만에 결과를 얻을 수 있지만, 큰 데이터는 그 과정에 몇 시간이 소요된다. 가령 ‘저장’ 버튼을 누르고 저장 완료가 뜨기까지 몇 시간이 걸린다고 생각해보자. 기다리는 시간 동안 다른 업무를 해야 할지, 무작정 기다려야 할지 결정해야 한다.

임도형 연구원은 “몇 분이야 기달리수 있지만 10분만 넘어가면 다른 업무를 하다 다시 돌아오는 과정을 반복하면서 집중력이 떨어진다”라며 “기다리는 것을 4-5번 하다보면 하루가 다 가서 오늘 뭘 했는지에 대한 복잡한 감정이 든다”라고 설명했다. 이런 상황을 극복하기 위해 임도형 연구원은 목·금요일이면 주말동안 뭔가를 실행시켜 볼 것을 준비해두는 버릇이 생겼다. 기다리는 시간을 줄여, 월요일 출근하자마 결과를 볼 수 있게 하는 식이다.


4. 공부할 수 없는 업무시간

회사는 학교가 아닌 만큼, 어떻게든 결과를 보여야 한다. 인공지능 분야는 상대적으로 논문을 많이 읽어야 하는데, 회사에선 그럴 여유가 없다. 특히 작은 회사라면 인공지능 기술 자체를 발전시키기보다 산업체에서 당장에 활용할 기술을 개발할 가능성이 높다. 임도형 연구원은 “새로운 논문을 정말 제대로 이해하고 코드까지 실행해보려면 최소 하루나 2-3일은 걸린다”라며 “여유를 갖고 공부할 시간이 없으니 업무 시간 외에 뭔가를 공부해야 할 것 같은 압박이 온다”라고 말했다.


5. 쏟아지는 자료

인공지능 연구에선 새로운 시도를 하고, 일부 변경하고 다시 실험하는 과정이 계속된다. 이때 결국 자신이 아는 범위에서 해결책을 찾게 된다. 그러다보니 많은 정보를 습득하고 배우면 유리하다. 이를 위해 임도형 연구원은 텐서플로우 코리아같은 커뮤니티에 자주 들어간다. 최근에는 자료를 보고 이해하는 속도보다 새로운 자료가 나오는 속도가 더 빠르다고 한다. 그는 “누군가 진행한 실험에 대해 자세히 들여다보고 싶은데, 그러다보면 1-2시간은 훌쩍 간다”라며 “그러한 자료를 감당해야 한다는 것이 꽤 스트레스”라고 말했다.


AI 분야에만 보이는 독특한 현상도 소개했다. 보통 대학에서 발행되는 논문은 가장 최신의 기술을 다루는 경우가 많다. 그래서 학교에서 논문을 발표하면 이후에 기업이 해당 논문을 보고 활용한다. 인공지능 분야는 이와 반대다. 산업계에서 ‘이렇게 하면 이게 됩니다’라는 것을 발표하고 이를 학교에서 나중에 다뤄서 논문을 내놓는다.


6. 데이터의 부재

인공지능 업무에선 데이터가 반드시 필요하다. 하지만 기업에서 준비된 데이터는 가공된 상태가 아니다. 여기에 데이터를 정제하고, 필요한 것만 빼내고, 어떤 모양인지 확인하는 작업은 많은 시간이 걸린다. 임도형 연구원은 “누군가는 데이터 정제 과정과 실제 AI 업무과정의 비율이 8대2라고 표현하는데, 내가 느끼는건 98대2다”라며 “많은 사람이 데이터를 읽어서 정리하는 코드를 짜고 있으며, 오히려 학습시키는 코드는 짧다”라고 설명한다. 거기다 데이터 정리하는 코드들은 모듈화나 재활용이 힘든 경우가 많다고 한다. 따라서 새로운 데이터를 다룰 때마다 AI 업무가 아닌 데이터를 정리하는 데 많은 시간을 뺏기는 경우를 자주 경험할 수 있다. 막상 정제한 코드에 원하는 데이터가 충분치 않은 경우도 꽤 있다고 한다.


7. 느껴지지 않는 데이터

인공지능에서 활용되는 데이터의 크기는 엄청나다. 이때 그냥 나열돼 있는 데이터를 보는 것은 의미가 없다. 기업에서 얻은 데이터는 수백개의 열로 이뤄진 경우도 많다고 한다. 그래서 평균, 분포 등 데이터 특성을 전체적으로 파악해야만 다음 작업이 가능하다. 이를 위해서는 어떻게 시각화할지에 대한 감도 필요하다. 만약 시각화하는 능력이 부족하다면 데이터를 이해하고 활용하는 데 한계가 올 수 있다.

임도형 연구원은 발표 마지막에 머신러닝 업계의 구루라고 불리는 앤드류 응 스탠포드 교수의 말을 인용했다. ‘끊임없이 실천하고, 하기 싫은 작업도 하라'(pratice, pratice, pratice and do the dirty work)라는 문장이었다. 임도형 연구원은 “협업에서 AI 업무란 실행시키고, 결과를 확인하고 다시 고민하는 과정의 무한반복이다”라며 “최신 기술을 다루지만 이런 곳에서도 힘든 작업이 있다는 것을 알려주고 싶었다”라고 말했다. 동시에 그는 AI 업무를 고민하고 있는 사람에게 다음과 같이 조언했다.

“최근 AI 일을 하고 싶은 개발자들이나 학생들을 많이 보았습니다. 대학에서 진로 관련 특강 요청도 많이 하시더군요. 이 업무에 도전하고 싶은 분이 있다면 겁 먹지는 마십시오. 코딩할 때도 처음부터 모든 이론을 이해하지 않아도 시작할 수 있습니다. 오히려 작동하는 코드를 실행해보고 반복하면서 원리를 이해하곤 합니다. 인공지능 분야에서 활용되는 소스코드는 상당수가 외부에 공개됐습니다. 수식이 잔뜩 들어 있는 자료를 보는 데 시간을 너무 쏟지 말고, 일단 코드를 다운받고 실행해보세요. 수식이 어렵다면 일단 수식의 사용법부터 익혀보길 권장합니다.”




...

Posted by 홍반장水 홍반장水

[AI] 인공지능과 사랑에 빠질 수 있을까?





...

Posted by 홍반장水 홍반장水

구글 어시스턴트, 한국어도 “오케이, 구글”


http://www.bloter.net/archives/290622


구글은 9월21일 인공지능(AI) 기반의 음성비서 기술인 구글 어시스턴트의 한국어 서비스를 출시했다.

구글 어시스턴트는 머신러닝을 기반으로 한 자연어 처리, 음성인식, 번역 등과 같은 기술을 바탕으로 사용자의 질문에 대답하고 정보를 찾는 등 맞춤형 서비스를 제공한다. AI 스피커 등에서 쓰이다가 스마트폰에는 올해 3월 처음으로 탑재됐다.

구글 어시스턴트의 한국어 서비스는 LG전자가 최근 출시한 ‘V30’에서 우선 만나볼 수 있다. 몇 주 내로 안드로이드 6.0 이상(마시멜로, 누가, 오레오)을 사용하는 LG폰 외 여타 안드로이드 스마트폰에서도 구글 어시스턴트를 이용할 수 있다. 


구글 어시스턴트를 부르는 방법

구글 어시스턴트 한국어 서비스를 지원하는 스마트폰 기기에서 권한 설정 및 사용자 음성 인식 훈련을 통해 사용 설정을 한다. 이후 홈 버튼을 길게 누르거나 ‘오케이 구글’이라고 부르면 활성화된다.

  1. 일정 관리

구글 어시스턴트는 캘린더, 지메일, 검색, 사진, 지도 등 구글의 다양한 앱과 연결된다. “오늘 내 스케줄 알려줘”라고 말하면 날씨를 알려주고 출근 시간이 얼마나 걸릴지, 첫 미팅이 몇 시에 시작하는지 등 하루 일과에 필요한 정보를 요약해 알려준다.

  • 오늘 내 스케줄 알려 줘
  • 나의 하루는 어때?
  • 내일 아침 7시에 알람 맞춰줘
  • 계란찜 타이머 설정해줘
  1. 실시간 답변

날씨, 좋아하는 스포츠 팀의 경기 결과, 현재 주가에 대한 최근 소식 등 구글 어시스턴트는 인물, 장소 및 사물에 대한 유용한 정보를 제공한다.

  • 내일 서울 날씨 어때?
  • 구글 주가는 얼마야?
  • 265 곱하기 72는?
  1. 여행 어시스턴트 사용

해외 여행할 때 구글 지도와 구글 번역은 필수다. 이제 구글 어시스턴트가 한국어를 지원하니 다음 여행에서는 구글 어시스턴트를 불러 도움을 받아보자. 빠른 번역, 호텔에서 해변으로의 가장 빠른 경로, 환율 등을 알려준다. 또한 현지 식당, 카페, 노래방 등까지 추천해준다. 근처의 장소를 구글 어시스턴트에게 물으면 구글이 알아서 몇 가지 선택지를 제공한다.

  • 1달러는 얼마야?
  • ‘얼마에요’를 스페인어로 번역해 줘
  • 강남역 근처 일식집 알려 줘
  1. 사진 감상 및 비디오 시청

구글 어시스턴트에게 “사진 찍어줘” 혹은 “셀카 찍어줘”라고 말하면 카메라 앱이 실행된다. 찍으려고 굳이 홈 버튼을 누를 시간에 카메라 앱을 켜는 게 빠를 수도 있다. 하지만 사진을 보는 건 확실히 편리하다. 구글 어시스턴트에 “최근에 찍은 내 사진 보여줘”라고 말하면 구글 포토에서 사진을 찾아와서 대화에 불러올 수 있다. 동영상에도 적용되는 기능이다. 좋아하는 뮤직비디오를 보고 싶을 때에도 “유튜브에서 음악 재생해줘”라고 말하면 구글 어시스턴트가 유튜브 앱을 실행한다.

  • 셀카 찍어줘
  • 최근에 찍은 내 사진 보여줘
  • 유튜브에서 음악 재생해줘
  1. 친구 및 가족과 연락하기

전화, 문자, 이메일 전송도 쉽게 할 수 있다. 아이폰의 ‘시리’, 삼성의 ‘빅스비’가 하는 기능과 비슷하다. 손으로 굳이 타이핑을 치지 않아도 될 일은 구글 어시스턴트에게 맡기자.

  • 엄마한테 “5분 뒤에 도착”이라고 문자 보내줘
  • 아빠한테 전화 해줘
  • 이메일 보내줘
  1. 휴대전화 최적화

매번 와이파이, 블루투스를 키고 끄기 위해 스마트폰을 열고 설정을 누르는 게 귀찮았다면 이제 그것도 구글 어시스턴트에게 시키자. 기본적인 설정 조작을 구글 어시스턴트에게 시킬 수 있다. 손전등도 구글 어시스턴트가 켜준다. 또한 비행기 이륙 직전 구글 어시스턴트에게 비행기 모드 활성화를 요청할 수도 있다.

  • 비행기 모드 켜 줘
  • 블루투스 활성화 해 줘
  • 와이파이 켜줘
  1. 재미있는 기능

구글 어시스턴트를 사용해 게임을 즐길 수 있다. 동전을 던져서 누가 다음 차례인지 정하거나, 심심할 때 재미있는 사실을 알아볼 수 있다.

  • 나 심심해
  • 비트박스 해줘
  • 노래 불러 봐
  • 재밌는 얘기 해줘
  • 동전 던지기
  • 사자는 어떻게 울어?

이외에도 구글 어시스턴트는 다양한 기능을 제공한다. 장규혁 구글 테크니컬 프로그램 매니저는 “점점 더 많은 사람들이 구글에서 필요한 정보를 찾을 뿐만 아니라 일상생활에서 도움을 받기를 원한다”면서 “앞으로 더 다양한 기기에 구글 어시스턴트 한국어 서비스를 확대할 수 있기를 희망한다”고 말했다.  

한편 이번 업데이트를 통해 구글 어시스턴트는 ▲한국어 ▲영어 ▲프랑스어 ▲독일어 ▲스페인어 ▲브라질-포르투갈어 ▲힌디어 ▲인도네시아어 ▲일본어 등 총 9개의 언어를 지원하게 됐다.

구글 어시스턴트 한국어 서비스는 1.5GB 이상 RAM과 720P 이상 해상도를 지원하는 안드로이드 6.0 이상 버전 스마트폰에 자동으로 적용될 예정이다. 안드로이드 6.0 이전 버전이라면 구글 어시스턴트는 아쉽게도 사용할 수 없다. 사용자는 별도의 업데이트 없이 구글 어시스턴트를 사용할 수 있다.





...

Posted by 홍반장水 홍반장水

음성인식 인공지능 스피커 전쟁이구만. 


모바일 퍼스트는 2007년 아이폰 나오면서 시작되었는데, 

이젠 사물인터넷으로 보이스 퍼스트 시대가 되어버림. 


아직도 모바일 퍼스트로 가지 않은 시스템은 지금이라도 변경되어야 함을 자각해야 할 것인데. 


이달 초 '유럽 최대 가전전시회 IFA 2017'이 열린 베를린 전시장에서는 전시회 기간 내내 "오케이 구글", "알렉사"를 부르는 목소리가 울려 퍼졌다. 


정작 이 음성 소프트웨어를 만든 구글과 아마존의 부스는 없거나 아주 작았다. 아마존과 구글의 음성비서들은 LG전자, 필립스(Phillips), 보쉬(Boche), 밀레(Miele), 지멘스(Siemens) 등 세계 유수기업들이 세운 대형 부스 곳곳의 냉장고, 청소기, 전등, 자동차 부품 속에서 목소리에 반응했다. 


2017년 전 세계 IT업계 최대의 화두인 '보이스 인공지능'의 모습이다. 네이버, 카카오, SK텔레콤, KT 등 한국 IT 기업들이 아직 완벽하다고 말하기는 힘들지만 각기 인공지능(AI) 스피커를 서둘러 내놓고 있는 이유다. 


인공지능 스피커는 인간의 목소리라는 명령에 반응하고, 목소리에 든 데이터를 수집한다. 10년 전인 2007년 탄생한 애플의 아이폰은 사람들이 정보를 소비하는 공간과 습관을 일거에 뒤바꿔 놓으며, '모바일 퍼스트(mobile first)' 시대를 열었다. 이로 인해 전 세계 산업 지형과 기업 순위가 바뀌는 결과를 초래했다. 


"2007년 스마트폰의 등장은 단기간에 인터넷의 이용 방식을 변화시켰고, 미디어, 금융, 상거래, 자동차 등 다양한 산업 영역을 휩쓸고 있는 거센 폭풍의 진원지로 기능했다. 그 과정에서 애플과 구글은 스마트폰 생태계의 성장 방향을 결정할 수 있는 강력한 플랫폼 지배력을 확보했다. 이제는 아마존 알렉사를 필두로 구글 어시스턴트, 애플 시리, 마이크로소프트 코타나, 삼성 빅스비뿐만 아니라 네이버 라인의 클로바, 카카오 아이, 그리고 SK텔레콤 누구, KT의 기가지니 등이 보이스 플랫폼의 성공적 구축을 위해 뛰고 있다. 누가 승리할 것인가?"'보이스 인공지능 서비스 전쟁' 중에서)


"아마존은 음성비서의 뛰어난 점이 '편재성(ubiquity)'이라는 사실을 간파했다. 목소리로 명령을 전달한다는 것은 굳이 좁은 스크린을 찾아 가거나 손에 쥐고 있을 필요가 없다는 것을 의미한다. 이를 위해서는 공간 전체에 컴퓨터가 존재해야만 했다. 이를 가능하도록 만든 것이 360도로 배열된 일곱 개의 마이크를 탑재한 원통형 스피커이다. 손을 대지 않고 목소리로 기계를 깨우는 인터페이스 기술은 이전에 없던 새로운 컴퓨팅을 가능하게 했다."(보이스 전쟁에 뛰어든 키 플레이어들 '시리, 왕좌를 내어주다' 중에서) 


아이폰이 열어젖힌 모바일 퍼스트 시대에는 터치 인터페이스를 통해 데이터를 수집하고 명령을 수행했다. 그로부터 불과 10년이 흐른 지금, 폰을 손으로 집어들 필요조차 없이 말로써 요청하면 쇼핑은 물론 메신저 보내기, 가전제품 제어까지 가능한 시대가 되었다. 이러한 세상을 '보이스 퍼스트 월드(Voice First World)'로 명명됐다. 



http://www.newsis.com/view/?id=NISX20170917_0000097650




...

Posted by 홍반장水 홍반장水

[AI] ‘카카오미니’, 9월18일 예판…멜론 1년권 포함 5만9천원


http://www.bloter.net/archives/289582



카카오가 9월18일 오전 11시부터 모바일 주문 생산 플랫폼 메이커스 위드 카카오에서 스마트 스피커 카카오미니의 예약 판매를 시작한다고 9월11일 알렸다. 파격적인 할인과 구성을 내세웠다. 예약 판매 가격은 50% 할인된 5만9천원이며 멜론 1년 스트리밍 무제한 이용권에 카카오미니 전용 피규어 1종도 준다.


카카오미니는 카카오의 통합 인공지능 플랫폼 카카오 아이가 적용된 기기로, 카카오 계정을 기반으로 카카오톡과 멜론 등 다양한 카카오 서비스가 연동되는 점이 특징이다. ‘헤이카카오’로 스피커를 깨워 대화를 나눌 수 있고 음성으로 카카오톡 메시지를 친구에게 보낼 수 있다.


그 외에 스마트 스피커에 기대되는 기능은 대부분 들어가 있으며, 카카오가 밀고 있는 ‘생활플랫폼으로서의 카카오’라는 특징을 살려 추후 업데이트를 통해 택시 호출, 음식 주문, 장보기 등 서비스 영역이 늘어날 수 있다. 역시나 문제는 초기 단계의 제품인 만큼, 얼마나 실생활에서 쓸모를 증명할 수 있는가다. 카카오는”다양한 외부 파트너와의 연결을 통해 수많은 기능이 더해지며 카카오미니 생태계를 만들어낼 예정이다”라고 알렸다.


예약 구매자들은 10월 중 카카오미니를 받아볼 수 있다. 카카오는 예약 판매 물량을 공개하지 않았다. 네이버가 비슷한 구성으로 9만원에 팔았던 웨이브는 판매 35분 만에 완판됐다. 카카오미니는 10월 말부터 정식으로 판매된다.



...


Posted by 홍반장水 홍반장水

인공지능비서, 거실→아파트→자동차로 영토 넓힌다


http://www.hani.co.kr/arti/economy/it/810564.html?_fr=st3



‘언제나, 어디서나’

인공지능(AI) 비서의 진격이 거침없다. 손바닥 안 스마트폰에서 벗어나 거실을 차지하더니 어느새 집안 전체로 무대를 넓히고, 이제 자동차 안까지 점령하고 있다. 하루 24시간, 거의 전 생활영역에 파고드는 셈이다.



 인공지능서비스가 영토를 넓히면서 성능도 향상될 전망이다. 인공지능이 학습하는 데이터가 계속 쌓이기 때문이다. 


에스케이텔레콤 관계자는 “티맵의 일평균 사용자가 240만명에 이르는 점을 고려하면 이들 


사용자가 2건씩만 음성명령을 이용해도 매일 인공지능이 학습가능한 데이터가 480만 건이나 된다”며 


“누구가 티맵의 사용자 기반을 확보해 더욱 업그레이드될 것”이라고 말했다. 기업들이 각자의 인공지능 생태계를 넓히려고 하는 이유다. 문지현 미래에셋 연구원은 “기업들이 인공지능 플랫폼 지배력을 확대하려는 경쟁을 본격화하고 있다”고 말했다.


데이터는 점점 쌓여가고 학습되면 초인공지능은 어느 순간 임계점에 도달할 것이다. 


"하루에 2배씩 자라는 연꽃이 있습니다. 

이 연꽃이 연못을 다 덮는데는 30일이 걸립니다. 

그럼 연꽃이 연못을 절반만 덮는데는 며칠이 걸릴까?"


준비없이 있다가는 뒤로 쓰러질 일만 남았을지도 모른다. 

29일째 되는 날, "아직 다 덮인건 아니자나?" 하고 외치는 어리석은 Human은 되지 않기를.


...

Posted by 홍반장水 홍반장水

[AI] “인공지능 규제? 상시적 영향평가 필요해”


http://www.bloter.net/archives/289201



AI 규제를 논하기 위해선 AI에 규제가 필요한 이유가 설명돼야 한다. 심우민 교수는 ‘알고리즘 기반 규제’로 이를 설명했다. 알고리즘 기반 규제는 기술적 구조가 인간 행위, 인간 자유에 제약을 가하는 것을 뜻한다. 기술은 편리를 제공해 인간 행위의 자유를 증진하는 동시에 기술적 구조 안에서만 판단하고 행동하도록 제약하기 때문이다.


예를 들어, 미국 법원은 피고인의 재범 가능성을 추측하는 컴퓨터 프로그램을 사용한다. 과거 재범 가능성을 예측하는 것은 인간의 영역이었다. 그런데 이제는 알고리즘의 영역으로 넘어간 것이다. 판사는 알고리즘이 추측한 재범 가능성을 바탕으로 피고인의 형량, 보석금 액수 등을 결정한다. 결과적으로 판사의 판단이 알고리즘의 제약을 받게 된 것이다.


심우민 교수는 국가가 법을 통해 AI 규제에 개입하는 건 되도록 자제해야 한다는 입장이다. 국가가 인허가 혹은 행위규제 방식으로 AI 산업을 규제하면 당연한 순리로 자율성이 저하된다. 엔지니어도 폭발적인 아이디어를 내기 어렵다. 심 교수는 또 “사람들이 우려하는 인간 수준의 AI는 아직 세상 어느 곳에도 없다”라며 직접적 법적 규제는 현 단계에서 논의할 수준이 아니라고 말했다.


심 교수는 ‘상시적 영향평가’라는 규제 방식을 제시했다. 그는 “반드시 무언가를 ‘하지 말라’라고 하는 것만이 규제가 아니다”라며 “지속해서 추적 평가하는 것도 법적 규제의 한 방식”이라고 말했다. 심 교수는 구글, 페이스북 등 유수 기업이 자발적으로 AI 기술 윤리위원회를 만들어 운영하는 사례를 들며 “한계는 있지만, 사업자들이 스스로 윤리위원회를 구성해 자발적 성찰을 하도록 하는 게 바람직하다”라고 말했다.


물론 기업의 손에 전적으로 인류와 AI의 미래를 맡기자는 게 아니다. 


AI 기술에 대한 상시적 추적 평가는 국가적 차원에서 필요하다. 


심 교수는 국가적 차원의 관리감독 기관이 AI 기술에 대한 상시적이고 실질적인 영향평가를 해야 한다고 말했다.




...

Posted by 홍반장水 홍반장水

Mobile first to AI first


https://medium.com/appchance/from-mobile-first-to-ai-first-google-i-o-2017-conference-c93247d8c234


From Mobile first to AI first — Google I/O 2017 conference.

Announcements presented at Google I/O developer conference 2017 enhanced the real meaning of Google’s mission:

to organize the world’s information and make it universally accessible and useful.

Google make transition from mobile first to AI first, which means that main users problems will be solved through Artificial Intelligence. Moreover, all actions taken by company democratize the knowledge and make solutions easily accessible for each developer. So companies can widely use tools which were presented. That is the reason of upcoming changes for business and for all of us.

We have made summary of Google I/O first day, so you can check some of the news:

  • Google Lens — this is smart technology that can recognize what user is looking at. It can extend the user’s knowledge about the object or help visually impaired person to get the idea of objects around. “Google Lens is a set of vision based on computing capabilities, that can understand what you’re looking at,” explained CEO Sundar Pichai. Thanks to integration of Tango which recognizes environment and Google Maps it is possible to scan locations through smartphone and get the information about the place. User can make a better choice by getting necessary set of information like e.g. restaurant reviews, menu, additional services etc. (it is called Google Visual Positioning).
  • Google Photos — is able to identify the best photos and select them to make a photo book. It also has ability to recognize who is on the photo and suggest to share the files with indicated persons. This idea of instant communication is even enhanced by shared libraries where users can share their files instantly while uploading.
  • Google.ai — this represents community for sharing AI solutions and making improvements on specific technologies. Its aim is to spread the usage of AI solutions in business reality.
  • Tensor Processing Units — this is a second generation of TPU chips which makes machine learning faster and more efficient. It provides up to 180 teraflops of performance (Floating Point Operation Per Second) which means that speed and accuracy improve dramatically in comparison to current processing units (e.g. NVIDIA Volta GPU dedicated for AI processing has 100 teraflops). Google wrote “To put this into perspective, our new large-scale translation model takes a full day to train on 32 of the world’s best commercially available GPU’s (Graphics Processing Unit) — while one 1/8th of a TPU pod can do the job in an afternoon.”
  • Google Assistant — available on Google Home and Pixel Phone can help you in various queries. It has similar functionalities to Siri (available on iOS devices) but is more powerful due to some extensions. It lets you ask more complicated queries and has third-party integrations. Google Assistant also lets you control connected devices and makes it possible to command via sound or typing. Moreover it is available also on iOS system and soon will implement variety of languages.
  • Android O Beta — this version of Android enables users to ease usage by new utilities. Users can make autofill to make authentication process faster. System has picture-in-picture support for watching videos while doing other tasks, notifications updates, protection of battery usage, possibility of spotting security issues and others. Also Android O boot time accelerates twice so apps perform better.
  • Google for Jobs — uses AI to match applicants with jobs offers. With more searches it learns preferences and gives more suitable results. Users get also some additional information as for example commuting time, so they can consider all additional circumstances.
  • Daydream VR headset- gives possibility to play without connection to a games console, a computer, or even a smartphone. It allows users to walk around in virtual worlds without fear of real-world obstacles thanks to sensors and cameras. Google will deliver Qualcomm-based reference design to hardware makers, so it won’t deliver its own device.
  • 360 YT videos: 360-degree video is coming to YouTube’s TV app where with the remote user can play around the video.
  • Kotlin — Google announced Kotlin as the first class language for making Android apps. Kotlin is a modern programming language (similar to Apple’s Swift) which is easy to learn and makes Android development more pleasant. It leverages existing libraries, JVM, Android and the browser with 100% compatibility. Its idea is to “make Kotlin a uniform tool for end-to-end development of various applications bridging multiple platforms with the same language” (Blog Jetbrains).

Video shortcut of conference from the Verge:

Everything becomes smarter, more automated and customized. It seems that users will get the answers instantly with much less effort. Convenience of communication becomes the main direction of development. So now the question is — how business will use the opportunities. Certainly soon we will see the split of companies to those that designate the direction of development and those that drop behind.

Some information about Google statistics from Sundar Pichai — Chief Executive Officer at Google:

  • Over 1 billion hours of video watched each day on YouTube
  • Over 1 billion kilometers checked on Google Maps every day
  • Over 800 million monthly active users on Google Drive
  • More than 500 million active users on Google Photos
  • 1.2 billion photos uploaded to Google every day
  • 2 billion active users of Android globally


Posted by 홍반장水 홍반장水