반응형
반응형

알트만 가라사대  자본주의의 종언

 

오픈AI의 창업자이자 CEO이자 실리콘밸리의 전설 샘 알트만이 이틀 전 포브스와 인터뷰를 통해 이런 말을 했습니다. “우리가 왜 챗GPT를 공개한지 모르시죠?”, “자본주의는 인공지능을 감당하지 못할 수 있어요.” 샘 알트만은 와이컴비네이터의 CEO였는데요. 와이컴비네이터는 오늘날 스타트업을 육성하고 투자하는 액셀러레이터 모델의 원조입니다.

 

알트만은 루프트라는 스타트업을 설립해 4330만 달러에 매각 한 뒤 와이컴비네이터에 합류했는데요. 2014년부터 2019년까지 CEO를 역임했어요. 그러면서 2015년 일론 머스크 등과 함께 별도로 설립한 것이 오픈AI입니다. 그럼, 샘 알트만을 불러서, 어떤 메시지를 던졌는지 볼게요.

 

🤔 오픈AI는 왜 비영리 단체로 출발했나요. 혹자는 반자본주의 운동이라고도 하던데요.

👦 저는 자본주의를 사랑해요. 하지만 자본주의는 현존하는 모든 나쁜 시스템 중에서 가장 좋은 시스템일 수 있기 때문에, 더 나은 방안을 찾았으면 해요. 그리고 우려되는 것이 있어요. 인공 일반 지능(AGI)가 개발될 경우 자본주의를 무너뜨릴 수 있어요. 이 때문에 오픈AI는 다른 기업과 다른 방식으로 만들어졌어요.

 

📚 용어 : 인공 일반 지능(Artificial General Intelligence·AGI)

인간의 지시 없이도 스스로 학습과 훈련이 가능한 인공지능입니다. 인간만큼 경제적으로 중요한 일을 할 수 있습니다. 마크 구브루드 노스캐롤라이나대 교수가 1997 나노기술과 국제 안보라는 논문에서 자기 복제 시스템을 갖춘 군사용 인공지능의 출현을 전망하며 처음 사용한 단어고요.

 

🤫 그게 무슨 뜻인가요.

👦 인공 일반 지능이 정말 제대로 개발되면 좋겠어요. 하지만 만약에 고장이 날 경우 무엇인가 다른 조치가 필요할 수 있고, 이 때문에 특정 회사가 이런 인공지능을 소유해서는 안 된다고 생각해요.

 

😳 자본주의가 무너진다고요?

👦 (알트만은 인공 일반 지능이 개발될 경우 현재 시장 메커니즘인 자본주의의 작동이 어려울 것으로 내다봤어요) 인공 일반 지능은 (스스로 일해) 수익을 발생시킬 텐데 이를 어떻게 배분해야 할지가 관건일 것 같아요. 또 이런 인공지능을 누가 통제 할 수 있으며, 이를 소유한 회사는 어떤 지배구조(거버넌스)로 구성이 되어야 할까요. 정말 새로운 생각이 필요할 것 같아요.

 

🤔 그럼 왜 만드셨어요?

👦 순전히 오버톤 윈도우(Overton Window)’ 효과를 위해서입니다. 구글은 연구 실적을 공개하지 않고 있고, 인공지능이 안전하지 않을까 두려워하는 사람들이 많죠. 하지만 정말 중요한 것은 앞으로 세상에 일어날 일을 사람들이 이해하기 시작할 수 있도록 하는 것이에요. 때로는 (생각하는 것이) 불편하겠지만 건강하게 생각하는 것이 중요해요.

 

📚 용어: 오버톤 윈도(Overton Window)

오버톤 윈도는 극단적 선택지 가운데 대중이 받아들일 수 있는 정책과 사고의 범위를 뜻해요. 정책 분석가 조셉 오버톤이 명명했는데요. 사실 정책의 선호는 정치인에 대한 개인 선호가 아니래요. 군중의 사고 범위에서 결정지어진대요. 예를 들면 이래요. 1998년 외환위기를 계기로 국제통화기금(IMF)이 대규모 정리해고를 권고하자, 국민이 이를 받아들였죠? 그 이전에는 상상조차 할 수 없었던 일인데...

 

🔎 크게 보기

마라 무라티 최고기술책임자 CTO 역시 사회적 담론의 필요성을 주장했어요. 특히 무라티 CTO는 챗GPT를 규제해 달라고까지 역설을 했는데요. 지금이라도 규제를 하는 것이 늦지 않았으니, 정부 규제당국 일반인이 머리를 맞대자고 했어요.

반응형
반응형

뇌를 바꾸고 싶다면
어떻게 해야 할까? 혹자는 뇌에
전자 칩을 심거나 컴퓨터를 연결시키는
방법을 꿈꾸기도 하고, 혹자는 뇌의 능력치를
높여주는 약물에 기대를 걸기도 한다. 하지만
기계나 약물을 사용하지 않고도 뇌를
업그레이드하는 근본적인 방법이
존재한다. 바로 '명상'이다.


- 대니얼 골먼의《명상하는 뇌》중에서 -


* 인공지능(AI), 뇌 과학이
놀라운 속도로 발전하고 있습니다.
사람 사이 접촉 없이 뇌와 뇌끼리 연결되는 시대가
열리고 있습니다. 뇌에 심는 전자 칩의 등장도 결코
먼 이야기가 아닙니다. 그래도 '따뜻한 사고'는
기계가 하지 못합니다. 인공지능이 제아무리
발달해도 결국은 온기 없는 기계일 뿐입니다.
명상은 뇌를 좋게 바꿀 뿐만 아니라
뇌에 온기를 불어넣어 줍니다.

반응형

'생활의 발견 > 아침편지' 카테고리의 다른 글

딸들아, 높이 날아라!  (0) 2022.06.06
일을 '놀이'처럼  (0) 2022.06.03
나무 명상  (0) 2022.06.02
'마음'을 알아준다는 것  (0) 2022.05.31
온천을 즐길 때는 잘 먹자  (0) 2022.05.30
반응형

광주 AI 체험 쇼케이스 가보니…"무인매장서 AI 비전 기술 느껴보니 색다르네

 

http://www.aitimes.com/news/articleView.html?idxno=141776 

 

광주 AI 체험 쇼케이스 가보니…"무인매장서 AI 비전 기술 느껴보니 색다르네" - AI타임스

“치O스는 1,200원입니다”“진열된 모든 상품은 인공지능(AI) 데이터로 학습된 상태입니다”“로봇 팔이 컵을 순서대로 카메라에 비추면 컵 속 재료들을 맞춰요”광주영상문화관 1층에 위치한 A

www.aitimes.com

'광주시민 대상 AI 체감 높인다'…AI 기술 체험관 운영돼
시민들, 미래 무인매장 방문해 AI 비전 기술 생생히 느껴
디투리소스, AI 매장관리 주방 무인화 플랫폼 선보여
AI 체험관, 단기적 운영 넘어 지속적 확대‧개선 필요 지적

광주영상문화관 1층에 위치한 AI 기술 체험관 ‘인공지능 카페 테스트베드’ 에서는 로봇 팔이 분주하게 움직이는 모습이었다. 컵을 카메라에 비추고, 'AI 영상 비전' 기술로 내용물을 인식하고 있는 모습. (사진=구아현 기자).
반응형
반응형

메가스터디교육, 인공지능(AI) 서비스 본격 시동

 

 

메가스터디교육이 인공지능(AI) 서비스 확대 적용을 통한 디지털 역량 강화에 나섰다.

메가스터디교육은 최근 인공지능(AI) 딥러닝 기술을 활용한 '인공지능 음성인식 엔진'을 개발, 올해 안에 관련 서비스를 제공할 예정이다.



'인공지능 음성인식 엔진'은 기존 개발된 범용 엔진에 강사 개별 말하기 특성을 학습시켜 인식 정확도를 높인 것이 특징이다.

기존 85% 수준에 머물던 음성인식 정확도를 95% 이상 끌어올려 한층 업그레이드했다. 이 AI 기술은 강의 자막 등 다양한 서비스에 활용될 예정이다.

이 엔진은 메가스터디교육과 마이스가 협업하여 개발했다.
마이스는 올 2월 메가스터디교육과 인공지능(AI) 기술 기업 스켈터랩스가 교육 분야 AI 기술을 개발하기 위해 설립한 조인트벤처다. 메가스터디교육은 디지털 교육에 필요한 다양한 인공지능 기술을 마이스와 공동 개발할 예정이다.

메가스터디교육은 지난해부터 AI 기술 도입을 위한 본격적인 행보를 지속하고 있다. 올 초에는 대표이사 직속 AI사업부를 신설했으며, AI 기술을 보유하고 있는 스타트업에 대한 투자와 협업을 다각도로 진행하는 등 AI 기술 활용에 적극적으로 나서고 있다.

메가스터디교육 관계자는 "지난 2000년부터 국내 온라인 교육 시장을 선도해온 메가스터디교육이 인공지능(AI)을 접목, 새로운 차원의 교육 서비스를 만들어 갈 계획"이라며 "초등, 중등, 고등, 성인 등 전 사업영역으로 AI 기술을 확대 적용, AI 기술분야를 선도하는 혁신적인 에듀테크 기업으로 성장시킬 것"이라고 말했다.

출처 : 뉴스웍스(http://www.newsworks.co.kr)

 

https://www.newsworks.co.kr/news/articleView.html?idxno=567985 

 

메가스터디교육, 인공지능(AI) 서비스 본격 시동 - 뉴스웍스

[뉴스웍스=문병도 기자] 메가스터디교육이 인공지능(AI) 서비스 확대 적용을 통한 디지털 역량 강화에 나섰다.메가스터디교육은 최근 인공지능(AI) 딥러닝 기술을 활용한 '인공지능 음성인식 엔

www.newsworks.co.kr


https://www.news1.kr/articles/?4451817 

 

메가스터디교육, 초·중등 학습 서비스 'AI스마트매쓰' 선봬

사실 앞에 겸손한 민영 종합 뉴스통신사 뉴스1

www.news1.kr

메가스터디교육, 초·중등 학습 서비스 'AI스마트매쓰' 선봬

AI 기반 개인별 학습 프로그램 제공

메가스터디교육은 초등 엘리하이와 중등 엠베스트 회원을 대상으로 새로운 인공지능(AI) 기술을 적용한 학습 서비스 'AI스마트매쓰'를 선보인다고 5일 밝혔다.

'AI스마트매쓰'는 기존 '스마트매쓰 플러스'에 개인화 맞춤학습 기능을 더했다. 온라인 학습의 한계를 극복하기 위해 AI를 적극 활용해 학습 시간은 줄이고 편의성은 높이도록 기획됐다.

먼저 AI가 학생 수준을 분석해 같은 문제를 다시 틀리지 않도록 개인별 학습 프로그램을 제공한다.

누적 37만명이 푼 수학 문항을 분석해 개인별 오답 패턴을 정밀하게 파악하고 취약점을 추적, 25만개 문항 중 학생이 꼭 풀어봐야 하는 문제를 선별해 제공한다. 틀린 문제에 대해서는 2차 문제를 추가로 생성해 자주 틀리는 유형을 반복 학습함으로써 오답을 마스터할 수 있도록 설계됐다.

이와 함께 교재 채점 결과를 바탕으로 AI가 분석한 유형별, 난도별, 단원별 종합분석 결과를 확인할 수 있다. 이를 참고로 자신의 취약점을 보완해 나가면 학습 효율성을 높일 수 있다. 초등 1학년부터 중학교 3학년까지 사용할 수 있다.

메가스터디교육은 올 연말부터 교재나 연습장, 필기구를 사용하지 않고 간편한 학습이 가능한 AI서비스도 선보일 계획이다.

이를 위해 실제 종이 연습장에 문제를 푸는 것과 같은 느낌의 손가락 필기인식 기능을 AI를 활용해 개발 중이다. 이 기능을 활용하면 태블릿에서 학생이 손으로 직접 쓰고 문제를 풀면서 수학 개념을 빠르고 편리하게 익힐 수 있다.

반응형
반응형

인공지능이
인간을 넘어설지에 대하여
많은 논의가 진행되고 있습니다.
인공지능은 데이터를 바탕으로 지식을 추출하고
미래를 예측합니다. 반면에 인간은 창의적인 사고로
인류가 경험하지 못한 상황에서도 적절한 판단이 가능할
것입니다. 이러한 면에서 인공지능은 인간을 넘어서기
어려워 보입니다. 단, 데이터는 감정이 없습니다. 모든
상황에서 객관적인 평가를 할 수 있습니다. 반대로
인간은 감정에 치우치며 종종 일을 그르치곤
합니다. 인공지능과 공존하기 위해서
인간에게 필요한 것이 무엇인지
생각하게 됩니다.


- 김용대의 《데이터 과학자의 사고법》 중에서 -




* 시대가 변하고 있습니다.
이전과는 전혀 다른 세상이 열리고 있습니다.
인류가 경험하지 못했던, 한 번도 걸어보지 않은 길을
가고 있습니다. 인공지능이 사람 일을 대신하고 있고,
모든 것은 데이터로 남아 스스로 공부하며 진화하고
있습니다. 그 정점에 메타버스가 있습니다. 그러나
인공지능에는 온기가 없습니다. 사랑과 감사,
따뜻한 감성, 영적 정서적 교감이 없습니다.
인공지능은 인간이 사용하는 도구일 뿐  
사람은 사람과 더불어야 삽니다.

반응형

'생활의 발견 > 아침편지' 카테고리의 다른 글

오래된 과거의 잘못  (0) 2021.10.14
지옥 같은 고통은 왜 올까  (0) 2021.10.13
공짜 행복  (0) 2021.10.12
내가 사는 공간을 가꾸는 일  (0) 2021.10.12
두려울 게 없다  (0) 2021.10.08
반응형

인공지능(AI) 언어모델 ‘BERT(버트)'는 무엇인가

github.com/google-research/bert

 

google-research/bert

TensorFlow code and pre-trained models for BERT. Contribute to google-research/bert development by creating an account on GitHub.

github.com

지난해 11월, 구글이 공개한 인공지능(AI) 언어모델 ‘BERT(이하 버트, Bidirectional Encoder Representations from Transformers)’는 일부 성능 평가에서 인간보다 더 높은 정확도를 보이며 2018년 말 현재, 자연 언어 처리(NLP) AI의 최첨단 딥러닝 모델이다. 

또한 BERT는 언어표현 사전학습의 새로운 방법으로 그 의미는 '큰 텍스트 코퍼스(Wikipedia와 같은)'를 이용하여 범용목적의 '언어 이해'(language understanding)' 모델을 훈련시키는 것과 그 모델에 관심 있는 실제의 자연 언어 처리 태스크(질문·응답 등)에 적용하는 것이다.

특히 BERT는 종래보다 우수한 성능을 발휘한다. BERT는 자연언어 처리 태스크를 교육 없이 양방향으로 사전학습하는 첫 시스템이기 때문이다. 교육 없음이란 BERT가 보통의 텍스트 코퍼스만을 이용해 훈련되고 있다는 것을 의미한다. 이것은 웹(Web) 상에서 막대한 양의 보통 텍스트 데이터가 여러 언어로 이용 가능하기 때문에 중요한 특징으로 꼽는다.

사전학습을 마친 특징 표현은 문맥에 '의존하는 방법'와 '의존하지 않는 방법'의 어느 방법도 있을 수 있다. 또 문맥에 의존하는 특징적인 표현은 단방향인 경우와 혹은 양방향일 경우가 있다. word2vec나 GloVe와 같이 문맥에 의존하지 않는 모델에서는, 어휘에 포함되는 각 단어마다 '단어 삽입(word embedding)'이라는 특징 표현을 생성한다. 따라서, 'bank'라는 단어는 'bank deposit' 또는 'river bank'과 같은 특징으로 표현되며, 문맥에 의존하는 모델에서는 문장에 포함되는 다른 단어를 바탕으로 각 단어의 특징을 표현 생성한다.

 

 

 

BERT는 문맥에 의존하는 특징적인 표현의 전학습을 실시하는 대응을 바탕으로 구축되었다. 그러한 대응은 Semi-supervised Sequence Learning, Generative Pre-Training, ELMo, 및 ULMFit를 포함하며, 대응에 의한 모델은 모두 단방향 혹은 얕은 양방향이다. 각 단어는 단지 그 왼쪽(혹은 오른쪽)에 존재하는 단어에 의해서만 문맥의 고려가 되는 것을 의미한다.

예를 들어, I made a bank deposit라는 문장은 bank의 단방향 특징표현은 단지 I made a만에 의해 결정되며, deposit은 고려되지 않는다. 몇개의 이전의 대응에서는 분리한 좌문맥모델과 우문맥모델에 의한 특징표현을 조합하고 있었지만, 이것은 얕은 양방향 방법이다. BERT는 bank를 왼쪽과 오른쪽 양쪽의 문맥 I made a ... deposit을 딥 뉴럴 네트워크(Deposit)의 최하층에서 이용해 특징을 표현하기 때문에 BERT는 '딥 양방향(deeply bidirectional)'이다.

BERT는 간단한 접근법을 사용한다. 입력에서 단어의 15%를 숨기고 딥 양방향 Transformer encoder(관련 논문다운)를 통해 전체 시퀀스를 실행한 다음 마스크 된 단어만 예측한다. 예를 들어, 아래와 같이 문간의 관계를 학습하기 위해서는 임의의 단언어 코퍼스에서 생성 가능한 심플한 작업을 이용하여 학습한다. A와 B의 두 개의 글을 받았을 때 B가 A의 뒤에 오는 실제 문장인지, 코퍼스 안의 랜덤한 글인지를 판정하는 태스크이다.
 

또한 큰 모델(12층에서 24층의 Transformer)을 큰 코퍼스(Wikipedia + BookCorpus)로 긴 시간을 들여(100만 갱신 스텝) 훈련했다. 그것이 BERT이며, 이용은 '사전학습'과 '전이학습'의 2단계로 구분된다.

사전학습(pre-training)은 상당히 고가로 4에서 16개의 Cloud TPU로 4일(12 층의 Transformer 모델의 경우 4개의 TPU를 사용하여 4일, 24층 Transformer 모델의 경우 16개의 TPU를 사용하여 4일이라는 의미) 각 언어마다 1회만의 순서이다. 자연 언어 처리 개발자는 처음부터 자신의 모델을 사전 학습할 필요가 없다.

전이학습(Fine-tuning)은 저렴하며, 논문(아래 참조)과 똑같은 사전학습이 끝난 모델을 사용하여 하나의 Cloud TPU를 이용, 1시간 GPU를 사용하면 2, 3시간만에 재현할 수 있다. 예를 들면 SQuAD는 하나의 Cloud TPU를 이용 30분으로 하나의 시스템으로서는 최첨단(state-of-the-art)인 91.0%의 Dev F1을 달성할 수 있다.

이밖에 BERT의 또 다른 중요한 측면은 많은 종류의 자연 언어 처치 태스크로 인해 매우 쉽게 채택될 수 있다. 논문 중에서 문장 수준 (SST-2 등), 문장 쌍 수준(MultiNLI 등), 단어 수준(NER 등) 스팬 레벨 2 (SQuAD 등)의 태스크에 대해서 거의 태스크 특유의 변경을 실시하는 일 없이, 최첨단 결과를 얻을 수 있는 것을 나타내고 있다.

참고) 'BERT: 언어 이해를 위한 양방향 트랜스포머 사전 학습(BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding)' 논문(다운받기), BERT Google-research의 깃허브(GitHub) (바로가기) 
 

www.aitimes.kr/news/articleView.html?idxno=13117

 

인공지능(AI) 언어모델 ‘BERT(버트)'는 무엇인가 - 인공지능신문

지난해 11월, 구글이 공개한 인공지능(AI) 언어모델 ‘BERT(이하 버트, Bidirectional Encoder Representations from Transformers)’는 일부 성능 평가에서 인간보다 더 높은 정확도를 보이며 2018년 말 현재, ...

www.aitimes.kr

ebbnflow.tistory.com/151

 

[BERT] BERT에 대해 쉽게 알아보기1 - BERT는 무엇인가, 동작 구조

● 언어모델 BERT BERT : Pre-training of Deep Bidirectional Trnasformers for Language Understanding 구글에서 개발한 NLP(자연어처리) 사전 훈련 기술이며, 특정 분야에 국한된 기술이 아니라 모든 자연어..

ebbnflow.tistory.com

vhrehfdl.tistory.com/15

 

슬기로운 NLP 생활 [13] BERT

이전 글 [1] 자연어처리란? [2] Classification Task [3] POS Tagging [4] Stemming, Lemmatizing [5] 형태소 분석기 [6] One-Hot Encoding, Bag Of Word [7] TF-IDF [8] Word2vec [9] Fasttext [10] Glove [11] E..

vhrehfdl.tistory.com

 

반응형

+ Recent posts