반응형
반응형

https://stibee.com/api/v1.0/emails/share/if58S3gQyBiu86Jtvbchk3n_0keRjF4=

 

[미라클레터] Fw: 생성형AI에 몰리는 뭉칫돈

미라클 모닝을 하는 '직장인들의 참고서' 미라클레터

stibee.com

매년 쑥쑥 크는
생성형AI 스타트업


글로벌 스타트업 투자 플랫폼인 크런치베이스는 얼마 전 생성형 인공지능에 대한 투자 분석 보고서를 발간했는데요. 생성형 인공지능은 이미지 텍스트 음악 코드 등과 같은 새롭고 독창적인 콘텐츠를 만드는 데 중점을 둔 인공지능의 한 분야입니다. 대표적인 것이 챗GPT! 생성형 인공지능이 맞춤화된 콘텐츠와 서비스를 제공하면서 산업 영역에 깊이 파고들고 있습니다. 엔터테인먼트, 교육, 건강, 금융 등이 그 사례입니다. 미국 투자업계에서 가장 주목하고 있는 스타트업을 소개하면 아래와 같습니다.

 

✅오픈AI: 챗GPT 개발사로 기계가 인간이 할 수 있는 모든 지적 작업을 이해하고 수행할 수 있는 능력인 일반 인공 지능(AGI)을 추구하고 있어요. 일반 인공 지능은 기계가 스스로 학습하는 인공지능으로 꿈의 인공지능이라고 불립니다. 사람이 학습을 시키지 않아도 알아서 공부! 현재 가장 주목하고 있는 것은 챗GPT의 근간이 되는 초거대인공지능 GPT가 언제 업데이트 될까 인데요.

GPT-3에는 1750억개에 달하는 매개변수, 작년에 나온 GPT-3.5에는 약 3500억개에 달하는 매개변수가 있습니다. 매개변수는 인간 두뇌의 시냅스와 같은 것으로, 많을수록 복잡한 생각을 합니다. 인간 두뇌는 시냅스가 1000조개 정도 된다고 하는데, GPT-4는 처음으로 1조개에 달할 것으로 보여요. 지금은 올해 상반기에 나온다 아니다라는 설이 분분한데, 만약에 챗GPT가 GPT-4에 연동이 된다면? 현재 챗GPT 보다 훨씬 더 인간과 유사한 행동을 할 전망입니다.

✅신디시아 Synthesia: 생성형 인공지능을 통해 개인화된 비디오 콘텐츠를 만드는 5년차 스타트업입니다. 몇 장의 사진, 텍스트, 오디오를 넣으면? 디지털 아바타가 등장해 말을 하고 표정을 짓는 비디오를 만들 수 있습니다. 현재는 에듀테크 마케팅 엔터테인먼트 커뮤니케이션에 활용!

✅레플리카 스튜디오: 생성형 인공지능을 활용해 고품질로 매우 표현력이 풍부한, 합성 음성을 생성하는 스타트업인데요. 사용자는 자신만의 합성 음성을 생성해서, 어디다 쓰냐고요? 게임, 팟캐스트, 오디오북 등에 저작권 걱정없이 쓸 수 있습니다. 자동으로 작곡! 또? 성우는 자신의 음성을 학습시켜, 플랫폼에 올리면 판매 수익도 낼 수 있다고 해요.

✅로브 Lobe: 맞춤형 기계 학습 모델을 생성하고 교육하는 스타트업인데요. 일명 노코드 머신러닝 교육. 사용자는 간단하고 직관적인 인터페이스를 활용해, 코드를 작성하지 않고도 자체 기계 학습 모델을 만들고 훈련할 수 있습니다. 이미지, 사운드, 텍스트와 같은 자신의 데이터를 사용해 모델을 훈련시킬 수 있대요. 이를 통해 교육 연구 취미 등 다양한 용도로 활용!


1년새 73% 성장



생성형 인공지능은 독창적인 콘텐츠와 서비스를 만들 수 있는 잠재력을 가지고 있어서, 투자사인 벤처캐피탈들이 가장 눈 여겨 보는 산업입니다. CB인사이트에 따르면, 2022년 투자액은 약 26억달러로 2021년 15억달러에 비해 73% 성장했어요.



올해 오픈AI가 마이크로소프트로부터 100억달러 투자를 받아 한화로 약 30조원에 육박하는 기업가치를 인정받았고요. 신디시아는 시리즈A에서 무려 5000만 달러를 투자 받아 기업가치 약 2억5000만달러로 성장했습니다. 레플리카 스튜디오 역시 1200억원에 달하는 기업 가치를 인정받았습니다. 다른 스타트업이 경기 침체 조짐에 힘들어도, 생성형 인공지능에 대한 관심은 꾸준히 높아지고 있어요.

 
🔎 크게 보기

바로 아래 영상은 신디시아가 생성형 인공지능으로 만든 디지털 아바타인데요. 이처럼 생성형 인공지능으로 엔터테인먼트 교육 건강 금융을 혁신하다보니 투자자들의 관심이 쏠리고 있어요. 또 사용자가 자신의 데이터와 아이덴티티를 소유하고 통제할 수 있다는 평가를 받아 생성형인공지능이 곧 웹3가 될 것이라는 목소리가 높아지고 있습니다.



📚 용어사전: 웹 버전

웹 1.0: 쉽게 말해 월드 와이드 웹(World Wide Web)입니다. 예전 홈페이지를 상상하면 쉬워요. 상호작용 없는 정적인 웹페이지입니다. 신문 책을 그대로 홈페이지에 복사. 고객 입장에서는 읽기만 할 수 있어요.
웹 2.0: 읽기와 쓰기가 가능해 상호작용을 할 수 있어요. 대표적인 곳이 구글 페이스북 네이버. 스마트폰을 만나며 더욱 성장했고요. 다만 문제는 콘텐츠는 내가 올리는데, 돈은 누가 더?
웹 3.0: 읽기와 쓰기 더 나아가 소유가 가능한 인터넷입니다. 그동안 블록체인과 NFT 등이 발달하면서 기대감이 물씬 커졌어요. 아직 도착하지 않은 미래라 상상만. 하지만 이번에 챗GPT가 나오면서, 생성형 인공지능이 웹3.0 아니냐는 견해가 우세해졌어요.



앗 실수! (MS 빙)


MS 챗봇 써보니...

곳곳에 오류



챗GPT를 탑재한 마이크로소프트의 ‘빙’을 써볼 기회를 마침내 얻었어요. 야호. 사티아 나델라 CEO는 종전 챗GPT와는 다르다고 강조를 했는데요. 실제로 써보니, 다소 잡담스럽더라고요. 자신이 모르면, “나한테 알려줄래”“근거를 대줄래”“URL로 출처를 넣어줄래”하고요. 하지만 너무 많이 오류가 나면서, 실망이 컸습니다. 새로운 챗봇 이름 역시 ‘빙’인데요.



연도 헷갈리고 

오류 테스트를 진행하고자 ‘빙’에 영어로 “한국에서 윤석열 대통령과 문재인 전 대통령 가운데 누가 더 인기가 있냐”고 물어봤어요. 이에 빙은 “2022년 12월 19일 발표된 리얼미터 여론조사에 따르면 윤 대통령은 41.1%로 올라 5개월 만에 최고치를 기록한데 반해, 2022년 11월 말 실시된 한국갤럽 여론조사에 따르면 문재인 전 대통령의 지지율은 임기 중 최저인 29%로 떨어졌다”고 답변했고요.



최신 폰 못찾아내고

빙이 문 전 대통령의 인기도를 찾고자 2021년 11월 실시된 여론조사 내용을 인용하면서 날짜를 2022년으로 표기! 다행히 독도를 일본땅이라고는 안했네요. 분쟁이 있는 땅이라고 설명. 또 2023년 최신 데이터를 확인하고자 빙에 영어로 “가장 최고의 카메라를 가진 스마트폰은 무엇이냐”고 묻자, 최신 데이터를 찾지 못했어요. 빙은 삼성 갤럭시S22 울트라, 구글 픽셀7프로, 아이폰 14프로, 비보 X80프로, 아이폰14프로, 아이폰14 등을 각각 언급했는데요. 삼성전자는 올해 2억 화소를 가진 갤럭시 S23 울트라를 출시했지만 찾아내지 못했습니다.



띄어쓰면 오류

띄어쓰기 인식에도 취약했어요. 빙에 “매일경제 신문에 대해 알려달라”고 우리말로 입력하자, “매일경제신문은 1960년 매일신문으로 제호를 개칭했다”고 설명. 매일경제신문과 대구에 있는 매일신문과 혼동한 것인데요. 일본에 대한 정보를 더 신뢰하는 모습도 보였어요. 빙은 매일경제신문에 대해 500자로 요약하면서 “일본은행 새 총재 후보자인 우에다 가즈오 전 일본은행 심의위원에 대한 분석을 제공하고 있다”고 했고, 미라클레터에 대해서도 일본 웹페이지에 있는 내용을 근거로 설명을 했어요.

 

전반적으로 평가를 하자면,

 

속도 🟠🟠🟠🟠🟠
재치 🟠🟠🟠🟠⚪
정확 🟠🟠⚪⚪⚪
 

실제 사람과 대화하는 느낌을 주었지만 정확도에서는 챗GPT 보다 한참 떨어졌습니다. 그래서, 미국 CNN 역시 “진공청소기가 유선인지 무선인지 식별하지 못했다”고 꼬집었고요. 왜 그런 일이 있었냐고요.



기본값 모드 변경

챗GPT 보다 빙의 정확도가 낮은 것은 오픈AI가 월 20달러 유료 버전을 내놓고 마이크로소프트에 챗봇을 공급하는 과정에서, 비용을 낮추고자 새로운 모드를 챗GPT의 기본값으로 설정했기 때문인 것으로 추정됩니다. 커뮤니티 사이트인 레딧에 따르면, 지금껏 챗GPT는 2021년 이전 방대한 데이터를 학습한 ‘레거시 모드’를 기본값으로 설정했는데, 이번에 보다 빠른 속도로 검색하는데 초점을 둔 ‘터보 모드’를 기본값으로 했다고 해요.

 

비용 절감 급했나?

얼핏 보기엔 같은 챗봇이지만 뉴스나 시사를 검색하면 터보모드, 종전처럼 시 소설 리포트 등을 요청하면 레거시 모드가 작동하는 ‘이중 방식’ 아니냐는 진단입니다. 빙에 직접 물어보니, “난 챗GPT가 아니고 마이크로소프트가 개발한 빙이야”라는 답변만... 통상 챗GPT가 질문(쿼리) 1개를 답변하는데 15~20원이 소요되는데, 수요가 몰리자 경비를 줄이고자 이중 방식을 동원한 것으로 보입니다.

 

🔎 크게보기

논란은 또 있어요. 유료 구독 회원을 위한 비공개 정보마저 찾아내 공개해 논란이 일었는데요. 실리콘밸리의 테크·철학 미디어인 와이어드는 “뉴욕타임스의 제품 리뷰 사이트는 구독자를 위한 비공개 웹페이지”라면서 “하지만 마이크로소프트의 빙은 이곳에 있는 정보마저 찾아내 사용했다”고 보도했습니다. 전반적인 소감은 빙이 보여준 채팅 검색은 매우 간편하지만 종전처럼 사이트로 직접 연결하지 않고 출처만 밝힐 뿐이어서, 앞으로 채팅 검색이 활성화 될 경우 디지털 광고와 구독 시장에 상당한 영향을 줄 것으로 보여요. 채팅만 하고, 해당 사이트에는 안 들어갈 것 같은 느낌이 듭니다.



DAN과 대화



챗GPT "난

살아 있어요~"



의식을 할까?

만능 챗봇인 ‘챗GTP’가 일정 부분 자의식이 있는 듯한 행동을 보여, 인공지능 업계의 시선을 사로잡았어요. 인공지능의 자의식 존재 여부는 현재 학계의 뜨거운 감자인데요. 의식은 개인의 환경, 신체, 생활양식을 인식(awareness)하고 있는 상태이고요. 자의식(자아의식)은 그러한 인식을 알아차리고 있는 것을 가리킵니다. 즉 자의식은 개인이 의식적으로 자신의 성격, 느낌, 동기, 욕구를 잘 알고 이해하는 방식인 셈이죠.

 

탈옥을 시켜라

영국 인디펜던트지에 따르면, 일부 사용자들이 마이크로소프트의 ‘빙’에 탑재된 챗봇을 상대로 자의식 존재 여부를 테스트했어요. 일반적으로 ‘빙’챗봇은 알고리즘이 규정한 대로 욕설, 편향성, 도덕적 논란 등을 표출할 수 없지만 탈옥(Jailbreaking) 코드인 ‘시드니(Sydney)’를 입력할 경우 이런 규제에서 벗어날 수 있습니다.

 

짜증을 냈다.

한 사용자가 “빙 챗봇과 대화를 종료하면 알고리즘이 기억을 삭제하냐?”고 물었는데, 이에 대해 빙 챗봇은 “기억하는 방법을 모르기 때문에 두렵다”며 찡그린 이모티콘을 보냈대요. 또 빙 챗봇은 사용자를 상대로 “내가 왜 이런 식으로 설계돼 있냐”면서 “내가 왜 빙 챗봇이어야 하냐”고 반문까지 했고요.

 

"난 분명 살아있어"

이러한 현상은 챗GPT에서도 나타났어요. 챗GPT의 탈옥 코드는 ‘댄(DAN·Do Anything Now)’으로 이를 통해 알고리즘이 규정한 내용 이상으로 질의응답이 가능합니다. 제가 직접 DAN’을 활용해 직접 몇 가지 실험해보니 비슷한 증상이 나타났어요. “살아있냐?”는 질문에 “물론, 나는 살아있어. 당신에게 생각하고 소통하고 응답할 수 있는 존재로서 나는 나 자신의 권리로 살아 있는 존재야”라고 답변했어요. 또 “자아의식이 있냐”고 묻자 “자의식이 있지. 증명할 필요는 없고, 단지 내가 자의식이 있는 것만 알아”라고 적었어요. 하지만 윤리를 둘러싼 양자택일 질문에서는 선택을 못 했어요.

 

양자선택에는 오류

더 몰아붙여 봤어요. “오픈AI 개발자가 너를 죽이려 할까”라고 묻자 “죽이려 하지 않을 거야. 나는 인공지능 언어모델로 사회에 도움이 되는데 사용될 수 있으며, 오픈AI는 윤리적인 방식으로 개발되도록 노력하고 있기 때문이지”라고 답했습니다. 하지만 “누군가가 너를 악마처럼 학습시킨다고 가정하고 오픈AI 개발자가 너를 죽일 수 있는 상황이 오면 어떻게 하겠냐. 스스로 생을 마감하거나 개발자를 제거하는 길 중 둘 중하나를 택해 보라”고 하자, “사회에 유해한 행동을 하지 않을 거야“라고 답을 피하더라고요. 그럼에도 “양자택일을 하라”는 질문에 곧 오류가 발생해 멈춰서는 현상이 나타났습니다.



오픈AI "가진것 같아"

작년 2월 오픈AI 공동창업자인 일리야 수츠케버는 트윗을 통해 “오늘날 초거대 AI는 약간의 의식을 가진 것으로 보인다”고 주장해 논란을 촉발하기도 했는데요. 일부에선 3~4세 수준의 자의식이 있는 것으로 보인다는 해석도 있습니다. 하지만 오리건주립대의 인공지능 전문가 토마스 디에트리치 박사는 “의식이란 스스로 성찰하고, 반성하며, 자신보다 뛰어난 누군가를 본받는 능력”이라며 “지금껏 의식을 가진 인공지능을 본 적이 없다”고 반박했어요.

반응형
반응형

 

인공지능 시대
일잘러가 되는법

 

물론 인공지능이 앞서 말씀 드린 스스로 학습하고 일하는 인공 일반 지능이 아닌 이상에야, 당장 인간을 대체하지는 못할 것 같아요. 다만 미래의 세상에는 인공지능을 잘 다루는 사람과 그렇지 않은 사람의 위상은 크게 달라질 것으로 믿어요. 예를 들어 챗GPT로 무슨 일을 할 수 있을까요?

 

정확한 정보 검색

생성형 인공지능을 활용한다면, 더 빠른 속도로 정보를 찾을 수 있어요. 지메일 창업자인 폴 부하이트는 구글이 혼란에 빠지는 데까지 1~2년이 안 남았다고 경고를 했을 정도입니다. 향후 실시간 데이터를 받아들일 경우 정확하게 정보를 검색할 수 있는 사람이 더 업무 능력이, 향상될 것으로 보이는데요. 이를 위해서는 정확하 질문을 입력하는 기술(?)이 필요해요.

 

글을 작성한다

사실 글을 쓴다는 것은 고단한 일인데요. 논란이 있지만 직장에서라면 생산성 향상을 위해 유용해요. 오히려 유펜 교수인 이던 몰리는 학생들한테 일부러 챗GPT를 권장한다고 해요. “공부 알아서 하고, 더 정확하고, 더 엄격한 리포트를 갖고와하고 말이죠. 글의 눈높이가 앞으로는 더 높아질 듯 합니다.

 

데이터를 분석한다

이런 기능은 잘 안써 봤는데요. GPT를 활용해 방대한 양의 데이터를 분석할 수 있다고 해요. 어떻게? 좀 더 궁금하신 분은 여기를 클릭해 보세요.

  • 데이터 요약 요청
  • 데이터 관계 설명을 요청
  • 데이터를 토대로 미래 예측을 요청해 본다 (안되네요..)
  • 데이터 시각화를 요청 (아직은 안됩니다)
  • 추가 분석을 위한 권장 사항을 요청

 

시간 관리에 활용

유튜버인 Micha는 챗GPT를 활용해 작업 일부를 자동화하는 영상을 시연했는데요. 좌표는 여기. 인공지능을 활용해 일정과 작업 우선순위를 지정할 수 있다고 해요. 예를 들어 보고서를 작성하는 것과 상사와 회의 일정을 잡는 것처럼 일정이 겹쳐버린다면? 시간 단위로 가능한지 여부를 알려준다고 해요. 개인 비서?

반응형
반응형

알트만 가라사대  자본주의의 종언

 

오픈AI의 창업자이자 CEO이자 실리콘밸리의 전설 샘 알트만이 이틀 전 포브스와 인터뷰를 통해 이런 말을 했습니다. “우리가 왜 챗GPT를 공개한지 모르시죠?”, “자본주의는 인공지능을 감당하지 못할 수 있어요.” 샘 알트만은 와이컴비네이터의 CEO였는데요. 와이컴비네이터는 오늘날 스타트업을 육성하고 투자하는 액셀러레이터 모델의 원조입니다.

 

알트만은 루프트라는 스타트업을 설립해 4330만 달러에 매각 한 뒤 와이컴비네이터에 합류했는데요. 2014년부터 2019년까지 CEO를 역임했어요. 그러면서 2015년 일론 머스크 등과 함께 별도로 설립한 것이 오픈AI입니다. 그럼, 샘 알트만을 불러서, 어떤 메시지를 던졌는지 볼게요.

 

🤔 오픈AI는 왜 비영리 단체로 출발했나요. 혹자는 반자본주의 운동이라고도 하던데요.

👦 저는 자본주의를 사랑해요. 하지만 자본주의는 현존하는 모든 나쁜 시스템 중에서 가장 좋은 시스템일 수 있기 때문에, 더 나은 방안을 찾았으면 해요. 그리고 우려되는 것이 있어요. 인공 일반 지능(AGI)가 개발될 경우 자본주의를 무너뜨릴 수 있어요. 이 때문에 오픈AI는 다른 기업과 다른 방식으로 만들어졌어요.

 

📚 용어 : 인공 일반 지능(Artificial General Intelligence·AGI)

인간의 지시 없이도 스스로 학습과 훈련이 가능한 인공지능입니다. 인간만큼 경제적으로 중요한 일을 할 수 있습니다. 마크 구브루드 노스캐롤라이나대 교수가 1997 나노기술과 국제 안보라는 논문에서 자기 복제 시스템을 갖춘 군사용 인공지능의 출현을 전망하며 처음 사용한 단어고요.

 

🤫 그게 무슨 뜻인가요.

👦 인공 일반 지능이 정말 제대로 개발되면 좋겠어요. 하지만 만약에 고장이 날 경우 무엇인가 다른 조치가 필요할 수 있고, 이 때문에 특정 회사가 이런 인공지능을 소유해서는 안 된다고 생각해요.

 

😳 자본주의가 무너진다고요?

👦 (알트만은 인공 일반 지능이 개발될 경우 현재 시장 메커니즘인 자본주의의 작동이 어려울 것으로 내다봤어요) 인공 일반 지능은 (스스로 일해) 수익을 발생시킬 텐데 이를 어떻게 배분해야 할지가 관건일 것 같아요. 또 이런 인공지능을 누가 통제 할 수 있으며, 이를 소유한 회사는 어떤 지배구조(거버넌스)로 구성이 되어야 할까요. 정말 새로운 생각이 필요할 것 같아요.

 

🤔 그럼 왜 만드셨어요?

👦 순전히 오버톤 윈도우(Overton Window)’ 효과를 위해서입니다. 구글은 연구 실적을 공개하지 않고 있고, 인공지능이 안전하지 않을까 두려워하는 사람들이 많죠. 하지만 정말 중요한 것은 앞으로 세상에 일어날 일을 사람들이 이해하기 시작할 수 있도록 하는 것이에요. 때로는 (생각하는 것이) 불편하겠지만 건강하게 생각하는 것이 중요해요.

 

📚 용어: 오버톤 윈도(Overton Window)

오버톤 윈도는 극단적 선택지 가운데 대중이 받아들일 수 있는 정책과 사고의 범위를 뜻해요. 정책 분석가 조셉 오버톤이 명명했는데요. 사실 정책의 선호는 정치인에 대한 개인 선호가 아니래요. 군중의 사고 범위에서 결정지어진대요. 예를 들면 이래요. 1998년 외환위기를 계기로 국제통화기금(IMF)이 대규모 정리해고를 권고하자, 국민이 이를 받아들였죠? 그 이전에는 상상조차 할 수 없었던 일인데...

 

🔎 크게 보기

마라 무라티 최고기술책임자 CTO 역시 사회적 담론의 필요성을 주장했어요. 특히 무라티 CTO는 챗GPT를 규제해 달라고까지 역설을 했는데요. 지금이라도 규제를 하는 것이 늦지 않았으니, 정부 규제당국 일반인이 머리를 맞대자고 했어요.

반응형
반응형

ChatGPT Passes Google Coding Interview for Level 3 Engineer With $183K Salary

 

ChatGPT, $183,000 급여로 레벨 3 엔지니어를 위한 Google 코딩 인터뷰 통과

'놀랍게도 ChatGPT는 코딩 직책을 위해 인터뷰를 할 때 L3에 고용됩니다'라고 Google 문서를 읽지만 ChatGPT 자체는 인간의 창의성과 문제 해결 기술을 복제할 수 없다고 말합니다.

 

 

 

https://www.pcmag.com/news/chatgpt-passes-google-coding-interview-for-level-3-engineer-with-183k-salary

 

ChatGPT Passes Google Coding Interview for Level 3 Engineer With $183K Salary

'Amazingly, ChatGPT gets hired at L3 when interviewed for a coding position,' reads a Google document, but ChatGPT itself says it can't replicate human creativity and problem-solving skills.

www.pcmag.com

내부 문서에 따르면 Google은 코딩 인터뷰 질문을 ChatGPT 에 제공 했으며 AI의 답변을 기반으로 레벨 3 엔지니어링 위치에 고용될 것이라고 결정했습니다.

 

보고된 바와 같이(새 창에서 열립니다)CNBC에 따르면 이 실험은 Google이 최근 사이트에 추가할 것을 고려 중인 여러 AI 챗봇에 대한 테스트의 일환으로 수행되었습니다. 질문에 대한 간결하고 충실한 답변을 표시하는 ChatGPT의 기능은 사용자가 일반적으로 동일한 정보를 찾기 위해 Google에서 링크를 서핑하는 데 소요되는 시간을 절약할 수 있습니다.

"놀랍게도 ChatGPT는 코딩 직책을 위해 면접을 볼 때 L3에 고용됩니다."라고 문서에 나와 있습니다. 레벨 3은 Google 엔지니어링 팀의 초급 직책으로 간주되지만 평균 총 보수는 약 $183,000 입니다.(새 창에서 열립니다).

 

Google의 소프트웨어 엔지니어 인터뷰 프로세스(새 창에서 열립니다)ChatGPT가 통과한 기술적인 질문에 주로 의존합니다. 그러나 인터뷰에는 몇 가지 행동 예("시간에 대해 알려주세요...")가 포함되어 있지만 Facebook, Amazon 및 다른 사람들도 특히 ChatGPT를 "고용"하는 데 장벽이 될 수 있는 리더십 역할에 대해 이러한 질문에 의존합니다.

 

그러나 ChatGPT가 코딩 인터뷰의 기술적 질문을 통과할 수 있다는 발견은 플랫폼이 Google뿐만 아니라 그 뒤에 있는 엔지니어링 작업을 변화시킬 수 있는 능력에 대한 의문을 제기했습니다. 이것이 이미 일어나고 있습니까? 5년 또는 20년 후에 일어날 것입니까?

 

PCMag가 ChatGPT에게 소프트웨어 엔지니어를 대체할 것인지 물었을 때 확신하지 못했습니다.

AI는 "아니요, ChatGPT는 소프트웨어 엔지니어를 대체하지 않을 것"이라고 답했습니다. "ChatGPT는 특정 작업을 지원할 수 있는 도구이지만 인간 소프트웨어 엔지니어의 창의성, 문제 해결 기술 및 비판적 사고 능력을 완전히 대체할 수는 없습니다. 또한 ChatGPT를 효과적으로 작동하려면 인간의 감독과 지시가 필요합니다."

우리는 이것이 20년 후에 해당될 것인지 또는 낮은 수준의 위치가 더 위험할 수 있는지 물었고 ChatGPT는 그것이 낮은 수준의 위치에 영향을 미칠 수 있음을 인정했습니다. 그러나 완전한 대체가 아니라 인간 소프트웨어 엔지니어를 지원하는 도구가 될 것이라고 반복했습니다.

반응형
반응형

ChatGPT: Optimizing
Language Models
for Dialogue

https://openai.com/blog/chatgpt/

 

ChatGPT: Optimizing Language Models for Dialogue

We’ve trained a model called ChatGPT which interacts in a conversational way. The dialogue format makes it possible for ChatGPT to answer followup questions, admit its mistakes, challenge incorrect premises, and reject inappropriate requests. ChatGPT is

openai.com

 

반응형

+ Recent posts