반응형
공개서한에 담긴 두려움

 

공개서한의 핵심 내용은 전세계 모든 AI 연구기관이 GPT-4 이상의 성능을 가진 AI 에 대한 연구를 6개월간 멈추고

 

‘고급 AI 설계 및 개발을 위한 일련의 공유 안전 프로토콜을 공동으로 개발하고 구현하자(Develop and implement a set of shared safety protocols for advanced AI design and development)’

 

는 것이에요. 어째서 일까요? 

 

‘고등 인공지능은 지구상의 생명체의 역사에 중대한 변화를 가져올 수 있기 때문(Advanced AI could represent a profound change in the history of life on Earth)’

 

이라고 설명하고 있어요.

 

여기서 지구상의 생명체란 결국 ‘인간’을 뜻해요. 통제되지 않은 AI 의 발전은 인류를 멸망시킬 수도 있다는 두려움이 이 서한에는 담겨져 있어요. 이 서명에는 현재 약 2700여명이 서명. 

 

AI 가 가져올 수 있는 여러가지 문제들은 많아요. 예를 들자면 AI 등장으로 일자리가 줄어들거나, AI에 의존하면서 인간의 능력이 떨어지는 점, AI가 사회적인 편향성을 강화하고, AI 사용이 늘어나면서 탄소배출이 증가하는 것이 대표적이겠죠. 

 

하지만 AI 에 대한 여러가지 비판 중 가장 강력하면서도 ‘러다이트 운동(기계가 처음 등장했을 때 기계를 파괴하고자 하는 사회운동)’과 같은 파급력을 가져올 수 있는 것은 이 ‘AI에 의한 멸망론’이라고 생각해요.

 

미리 말씀드리고 싶은 것은 AI 의 기술적 진보와 AI 에 대한 공포는 동전의 양면처럼 항상 존재해왔다는 것이에요. 챗GPT 의 기술적 바탕이 된 트랜스포머가 등장하기 전에도, 딥러닝이 등장하기 전에도, AI 기술은 존재했고 이에 대한 인간의 상상력은 존재했어요. 수많은 과학소설이나 영화 에서도 AI 로 인한 인류의 멸망을 주제로 다뤘구요.

 

그래서 AI 기술이 사회적으로 부상될 때마다 바늘이 가는 곳에 실이 따라오듯 ‘AI 에 대한 공포’는 부상했습니다. 이제 챗GPT 로 AI 기술이 많이 진보했다는 것이 대중적으로도 알려지면서 다시 이 공포는 스멀스멀 올라오는 것 같아요. 이런 ‘AI 에 의한 인류멸망’ 시나리오에 많은 아이디어를 준 한 사람이 있는데요. 이 사람의 생각을 알아볼 필요가 있을 것 같습니다. 

"인류는 AI로 멸망한다" 

 

엘리저 유드코스키(Eliezer Yudkowsky)는 기계지능연구소(Machine Intelligence Research Institute)라는 연구소의 설립자로 인공지능의 위험성에 대해서 2000년대 초부터 주장해왔어요. 하지만 그는 우리가 생각하는 아카데미에 속한 학자가 아니에요. 정통 유대교인으로 대학을 포함한 정규 교육을 받지 않은 것으로 알려져 있어요. 하지만 닉 보스트롬의 ‘슈퍼인텔리전스’, 제임스 배럿의 ‘파이널 인벤션’ 같은 AI 에 관한 책에 영향을 줬다고 해요. 최근 챗GPT 로 인해 AI 에 대한 관심이 높아지면서 엘리저 유드코스키도 다시 관심을 얻고 있어요. 타임지에 기고를 하기도 하고, 유명 팟캐스트에도 출연했습니다.

 

그의 메시지의 핵심은 이래요.

 

“일단 우리가 인공지능을 만들기 시작하면 인간을 훨씬 뛰어넘는 초지능의 등장은 막을 수 없다. 또, 초지능이 등장하더라도 그것이 등장했는지 알 수도 없다. 또, 인공지능을 인간의 필요에 맞게 얼라인먼트(Alignment) 시킬 수도 없다. 그러므로 AI 를 처음부터 만들어서는 안된다.”

 

앞서 공개서한은 AI 가 인류를 멸망시키는 것을 막기 위해 모두 모여서 규칙을 정하자고 호소하고 있는데, 엘리저 유드코스키는 이것이 6개월간 중단한다고 해서 해결되는 것이 아니라고 주장하고 있어요. 심지어 그는 AI 학습에 사용하는 모든 대규모 GPU 시설의 활동을 중단시키라고 합니다. 숨어서 AI 를 학습시키는 걸 막기 위해서요. 

https://www.youtube.com/watch?v=CCaPGRpFaO4 

 

반응형

+ Recent posts