프로젝트 관리자가 코로나19 팬데믹에서 배운 가장 큰 교훈을 꼽으라면 바로 ‘불확실성’일 것이다. 불확실성의 시대에서 프로젝트 관리자가 집중해야 할 새로운 목표는 다음과 같다.
정해진 기간과 예산 내에 프로젝트를 딜리버리하는 것이 프로젝트 관리자의 역할과 책임이지만 이젠 그것만으로는 부족하다. 코로나19 여파로 전례 없는 변화를 겪었기 때문이다.
전 세계적인 불확실성으로 인해 ‘프로젝트 관리 조직(Project Management Office; PMO)’의 일이 복잡해졌다. 이런 상황은 PMO의 목표에 어떤 영향을 미쳤을까? 팬데믹 이후의 새로운 현실에서 프로젝트 관리자가 성공을 거두려면 다음의 목표에 집중해야 한다.
1. 대응, 탄력성, 회복, 그리고 새로운 현실 인식하기 코로나19 사태 기간 그리고 그 이후에도, 프로젝트 관리자에게 가장 중요할 목 표는 민첩성과 적응력을 유지하는 것이다. 이는 코로나19 사태가 발생한 이래, 전략적 파트너 겸 리더가 되려는 프로젝트 관리자에게 필수적인 목표였다.
KPMG에 따르면 프로젝트 관리자가 가져야 할 새로운 목표는 대응, 탄력성, 회복, 그리고 새로운 현실을 인식하고 적응하는 것이다.
•대응(Reaction): 프로젝트 관리자는 당면 과제를 해결해야 하고 프로젝트 관리와 이해관계자 역할 및 책임을 명확히 해야 한다.
•탄력성(Resilience): 프로젝트 관리자는 중단된 이니셔티브를 복구하고 지속가능한 딜리버리 모델을 도입해야 한다. •회복(Recovery): 프로젝트 관리자는 새로운 비즈니스 모델에 맞춰 프로젝트와 포트폴리오를 조정해야 한다. •새로운 현실 인식(Recognize the new reality): 프로젝트 관리자는 장기적인 관점에서 프로젝트를 성공적으로 완료하기 위해 전략적인 옵션과 시나리오를 만들어야 한다.
2. 가시적이고 분명한 효과가 있는 이니셔티브를 실행할 것 지난해 코로나19 사태가 발발한 이후, 프로젝트와 포트폴리오의 우선순위가 대부분 바뀌었다. ‘프라이스워터하우스쿠퍼스(PwC)’의 최근 보고서에 따르면 전 세계 CEO들은 장기적인 변화를 이끄는 트렌드로 원격근무로의 전환(78%), 자동화(76%), 공급망 안전성, 고객 경험, 기후 변화 등을 꼽았다.
또한 설문조사에 참여한 CEO의 61%는 앞으로 소속 기업의 비즈니스 모델이 디지털화될 것이라고 답했다. 그리고 이는 팬데믹으로 인해 더욱더 가속화되고 있다.
만약 코로나19 사태가 가속하고 있는 새로운 과제를 다루지 않은 채, 부가가치가 없고 사소한 또는 고립된 프로젝트를 실행하는 데 시간을 할애한다면 이는 회사 리소스뿐만 아니라 어쩌면 더 가치 있는 기회를 낭비하는 셈이다.
따라서 PMO의 역할은 수동적이어서는 안 된다. 모든 프로젝트 전문가는 프로젝트에서 전략적 목표로 이어지는 방법을 명확하게 파악해야 한다.
3. ‘원격인력’이라는 현실에 적응할 것 전체 인력 가운데 약 78%가 원격근무로 전환되면서 채용, 교육, 팀 관리가 전반적으로 더 어려워졌다. 만약 기존 체제와 비즈니스 모델만 고수하려는 프로젝트 관리자라면 이러한 일이 더욱더 어려울 수 있다.
팬데믹 이후에는 자동화를 늘리고, 공급망 격차를 해소하며, 고객 경험을 향상할 수 있도록 전략적으로 사고하는 프로젝트 관리자를 확보하는 것이 필수적이다. 이렇게 하면 계속해서 변화할 수 있는 기업의 우선순위에 따라 가시적이고 분명한 효과가 있는 프로젝트를 실행할 가능성이 커진다.
또한 PMO는 원격 프로젝트 관리자를 전략적 파트너로 채용하고 교육하며 멘토링해야 한다. 불확실성의 시대에서 변화를 창출하고 유지할 수 있도록 필수적인 기술과 소프트스킬을 갖춰야 하기 때문이다. 이를 통해 변화가 프로젝트와 포트폴리오에 미치는 영향뿐만 아니라 제한된 예산으로 최대의 가치를 딜리버리하는 방법을 이해하는 유능한 관리자 풀을 확보할 수 있을 것이다. 4. 변화하는 전략적 목표에 맞춰 조정할 것 PMO의 가치는 이해관계자와 경영진이 프로젝트에서 전략적 목표로 이어지는 방법을 식별할 수 있어야만 인지할 수 있다. 즉 프로젝트가 명확한 방향성이 있어야 하고, 그리고 프로젝트 관리자가 프로젝트 진행 상황을 투명하게 전달해줘야 한다. 그런데 전략적 목표가 뜻하지 않게 갑자기 바뀌면 어떻게 될까?
PMO는 변화 관리자(Change Manager)의 도움을 받아 변경사항을 식별 및 탐색하고, 새로운 프로세스를 개발하며, 이를 문서화해 적절한 이해관계자들에게 적시에 제공해야 한다.
이렇게 하면 프로젝트 관리자는 문제가 발생하고 팀이 다른 길로 샐 때 변경된 사항과 이를 해결하기 위해 해야 하는 작업을 효과적으로 전달할 수 있다. 이를 통해 팀은 변화된 목표를 성공적으로 달성하는 데 집중할 수 있고, 이는 성공의 기반을 닦는 데 도움을 준다.
5. 중요한 사항을 보고할 것 KPI(Key performance indicators)는 프로젝트팀이 전략적 목표를 파악하고 진행 상황을 측정하는 데 중요한 역할을 한다. 사용되는 KPI가 정성적이든 정략적이든 관계없이, PMO는 진행 상황을 프로젝트 스폰서와 이해관계자에게 정기적으로 보고해야 한다.
코로나19 사태 이후 많은 기업의 KPI가 달라졌을 수 있다. 이를테면 현재는 자동화 및 실행 계획을 중심으로 하는 KPI를 가지고 있을지도 모른다. 고객 경험이 여전히 중요할 수도 있다.
하지만 많은 것이 불확실해지는 상황에서, 이해관계자와의 신뢰를 위해 프로젝트, 프로그램, 포트폴리오 성과의 가시성을 높이는 일은 더욱더 중요해질 것이고, 앞으로도 계속될 것이다.
6. 불확실성으로 인한 불안을 완화하기 위해 계속해서 관계를 유지할 것 예전에는 프로젝트를 시작할 때 프로젝트 관리자가 프로젝트 스폰서, 경영진, 이해관계자 그리고 팀과 함께 앉아서 기대하는 KPI 및 프로젝트 인사이트와 관련해 정보를 검토하곤 했다.
팬데믹 이후로 불확실성이 커지면서 프로젝트 관리자는 이해관계자를 더 자주 만나야 하고, 상황 변화에 따라 매개변수를 변경하지 않을 수 없게 됐다.
만약 처음부터 정보가 모호하다면 프로젝트 관리자가 유용하고 시기적절한 비즈니스 인텔리전스를 수집하기 위해 살펴보아야 할 데이터 유형을 어떻게 결정할 수 있겠는가? 코로나19 사태 이후 중요한 의사결정을 내리는 데 필요한 비즈니스 인텔리전스를 수집하느라 여전히 고군분투하고 있는 기업들도 있다.
따라서 상황 변화에 따라 일목요연한 정보를 표시해주는 간단한 대시보드를 각 비즈니스 영역에 제공할 수 있도록 적절한 도구를 갖추는 것이 매우 중요하다.
프로젝트 관리자는 여러 출처에서 관련 데이터를 실시간 캡처한 후 이를 시각적으로 표시하는 도구를 찾고 활용하는 것을 목표로 삼아야 한다. 이를 통해 팀이 쉽고 빠르게 지표에 즉각 액세스할 수 있기 때문이다. 또한 이는 팀과 이해관계자가 영향을 미칠 만한 변화, 프로젝트 진행 방법, 목표 대비 현재 상태 등을 빠르게 파악하는 데도 도움을 준다.
7. PMO의 성과를 분석할 것 성과를 분석하면 프로젝트팀과 이해관계자가 향후 프로젝트와 관련해 교훈이나 시사점을 얻을 수 있다. 또한 프로젝트 관리자는 수집된 비즈니스 인텔리전스가 PMO의 성과와 어떻게 연결되는지 설명할 수 있어야 한다. 정보 수집 및 분석은 이해관계자의 니즈와 관련해 PMO 활동으로 다시 연결되는 경우에만 실행할 가치가 있다.
8. 비즈니스 지원을 위해 PMO를 발전시킬 것 PMO와 모든 프로젝트 전문가는 프로세스, 내부 자원, 기술, 문화 등을 지속적으로 검토하면서 이해관계자의 니즈와 전략적 목표가 충족되고 있는지 끊임없이 확인해야 하고 개선해야 한다.
각 부서는 서로 다른 과제와 목표를 수립하게 될 것이며, 이는 기업의 상위 전략적 목표에 영향을 미칠 것이다. 많은 기업이 알게 된 것처럼, 작년에 효과가 있었던 것이 내년에도 효과가 있으리라고 생각하지 않는 게 중요하다. 프로젝트 관리자는 변화에 보조를 맞추기 위해 계속해서 발전해 나가야 한다.
지난해 11월, 구글이 공개한 인공지능(AI) 언어모델 ‘BERT(이하 버트, Bidirectional Encoder Representations from Transformers)’는 일부 성능 평가에서 인간보다 더 높은 정확도를 보이며 2018년 말 현재, 자연 언어 처리(NLP) AI의 최첨단 딥러닝 모델이다.
또한 BERT는 언어표현 사전학습의 새로운 방법으로 그 의미는 '큰 텍스트 코퍼스(Wikipedia와 같은)'를 이용하여 범용목적의 '언어 이해'(language understanding)' 모델을 훈련시키는 것과 그 모델에 관심 있는 실제의 자연 언어 처리 태스크(질문·응답 등)에 적용하는 것이다.
특히 BERT는 종래보다 우수한 성능을 발휘한다. BERT는 자연언어 처리 태스크를 교육 없이 양방향으로 사전학습하는 첫 시스템이기 때문이다. 교육 없음이란 BERT가 보통의 텍스트 코퍼스만을 이용해 훈련되고 있다는 것을 의미한다. 이것은 웹(Web) 상에서 막대한 양의 보통 텍스트 데이터가 여러 언어로 이용 가능하기 때문에 중요한 특징으로 꼽는다.
사전학습을 마친 특징 표현은 문맥에 '의존하는 방법'와 '의존하지 않는 방법'의 어느 방법도 있을 수 있다. 또 문맥에 의존하는 특징적인 표현은 단방향인 경우와 혹은 양방향일 경우가 있다. word2vec나 GloVe와 같이 문맥에 의존하지 않는 모델에서는, 어휘에 포함되는 각 단어마다 '단어 삽입(word embedding)'이라는 특징 표현을 생성한다. 따라서, 'bank'라는 단어는 'bank deposit' 또는 'river bank'과 같은 특징으로 표현되며, 문맥에 의존하는 모델에서는 문장에 포함되는 다른 단어를 바탕으로 각 단어의 특징을 표현 생성한다.
BERT는 문맥에 의존하는 특징적인 표현의 전학습을 실시하는 대응을 바탕으로 구축되었다. 그러한 대응은 Semi-supervised Sequence Learning, Generative Pre-Training, ELMo, 및 ULMFit를 포함하며, 대응에 의한 모델은 모두 단방향 혹은 얕은 양방향이다. 각 단어는 단지 그 왼쪽(혹은 오른쪽)에 존재하는 단어에 의해서만 문맥의 고려가 되는 것을 의미한다.
예를 들어, I made a bank deposit라는 문장은 bank의 단방향 특징표현은 단지 I made a만에 의해 결정되며, deposit은 고려되지 않는다. 몇개의 이전의 대응에서는 분리한 좌문맥모델과 우문맥모델에 의한 특징표현을 조합하고 있었지만, 이것은 얕은 양방향 방법이다. BERT는 bank를 왼쪽과 오른쪽 양쪽의 문맥 I made a ... deposit을 딥 뉴럴 네트워크(Deposit)의 최하층에서 이용해 특징을 표현하기 때문에 BERT는 '딥 양방향(deeply bidirectional)'이다.
BERT는 간단한 접근법을 사용한다. 입력에서 단어의 15%를 숨기고 딥 양방향 Transformer encoder(관련 논문다운)를 통해 전체 시퀀스를 실행한 다음 마스크 된 단어만 예측한다. 예를 들어, 아래와 같이 문간의 관계를 학습하기 위해서는 임의의 단언어 코퍼스에서 생성 가능한 심플한 작업을 이용하여 학습한다. A와 B의 두 개의 글을 받았을 때 B가 A의 뒤에 오는 실제 문장인지, 코퍼스 안의 랜덤한 글인지를 판정하는 태스크이다.
또한 큰 모델(12층에서 24층의 Transformer)을 큰 코퍼스(Wikipedia + BookCorpus)로 긴 시간을 들여(100만 갱신 스텝) 훈련했다. 그것이 BERT이며, 이용은 '사전학습'과 '전이학습'의 2단계로 구분된다.
사전학습(pre-training)은 상당히 고가로 4에서 16개의 Cloud TPU로 4일(12 층의 Transformer 모델의 경우 4개의 TPU를 사용하여 4일, 24층 Transformer 모델의 경우 16개의 TPU를 사용하여 4일이라는 의미) 각 언어마다 1회만의 순서이다. 자연 언어 처리 개발자는 처음부터 자신의 모델을 사전 학습할 필요가 없다.
전이학습(Fine-tuning)은 저렴하며, 논문(아래 참조)과 똑같은 사전학습이 끝난 모델을 사용하여 하나의 Cloud TPU를 이용, 1시간 GPU를 사용하면 2, 3시간만에 재현할 수 있다. 예를 들면 SQuAD는 하나의 Cloud TPU를 이용 30분으로 하나의 시스템으로서는 최첨단(state-of-the-art)인 91.0%의 Dev F1을 달성할 수 있다.
이밖에 BERT의 또 다른 중요한 측면은 많은 종류의 자연 언어 처치 태스크로 인해 매우 쉽게 채택될 수 있다. 논문 중에서 문장 수준 (SST-2 등), 문장 쌍 수준(MultiNLI 등), 단어 수준(NER 등) 스팬 레벨 2 (SQuAD 등)의 태스크에 대해서 거의 태스크 특유의 변경을 실시하는 일 없이, 최첨단 결과를 얻을 수 있는 것을 나타내고 있다.
참고) 'BERT: 언어 이해를 위한 양방향 트랜스포머 사전 학습(BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding)' 논문(다운받기), BERT Google-research의 깃허브(GitHub) (바로가기)