네이버가 게임 특화 스트리밍 플랫폼 ‘치지직’을 9일 정식으로 출시했다. 네이버는 정식 서비스를 통해 서비스 안정성을 더욱 높이고 편의 기능을 강화할 방침이다.
‘치지직’은 지난 12월 베타서비스로 공개된 서비스다. 신규 서비스임에도 불구하고 치지직은 경쟁 스트리밍 서비스인 ‘트위치’의 한국 시장 철수 시점에 출시되면서 국내 점유율을 높이고 있다. 실제로 모바일 앱 분석 기관인 모바일인덱스 조사에 따르면, 치지직의12월 사용자의 77% 이상이 트위치 사용자에서 유입됐다. 2024년 3월 기준치지직 사용자 수는 227만 명으로국내 스트리밍 플랫폼 점유율 1위 기업인 아프리카TV(248만명)와의 사용자 수 격차가 21만 명으로 좁혀졌다. 참고로 네이버는 치지직의 공식 사용자 수를 공개하지 않았다.
네이버는 치지직을 정식 출시함에 따라, 안정적인 서비스를 제공하며 스트리밍의 편의 요소가 추가할 예정이다. 대표적으로 ‘미션 후원’ 기능과 ‘치지직 클립’이 이번에 지원된다. 미션 후원은 시청자가 후원금을 주기 위해 특정 조건을 걸 수 있는 기능이다. 가령 시청자가 ‘A 게임을 모두 실행할 경우’라는 조건을 걸고, 스트리머가 실제 게임을 전부 시행했을 때 후원이 최종 완료되는 식이다. ‘치지직 클립’을 통해 스트리밍 영상을 간편히 편집하는 도구다. 단순히 영상 편집하는 것 외에도 시청자가 후원을 진행할 때 보내는 영상 메시지를 치지직 클립으로 간편하게 제작해 전달할 수 있다.
치지직 정식 서비스에선 네이버 타서비스의 연계도 강화된다. 네이버는 치지직에서 생성한 스트리머의 숏폼 영상을 네이버앱의 콘텐츠 추천 영역에서 노출할 예정이다. 또한 스트리머 팬카페에 치지직 라이브 진행 여부 및 VOD 영상 노출을 확인할 수 있도록 카페 연동을 더욱 고도화하고, 네이버의 AI 보이스 기술을 적용한 스트리머 보이스 후원 기능도 3분기 내에 발표할 계획이다.
네이버 치지직 김정미 리더는 “치지직은 베타 서비스 기간에 꼼꼼히 서비스의 사용성 및 안정성을 점검하며 완성도를 높여갔고, 스트리밍 시장의 대표 서비스로 빠르게 안착했다”라며 “앞으로도 치지직은 다양한 타 서비스와의 연계, 다채로운 기능 오픈 등을 통해 서비스 경쟁력을 강화하겠다”라고 설명했다.
어떤 경영자도 대량 해고 결정은 부담스럽다. 아무리 해고가 자유로운 미국이라도 대량 해고는 쉬운 결정이 아니다. 큰 기업일수록, 사회적 영향력이 있는 기업이나 경영자일수록 사회적 시선을 고려하게 된다. 일론 머스크가 2022년 4분기에 보여준 거침없는 대량 해고는 그가 폭군이어서 그런 게 아니다.
- 김용섭의 《리더의 각성》 중에서 -
* '대량해고'는 고통스런 대수술입니다. 마치 전체 몸을 살리기 위해서 너무도 소중했던 장기나 수족을 잘라내는 외과적 수술을 하는 것과 같습니다. 엄청난 고통을 감수해야 합니다. 이때 꼭 갖춰야 할 덕목이 있습니다. '사회적 시선'입니다. 대량해고의 불가피함이 인정될수록 잘려나간 장기와 수족에 충분한 예의를 갖춰 감사와 존경과 사랑을 표해야 합니다. 그때 비로소 많은 사람들이 고통을 함께 나눌 수 있습니다.
Python에서 현재 설치된 라이브러리(패키지) 목록을 확인하는 방법은 여러 가지가 있습니다. 주로 pip 패키지 관리자를 사용하여 설치된 패키지 목록을 조회합니다. 아래는 다양한 방법으로 현재 설치된 라이브러리 목록을 확인하는 방법을 설명합니다.
1. pip list 명령어 사용
가장 일반적인 방법은 터미널 또는 명령 프롬프트에서 pip list 명령을 사용하여 설치된 모든 패키지 목록을 조회하는 것입니다.
pip list
위 명령을 실행하면 설치된 모든 패키지의 목록이 출력됩니다.
2. pip freeze 명령어 사용
pip freeze 명령은 pip list와 유사하게 현재 환경에 설치된 패키지와 그 버전을 출력합니다. 이 명령은 보통 requirements.txt 파일을 생성하는 데 사용됩니다.
pip freeze
3. Python 스크립트를 통한 확인
Python 스크립트 내에서 pkg_resources 모듈을 사용하여 현재 설치된 패키지를 조회할 수 있습니다.
import pkg_resources
# 현재 설치된 패키지 목록 조회
installed_packages = pkg_resources.working_set
installed_packages_list = sorted(["%s==%s" % (i.key, i.version) for i in installed_packages])
for package in installed_packages_list:
print(package)
4. conda list (conda 환경에서)
만약 Anaconda 또는 Miniconda와 같은 conda 패키지 관리자를 사용하고 있다면, conda list 명령을 사용하여 현재 환경에 설치된 패키지 목록을 확인할 수 있습니다.
conda list
위 방법 중 하나를 선택하여 현재 Python 환경에 설치된 모든 패키지 목록을 확인할 수 있습니다.
책임감 있는 AI, 일명 RAI(Responsible AI)에 대한 관심이 더욱 높아지고 있다. RAI는 신뢰와 도입부터 LLM 환각 관리, 유해한 생성형 AI 콘텐츠 제거에 이르기까지 모든 것을 추진하는 핵심 요소다. 효과적인 RAI로 기업은 더 빠르게 혁신하고, 비즈니스를 더 개선하고, 미래의 AI 규정을 준수하고, 평판이 손상되거나 규제를 어기는 일 없이 계속 경쟁에 참여할 수 있다.
안타깝게도 RAI가 실제로 무엇인지, 무엇을 제공하는지, 어떻게 달성할 수 있는지에 대한 혼란이 있다. 치명적인 결과를 초래할 수 있는 문제다. 그러나 RAI 이니셔티브가 제대로 수행되지 않으면 혁신이 방해받고 지연과 비용이 추가된다. RAI의 정의와 목적에 대한 좋은 해석도 있지만 잘못된 통념과 오해도 만연해 있다. 기업은 RAI는 비용이 많이 들고 비효율적이며 시간 낭비라는 잘못된 통념을 깨뜨리고 AI에 기반해 가치를 창출하는 원동력으로 전환해야 한다.
RAI에 대한 오해 중 가장 문제적인 것은 무엇일까? 그리고 지속 가능한 이니셔티브를 추진하기 위해 RAI를 가장 잘 정의하려면 어떻게 해야 할까?
잘못된 통념 1 : RAI는 원칙론일 뿐
어느 거대 IT 기업에서나 설명 가능성, 공정성, 개인정보 보호, 포용성, 투명성과 같은 RAI 원칙을 찾아볼 수 있 수 있다. 이렇게 널리 퍼진 여러 원칙이 있으니 RAI의 중심에 원칙이 있다고 해도 문제가 없을 것이다. 이런 기본적인 기업 원칙은 책임감 있는 개인에게 기대하는 것과 정확히 같은 종류이므로 책임감 있는 AI 보장에 핵심이 된다고 하면 맞는 말일까?
아니, 틀렸다. 모든 기업에는 이미 원칙이 있다. 일반적으로 기업 원칙은 RAI와 정확히 동일할 것이다. 공정, 투명성, 포용에 반대한다고 밝힐 기업이 있을까? 만약 그런 기업이 있다고 해도, AI에는 투명성을 적용하고 기업의 나머지에는 투명성을 적용하지 않을 수가 있을까?
또한 원칙은 AI에 대한 신뢰를 불러일으키는 것보다 사람과 기업에 대한 신뢰를 끌어내는 데에 훨씬 효과적이다. 항공사의 비행기가 목적지까지 안전하게 데려다 줄 것이라고 믿는 이유가 그 회사가 원칙을 지키기 때문인지 생각해 보자. 아니, 엄격하게 시행되는 프로세스를 따르고, 신중하게 테스트하고 정기적으로 검사한 장비를 사용하는 숙련된 조종사, 기술자, 항공 교통 관제사가 있어서 신뢰하는 것이다.
비행기 여행과 마찬가지로 RAI의 핵심은 원칙을 실현하고 시행하는 사람, 프로세스, 기술이다. 독자 모두 이미 올바른 원칙을 정해두었을 것이다. 문제는 실행이다.
잘못된 통념 2 : RAI는 윤리와 관계가 있다
RAI는 AI를 윤리적으로 사용하고, 모델이 공정하게 작동하도록, 새로운 차별이 생겨나지 않도록 하는 지침일 뿐이라고 생각한다면 틀렸다.
신용 평가에 사용되거나 이력서를 심사하거나 실직 여부를 결정하는 모델 등 실제로 윤리나 공정성을 고려하는 AI 사용례는 극히 일부일 뿐이다. 당연히 이러한 사용례를 책임감 있게 처리하는 것도 RAI의 목적이지만, 다른 모든 AI 솔루션의 안전과 안정적 개발 및 사용, 또 기업의 성능 및 재무 요구 사항 충족도 RAI가 필요한 부문이다.
설명 가능성을 제공하고, 편향성을 확인하고, 개인정보 보호를 보장하는 데 사용하는 도구는 정확성, 신뢰성 및 데이터 보호를 보장하는 데 사용하는 도구와 정확히 같다. RAI는 공정성을 고려해야 할 때 AI를 윤리적으로 사용하는 데 도움이 되지만, 다른 모든 AI 사용례에서도 마찬가지로 중요하다.
잘못된 통념 3 : RAI를 알려면 설명 가능성부터 알아야 한다
AI를 신뢰하고 책임감 있게 사용하기 위해서는 설명 가능성, 즉 해석 가능성이 필요하다는 것이 일반적인 생각이지만, 사실은 아니다. 비행기 여행에 안심하기 위해서 비행기의 작동 원리를 알아야 할 필요가 없듯, AI를 신뢰하기 위해 설명 가능성을 꼭 이해할 필요는 없다.
인간의 결정이 좋은 예다. 인간은 거의 대부분 자신의 결정 이유를 설명할 수 있지만, 사실 설명은 의사 결정 행동의 실제 동인과는 거의 관련이 없는, 사후에 지어낸 이야기라는 증거가 많다.
그러나 쉽게 이해할 수 있는 '화이트박스' 모델과 LIME 및 ShAP과 같은 방법을 사용하는 AI 설명 가능성은 모델이 올바르게 작동하는지 테스트하는 데 중요하다. 잘못된 상관관계와 잠재적인 불공정한 차별을 식별하는 데 도움이 되기 때문이다. 패턴을 쉽게 감지하고 설명할 수 있는 간단한 사용례에서는 신뢰도를 높이는 지름길이 될 수 있다. 그러나 패턴이 충분히 복잡한 경우에는 어떤 설명도 기껏해야 어떤 결정이 어떻게 내려졌는지에 대한 암시만 제공할 뿐이며, 최악의 경우 완전한 중언부언이나 횡설수설에 지나지 않을 것이다.
즉, 요컨대, 설명 가능성은 있으면 좋지만, 이해관계자와의 신뢰를 의미 있게 이끌어내는 방식으로 제공하는 것은 불가능할 때가 많다. RAI는 모든 AI 사용례에 대한 신뢰를 보장하는 것으로, 이는 개발 및 운영에 사용되는 사람, 프로세스, 기술(특히 플랫폼)을 통해 신뢰를 제공하는 것을 의미한다.
책임감 있는 AI는 곧 위험 관리
결국 RAI는 AI 및 머신러닝 모델을 개발하고 사용할 때 위험을 관리하는 관행이다. 여기에는 비즈니스 위험(성능 저하 또는 신뢰할 수 없는 모델 등), 법적 위험(규제 벌금, 고객사나 또는 직원 소송 등), 심지어 사회적 위험(차별이나 환경 피해 등)까지 관리해야 한다.
이러한 위험은 사람, 프로세스, 기술의 형태로 RAI 역량을 구축하는 다층적 전략을 통해 관리된다. 사람 측면에서는 RAI를 책임지는 리더(예: 최고 데이터 분석 책임자, 최고 AI 책임자, 데이터 과학 책임자, ML 부사장)의 역량을 강화하고 실무자와 사용자가 책임감 있게 AI를 개발, 관리, 사용할 수 있도록 교육해야 한다.
프로세스 측면에서는 데이터 액세스 및 모델 학습에서 모델 배포, 모니터링 및 재학습에 이르는 엔드투엔드 수명 주기를 관리하고 통제해야 한다. 기술 측면에서 특히 중요한 것은 측면에서 플랫폼은 대규모로 사람과 프로세스를 지원하고 활성화하는 플랫폼이다. 플랫폼은 설명 가능성, 편향성 감지, 편향성 완화, 공정성 평가, 드리프트 모니터링 등 RAI 방법에 대한 액세스를 민주화하고, AI 아티팩트 거버넌스, 계보 추적, 문서 자동화, 승인 워크플로 조율, 데이터 보안은 물론 RAI 프로세스를 간소화하는 수많은 기능을 제공한다.
제약, 금융 서비스, 보험 등 규제가 심한 산업의 고급 AI 팀이 이미 이러한 기능을 구축하여 가치 창출에 나서고 있다. 이들 선도 업체는 빠른 구현, 더 큰 채택, 더 나은 성능, 향상된 안정성 등의 이점을 통해 모든 AI, 특히 생성형 AI에 대한 신뢰를 대규모로 구축하고 있다. AI 규제 마련에 대비하여 AI 이니셔티브를 미래에 대비할 뿐 아니라 무엇보다도 모든 사용자를 더 안전하게 만드는 데에도 유용하다. 책임감 있는 AI는 대규모의 AI 가치를 실현하는 열쇠지만, 그러려면 먼저 잘못된 통념을 깨야 한다.