반응형
반응형

AI 시대의 기술 위축을 피하는 방법

 

최고의 미래 개발자는, 오늘날의 AI로 인해, 스스로 생각하는 법을 잊지 않은 사람이 될 것임

 

https://addyo.substack.com/p/avoiding-skill-atrophy-in-the-age

 

Avoiding Skill Atrophy in the Age of AI

How to use AI coding assistants without letting your hard-earned engineering skills wither away.

addyo.substack.com

  • AI 도구로 인한 생산성 증가는 개발자들의 핵심 기술 쇠퇴(skill atrophy) 위험을 초래함
  • AI를 과도하게 의존하면 비판적 사고 문제 해결 능력이 점점 약화됨
  • 디버깅, 아키텍처 설계, 기억력 등 중요한 기술이 점차 퇴화할 수 있음
  • AI를 도구로 삼되, 스스로 사고하고 학습하는 습관을 반드시 유지해야 함
  • AI와 협력하는 방식으로 사용하면, 생산성과 기술 숙련도를 모두 향상시킬 수 있음

AI 시대에 기술 쇠퇴를 피하는 방법

  • 코딩 분야에서 AI 도우미의 부상은 생산성 향상과 함께 기술 쇠퇴(skill atrophy) 위험을 초래함
    • 기술 쇠퇴는 사용 부족이나 연습 부재로 인해 시간이 지남에 따라 기술이 약화되는 현상을 의미함
  • 반복적 작업을 AI에 맡기는 것은 유익할 수 있지만, 과도하면 핵심 능력 상실로 이어질 수 있음
  • 인지적 오프로드(cognitive offloading) 현상으로 인해, 문서나 튜토리얼을 스스로 학습하는 대신 AI에 의존하는 경향이 강해짐
  • 예를 들어, GPS 사용이 길 찾기 능력을 약화시킨 것처럼, AI 자동완성과 코드 생성 기능이 사고력을 저하시킬 수 있음
  • AI가 보일러플레이트 코드를 처리해줌으로써 대규모 프로젝트에 도전할 수 있는 기회가 생겼지만, 자동화와 기술 쇠퇴 사이 경계 설정이 중요함

비판적 사고가 희생양이 되고 있는가?

  • Microsoft와 Carnegie Mellon 연구팀의 2025년 연구에 따르면, AI 의존도가 높을수록 비판적 사고 감소 현상이 발생함
  • AI에 대한 과신은 사람들이 스스로 사고하는 대신 자동 조종 상태로 전환하게 만듦
  • 쉬운 작업일수록 더욱 경계를 풀게 되고, 이로 인해 장기적인 독립 문제 해결 능력 감소가 초래됨
  • AI 도움을 받는 작업자는 동일 문제에 대해 덜 다양한 해결책을 제시하는 경향이 있으며, 이는 사고력 균질화로 이어짐
  • 연구진은 이를 비판적 사고의 저하로 정의함
  • 비판적 사고를 저해하는 장벽들
    • 인지적 장벽: 반복적인 작업일수록 AI에 과도하게 의존하는 경향
    • 동기적 장벽: 시간 압박이나 직무 범위 제약으로 깊은 사고를 회피하게 됨
    • 능력적 장벽: AI의 답변을 스스로 검증하거나 개선하는 데 어려움을 느낌
  • 한 엔지니어는 12년 경력에도 불구하고 AI의 즉각적 도움으로 인해 스스로를 더 못하는 개발자로 느끼게 되었음을 고백함
    • 문서 읽기 중단: LLM이 즉각 설명해주기 때문에 공식 문서를 읽을 필요성을 느끼지 않음
    • 디버깅 능력 감소: 스택 트레이스나 에러 메시지를 직접 분석하는 대신 AI에 복붙하여 해결하려 함
    • 깊이 있는 이해 상실: 문제를 진정으로 이해하려는 노력 없이 AI 제안만 반복 적용하게 됨
    • 감정적 반응 변화: 과거에는 버그를 해결하는 데서 얻던 기쁨이, 이제는 AI가 5분 안에 답을 못 주면 좌절로 바뀜
  • LLM에게 사고를 위탁하면서, 개발자는 장기적 숙련도를 잃고 단기적 편리성을 얻는 교환을 하게 됨"우리는 AI 덕분에 10배 개발자가 된 것이 아니라, AI에 10배 더 의존하게 된 것"
    "우리가 스스로 해결할 수 있는 문제 AI가 해결하도록 할 때마다, 우리는 장기적인 이해 단기적인 생산성으로 바꾸고 있음"

기술 쇠퇴의 미묘한 징후들

  • AI 의존이 단순한 가설이 아니라 실제로 개발 기술의 약화로 이어질 수 있음
  • 몇 가지 뚜렷한 징후를 통해 자신의 기술 쇠퇴 여부를 점검할 수 있음
  • 디버깅 포기 현상
    • 에러가 발생할 때 디버거를 사용하거나 스택 트레이스를 직접 읽지 않고, 바로 AI에 의존하는 경향
    • 과거에는 버그를 직접 분석하고 해결하면서 성장했지만, 이제는 그 과정을 AI에 전가하는 경우가 많아짐
    • AI가 해결하지 못하거나 사용할 수 없는 상황에서는, 기본적인 문제 진단조차 어려운 상태에 빠질 위험이 있음
  • 이해 없이 복붙하는 코딩
    • 보일러플레이트 코드를 AI가 작성하는 것은 괜찮지만,  그렇게 동작하는지 이해하지 못한 채 복사하여 사용하는 경우 문제 발생
    • 특히 젊은 개발자들은 AI 덕분에 빠르게 코드를 작성하지만, 그 선택의 이유나 예외 처리 방식을 설명하지 못하는 경우가 많음
    • 다양한 대안을 고민하는 과정이 사라지면서 기초적인 사고 훈련이 결여됨
  • 아키텍처 및 시스템적 사고력 약화
    • 복잡한 시스템 설계는 단일 프롬프트로 해결할 수 없음
    • 작은 문제를 AI로 해결하는 데 익숙해지면, 고차원적 설계 작업에 대한 두려움이나 회피가 생길 수 있음
    • AI는 특정 컴포넌트나 패턴을 제안할 수 있지만, 성능, 보안, 유지보수성 등 전체 맥락을 이해하는 것은 개발자 본인의 몫임
    • 시스템 수준 사고력을 사용하지 않으면 점차 약화됨
  • 기억력 및 회상력 감소
    • 자주 쓰는 API 호출이나 언어 문법조차 기억이 흐려질 수 있음
    • AI 자동완성 기능에 익숙해지면서, 스스로 코드를 작성하는 능력이 약화됨
    • 이는 수학 계산기를 지나치게 의존하는 학생처럼, 기본 계산 능력 상실에 비유할 수 있음
  • 시간이 흐름에 따라 일부 기술이 자연스럽게 사라지는 것은 정상적인 현상임
    • 예를 들어, 어셈블리어로 메모리를 직접 관리하거나, 손으로 긴 나눗셈을 하는 능력은 더 이상 필수적이지 않음
    • 하지만 어떤 기술은 유지해야 하고, 어떤 기술은 버려도 되는지 구분하는 것이 중요함
    • 긴급 상황에서 디버깅할 수 있는 능력은 여전히 필수 기술로 간주해야 함
    속도와 지식의 트레이드오프:
    AI는 빠른 답을 제공하지만 (높은 속도, 낮은 학습),
    전통적인 방법(Stack Overflow, 공식 문서)은 느리지만 깊은 이해를 구축해줌
  • 즉각적 답변을 좇다가, 진정한 전문가로 성장하는 데 필요한 맥락 이해와 깊이를 놓칠 위험이 있음

AI 과의존의 장기적 위험

  • AI 도구에 대한 과도한 의존이 통제되지 않을 경우, 경력상 비판적 사고 위기에 직면할 가능성이 있음
  • AI가 대부분의 사고 과정을 대신하게 되면, 도구가 실패하거나 해결하지 못하는 문제에 대해 스스로 대응할 능력을 잃게 됨"AI를 많이 쓸수록 뇌를 덜 쓰게 됩니다. 그러면 AI가 해결할 수 없는 문제에 부딪혔을 때, 당신은 스스로 해결할 수 있는 기술이 있을까요?"
  • 실제로 AI 코딩 도우미 장애로 개발자들의 워크플로우가 완전히 멈춘 사례도 발생함
  • 자기 실현적 예언(Self-Fulfilling Prophecy)
    • Microsoft 연구팀은 AI에 의한 직업 상실을 걱정하면서도 "무비판적(uncritically)으로 AI를 사용"할 경우, 스스로 경쟁력을 잃게 될 수 있음을 경고함
    • 특히 신입 개발자들은 "어려운 길"을 건너뛰고 빠른 생산성에만 집중하여, 심화 학습 없이 조기에 성장 정체에 빠질 위험이 있음
    • 결과적으로, 스스로 문제를 해결하는 기쁨이나 깊은 이해를 경험해보지 못한 버튼 누르는 인력(button-pushers) 집단이 생겨날 수 있음
    • 이들은 AI에게 질문하는 방법은 능숙할지 몰라도, 정답을 진정으로 이해하지 못하는 상황에 빠질 수 있음
    • AI가 사소하게 틀렸을 때 그 오류를 발견하지 못하고, 버그나 보안 취약점이 코드에 섞여 들어가는 문제도 발생할 수 있음
  • 팀 문화와 조직 역동성
    • 모든 개발자가 AI 도우미만 사용하게 되면, 멘토십 비공식적 학습(osmosis learning) 이 약화될 수 있음
    • 주니어 개발자들이 동료 대신 AI에 의존하면, 시니어 개발자들이 지식을 전수하기 어려워짐
    • 기초가 약한 주니어들이 많아질 경우, 시니어들은 AI가 만들어낸 오류를 고치는 데 시간을 소모하게 됨
    • 결국 팀은 개별 구성원이 AI에 의존하는 집합체로 전락할 수 있으며, 비판적 리뷰나 공동 품질 유지 문화가 사라질 수 있음
    • 버스 팩터(bus factor) 에 사실상 "AI 서비스 장애"도 포함이 가능함
      • "프로젝트가 무너지려면 몇 명이 버스에 치여야 할까?"
  • 아날로그 방식으로 돌아가자는 것이 아니라, AI를 신중하게 사용해야 한다는 경고
    • AI를 활용하면서도, 작업 그 자체뿐 아니라 사고력 자체까지 아웃소싱하지 않도록 주의해야 함
    • 목표는 AI의 혜택을 최대한 누리되, 동시에 자기 자신의 기술과 사고력을 견고히 유지하는 것

AI를 목발이 아닌 협력자로 사용하기

  • AI 코딩 도우미의 생산성 향상을 누리면서도, 사고력과 기술을 유지하기 위해서는 의식적인 사용 습관이 필요함
  • AI를 전능한 답변자가 아니라, 주니어 페어 프로그래머 러버덕 디버깅 파트너처럼 대해야 함
  • 다음은 고려해봐야할 구체적 실천 전략들
  • "AI hygiene(위생)" 실천 – 항상 검증하고 이해하기
    • AI의 결과물이 그럴듯해 보여도 무조건 신뢰하지 않고 검증하는 습관을 들여야 함
    • AI가 생성한 함수나 코드에 대해 의도적 테스트를 수행하고, 엣지 케이스를 찾아야 함
    • "왜 이 솔루션이 작동하는가?", "한계는 무엇인가?"를 스스로 질문함
    • AI에게 코드를 줄 단위로 설명하거나 대안 접근법을 요청해 학습에 활용함
    • AI의 답변을 심문하면 수동적인 답변을 능동적인 교훈으로 바꿀 수 있음
  • 기본기 훈련 – 때로는 고생도 필요함
    • 매주 일정 시간을 "AI 없는 코딩시간" 으로 설정하여 순수한 수작업으로 문제를 해결하는 시간 확보
    • 경험 많은 개발자들은 "No-AI Day" 를 지정하여 직접 코드 작성, 에러 분석, 문서 검색을 실천함
    • 초기에는 느리고 답답하지만, 시간이 지나면서 자신감과 깊이 있는 이해를 회복할 수 있음
    • AI 없이 꾸준히 코딩하면 기본 실력이 엔트로피로 떨어지는 것을 방지할 수 있음
    • 이는 개발자 두뇌를 위한 크로스 트레이닝과 같음
  • AI한테 묻기전에 문제에 스스로 먼저 도전하기
    • 문제를 접했을 때 곧바로 AI에 묻지 않고, 먼저 접근 방법을 고민
    • 최소한 의사 코드(pseudocode) 나 간단한 아이디어라도 스스로 세워본 후 AI를 활용함
    • 버그가 발생하면 최소 15~30분 정도는 스스로 디버깅해보는 시간을 갖기
    • 이러면 문제 해결 능력을 키울 수 있으며, AI 답변과 자신의 접근법을 비교하며 능동적으로 학습이 가능
  • AI를 사용하여 코드 검토를 대체하는 것이 아니라 증강하기
    • AI가 생성한 코드도 인간 동료가 작성한 것처럼 철저히 리뷰
    • 가능하다면 AI 코드에 대해 인간 코드 리뷰를 병행하여 팀 차원의 품질을 유지함
    • 이를 통해 팀 지식을 루프에 유지하고, AI를 신뢰할 때 단독 개발자가 놓칠 수 있는 문제를 포착함
    • 이는 "AI가 초안을 만들 수는 있지만, 우리가 코드를 소유한다"는 태도를 장려
    • 누가 작성했는지에 관계없이 팀이 저장소에 있는 모든 코드를 이해하고 유지관리 할 책임이 있음
  • 능동적 학습 – 후속 질문과 반복 학습
    • AI가 제시한 솔루션이 잘 작동해도, 그 자리에서 학습을 강화하는 시간을 가짐
    • 복잡한 정규 표현식이나 알고리듬을 AI로 작성한 경우, 그 구조를 스스로 설명하거나, AI에 왜 이 방법을 썼는지 질문
    • AI를 단순 답변 제공자가 아니라, 무한 인내심을 가진 튜터처럼 대화형으로 활용함
      • ChatGPT가 생성한 코드에 대해 "왜 이 방법은 안 돼?" 라고 묻기
    • 이렇게 하면 AI는 단순한 코드 배포자가 아닌 멘토가 됨
  • 학습 일지 및 "AI 어시스트" 목록을 기록하기
    • AI에 반복적으로 묻는 주제를 기록하여 지식 공백을 파악함
    • 예를 들어, CSS에서 div 정렬이나 SQL 쿼리 최적화를 반복해서 묻는다면, 해당 주제를 집중 학습함
    • 플래시카드나 짧은 연습 문제를 만들어 반복 학습하여 장기 기억으로 전환함
    • 다음에 비슷한 문제에 직면하게 되면 AI 없이 문제를 풀어보고 그 방법을 기억하는지 확인해 볼 것
    • AI를 첫 번째 해결책이 아닌, 마지막 안전망으로 사용하는 태도를 유지함
  • AI와 페어 프로그래밍하기
    • AI를 질문 처리 API처럼 대하는 대신, 페어 프로그래밍 파트너처럼 대화함
    • 예를 들어, 내가 함수 초안을 작성하고 AI에게 개선점을 제안받거나, 반대로 AI가 초안을 작성하면 내가 수정함
    • 대화 예시: "이 함수는 작동하는데, 더 명확하게 리팩토링할 방법이 있을까?"
    • 이렇게 하면 당신이 운전석에 앉아있게 함. 단순히 답변을 소비하는게 아니라, AI가 기여할 수 있도록 큐레이션하고 지시
    • AI를 감독이 필요한 주니어 개발자로 취급하고, 최종 책임자는 인간 개발자임을 명확히 함
  • 이런 습관을 통해 AI 사용은 순수한 이득이 되며, 스스로의 능력도 잃지 않게 됨
  • 실제로 AI를 활용하여 생소한 코드를 설명하거나, 복잡한 케이스로 AI를 시험하는 과정은 개인 기술 향상에도 매우 유익함
  • 예를 들어, AI를 사용하여 익숙하지 않은 코드를 설명하면 지식을 심화할 수 있고, 까다로운 사례로 AI를 당황하게 만들면 테스트 사고방식을 향상시킬 수 있음
  • 핵심은 수동적 소비자가 아니라 능동적 사용자로 남는 것임

결론: 날카로움을 유지하기

  • 소프트웨어 산업은 AI 기반 코드 생성의 시대를 향해 가속 중이며, 이제 되돌릴 수 없는 흐름이 됨
  • 이러한 도구를 받아들이는 것은 불가피할 뿐만 아니라, 대체로 이득이 되는 일
  • 그러나 AI를 워크플로우에 통합하면서, 각자 기계에게 양보할 것과 스스로 유지해야 할 것 사이에서 신중한 선택이 필요함
  • 코딩을 사랑한다면, 단순히 빠르게 기능을 출시하는 것뿐 아니라, 문제를 해결하는 장인정신과 즐거움도 유지해야 함
  • AI를 능력 증폭기(amplifier) 로 활용하되, 대체자(replacement) 로 만들지 말아야 함
  • AI가 반복 작업을 대신할 수 있도록 하고, 그 freed-up 시간을 창의적이고 복잡한 작업에 투자함
  • 그러나 기초 기술이 퇴화하지 않도록 주의해야 하며, 항상 "어떻게"와 "왜"를 탐구하는 호기심을 유지해야 함
  • 디버깅 본능 시스템 사고력을 계속 갈고닦아야 하며, AI가 제시하는 지름길만 탐색해서는 안 됨
  • "간단히 말해서, AI를 당신의 목발이 아닌 협력자로 삼을 것"
  • 성공하는 개발자는 인간적 직관과 경험을 AI의 초능력과 조화롭게 결합할 줄 아는 사람일 것임
    • autopilot이 있거나/없거나 상관없이 코드베이스를 탐색할 줄 아는
  • 자기주도적 연습과 도전을 통해, fancy한 도구가 실패하거나 새로운 문제에 직면해도 스스로 문제를 해결할 수 있어야 함
  • "AI가 당신을 대체할까봐 걱정하지 말고, 당신을 대체 불가능하게 만드는 기술을 키우지 않는 것에 대해 걱정할 것"
  • "AI가 제공하는 답변을, 엔지니어의 마음으로 이해해야 한다"는 원칙을 항상 지키면, AI 열풍에 타면서도 쓸려가지 않을 것
  • 보너스
    • 다음에 AI가 기능 전체를 코딩해줄 때 유혹을 느낀다면, 스스로 직접 일부를 작성해보라는 신호로 받아들여야 함
    • 놀랍게도 많은 것을 기억하고 있고, 다시 직접 손으로 코딩하는 기쁨을 느낄 수 있음
    • AI를 생산성 향상의 도구로 삼되, 능동적으로 기술을 연마하는 습관을 절대 멈추지 말아야 함

최고의 미래 개발자는, 오늘날의 AI로 인해, 스스로 생각하는 법을 잊지 않은 사람이 될 것임

반응형
반응형

인공지능이
인간을 넘어설지에 대하여
많은 논의가 진행되고 있습니다.
인공지능은 데이터를 바탕으로 지식을 추출하고
미래를 예측합니다. 반면에 인간은 창의적인 사고로
인류가 경험하지 못한 상황에서도 적절한 판단이 가능할
것입니다. 이러한 면에서 인공지능은 인간을 넘어서기
어려워 보입니다. 단, 데이터는 감정이 없습니다. 모든
상황에서 객관적인 평가를 할 수 있습니다. 반대로
인간은 감정에 치우치며 종종 일을 그르치곤
합니다. 인공지능과 공존하기 위해서
인간에게 필요한 것이 무엇인지
생각하게 됩니다.


- 김용대의 《데이터 과학자의 사고법》 중에서 -


* 시대가 변하고 있습니다.
이전과는 전혀 다른 세상이 열리고 있습니다.
인류가 경험하지 못했던, 한 번도 걸어보지 않은 길을
가고 있습니다. 인공지능이 사람 일을 대신하고 있고,
모든 것은 데이터로 남아 스스로 공부하며 진화하고
있습니다. 그러나 인공지능에는 온기가 없습니다.
사랑과 감사, 따뜻한 감성, 영적 정서적 교감이
없습니다. 인공지능은 인간이 사용하는
도구일 뿐 사람은 사람과
더불어야 삽니다.

반응형

'아침편지' 카테고리의 다른 글

파종과 추수, 거대한 순환에 대하여  (0) 2024.10.16
저체온 여성이 늘고 있다  (1) 2024.10.15
뭇매  (0) 2024.10.12
서점 문화운동  (0) 2024.10.11
거짓이 난무하는 세상  (0) 2024.10.10
반응형

고대 유목 민족의 아이들은
말타기, 활쏘기, 씨름과 같은 놀이를 통해
기마 민족으로서의 정체성을 쌓아나갔다.
2,000년 전 중국 북방을 호령했던 흉노족의
아이들은 어려서부터 작은 동물을 사냥하는
놀이를 하며 기마술을 익혔다. 걷기도 전부터
기마 놀이를 하며 말 타는 법을 익힌 셈이다.
그 결과, 그들의 넓적다리는 기마 자세를
하기에 편하도록 변형되기도 했다.


- 강인욱의 《세상 모든 것의 기원》 중에서 -


* 유목민들 아이들에게
말타기는 생활이자 놀이입니다.
어려서부터 사냥과 기마놀이를 하면서
말타기를 익히고, 그 기마술로 세계를 제패하는
꿈을 꿈고 이루었습니다. 우리에게도 유목 민족의
피가 흐르고 있습니다. 오늘날의 기마놀이는
말타기가 아닙니다. 컴퓨터, 인터넷, 디지털,
AI(인공지능), 블록체인, 메타버스입니다.
우리 아이들의 미래가 여기에
걸려 있습니다.

반응형

'아침편지' 카테고리의 다른 글

슬프면 노래하고 기뻐도 노래하고  (0) 2023.11.14
가을 들판  (0) 2023.11.13
낮은 자세와 겸손을 배우라  (0) 2023.11.10
위대한 인생 승리자  (0) 2023.11.09
청년은 '허리'다  (0) 2023.11.08
반응형

생산성 혁명이란 기술 혁신과 제도 개선을 통해 경제 생산성이 급격히 증대하는 현상을 가리키는데요. 예를 들어 18세기 후반의 산업혁명, 1920~1970년대의 포드주의, 1990년대 IT 혁명 등이 대표적입니다.

 

한 몇 년 간 우리는 4차산업 혁명이라는 용어를 즐겨썼습니다. 4차 산업혁명이란 초연결성(Hyper-connectivity)과 초인텔리전스(Super-intelligence) 테크를 기반으로 생산성을 극대화하는 혁명을 가리킵니다. 주요 특징은?

 

4차산업의 주요 특징들

 

  • 디지털 기술: 사물인터넷(IoT) 빅데이터 인공지능과 같은 디지털 기술이 융합하고 발전한다.
  • 메타버스: 사이버 물리 시스템(CPS)이 등장하면서 물리적 세계와 디지털 세계가 혼합이된다.
  • 플랫폼: 플랫폼을 토대로 한 새로운 비즈니스 모델이 창출된다.
  • 탄력적 공급망: 종전 공급망과 가치사슬이 붕괴되고, 이런 기술이 새로운 질서를 창출한다.
  • 산업간 경계의 붕괴: 현존하는 산업 경계가 붕괴되고, 수평적인 협력 체제가 확산된다.
  • 인간 능력 향상: 이러한 기술을 토대로 인간은 보다 새롭고 창의적 활동을 시작한다.

 

생성형 인공지능은 이러한 4차 산업혁명을 배가 시키고 있습니다. 얼마전 컨설팅업체인 맥킨지에서 발간한 보고서를 잠시 살펴볼게요. 맥킨지는 “은행과 소매업이 생성형 인공지능의 가장 큰 혜택을 가장 먼저 누릴 수 있는 비즈니스 부문”이라고 치켜세웠습니다. 왜냐고요?

 

“인공지능으로 인한 생산성 향상의 75%는 고객 운영, 마케팅과 영업, 소프트웨어 엔지니어링, R&D 등 단 4개의 비즈니스 기능에서 발생할 것으로 예상됩니다.”

 

네 맞습니다. 이런 교집합 부분에 있는 곳이 바로 은행과 리테일이라는 메시지인데요. 인간 두뇌 시냅스에 해당하는 파라미터가 수십 수백억개에 달하는 초거대인공지능이 부상한 이후, 이제는 이를 활용해 서비스를 제공하려는 스타트업이 늘고 있습니다. 그래서 팀 미라클레터처럼 인공지능을 모르는 팀들도? 인공지능을 마치 사무용품인 줄자나 커터 칼처럼 쓸 수 있게 된 것이죠.

 

하지만 다른게 있습니다. 인공지능 생산성 혁명은 급여와 교육 수준이 높은 근로자에 타격을 준다는 점인데요. 맥킨지는 2100개에 달하는 업무 영역을 쭉 펼쳐놓고 이 가운데 63개 사례를 연구했다고 해요. 그랬더니 무려 3분의2가 향후 20년 이내에 자동화 될 것으로 내다봤습니다. 예를 들어 제품 초안을 디자인하고, 서비스 초안을 작성하며, 이를 놓고 수많은 테스트를 하는 업무는 인공지능 몫!

반응형
반응형

EU·미국, 공동으로 AI 행동지침 만든다 "AI 법 제정까지의 공백 메울 것"

원문보기:
https://www.ciokorea.com/news/293173#csidx0de5b3cf12c17e2a3e1f76861767c7f 

 

AI가 불러올 위협을 두고 전 세계 IT 산업과 정치권의 논의가 계속되는 가운데, EU와 미국이 AI 행동 지침을 마련하기로 결정했다. 

유럽과 미국 모두 사법 부문에서 AI를 규제하는 공식 법안은 아직 마련 중이고, 그나마도 확정과 적용까지 수 년이 걸릴 수도 있다. 그에 비해 AI 행동 지침은 아직 안에 지나지 않으나 발의까지 몇 주가 채 걸리지 않고, 정식 입법까지의 공백을 메울 수 있다.
 

ⓒ Getty Images Bank
현재 유럽연합 집행위원회는 AI가 인권이나 안전에 위협이 될 경우 사용을 금지하고, 위험 수준에 따라 인공지능 사용 규정의 제한 수준을 조절하는 AI 법 초안을 공개한 상태다. 예를 들어 일반 고객과 챗봇의 상호작용은 위험 수준이 낮게 분류된다.

유럽의회 의원들은 법안 문구에 원칙적인 동의를 표했으나 유럽의회 표결 여부는 6월에 결정될 예정이다. 조 바이든 미국 대통령과 해리스 부통령은 최근 AI 기업 임원진을 만나 AI 기술 위험 가능성을 논의하면서 AI 규제 프레임워크를 논의하고 있다.

5월에는 미국 상원 위원회 두 곳이 오픈AI CEO 샘 알트먼, IBM 임원 크리스티나 몽고메리, 뉴욕대학교 명예교수 게리 마커스 등 업계 전문가를 만나기도 했다.
 

인공지능 책임론 대두

지난 5월 30일 수백명의 IT 업계와 학계 종사자 및 공적 인물들이 AI 기술의 진보로 결국 인류가 멸종할 것이라고 경고하는 공개 서한에 연명하면서 전 세계 최우선 과제로 인공지능 통제를 꼽았다.

다음날 스웨덴에서 개최된 EU-미국 무역기술위원회(TTC) 회의에서 유럽위원회 부위원장 마르그레테 베스타게르는 "책임감 있는 인공지능이 필요하다. 생성형 AI는 완전히 판도를 바꾸는 요소"라고 말했다.

유럽연합의 경쟁과 디지털 전략 책임자인 베스타게르 부위원장은 미국과 유럽이 논의 중인 행동 지침이 절대적으로 시급한 문제라며, 가능한 많은 지역을 관할할 수 있도록 다른 전 세계 파트너의 동참을 독려해야 한다고 말했다.

베스타게르는 행동 지침을 홍보하기 위해 업계 관계자의 피드백을 얻고 가입을 권유할 것이라며 "업계가 자발적으로 참여할 수 있는 최종안이 곧 발표될 것"이라고 말했다.

무역기술위원회는 2021년에 미국과 EU간 기술과 무역 정책을 조율하기 위해 만들어졌다. 이 협의체는 기술 표준, 데이터 거버넌스, 기술 플랫폼, 보안과 인권을 위협하는 기술 오남용 등 특정 정책에 집중하는 10개의 실무 그룹으로 이루어져 있다.

한편, 지난달 오픈AI CEO 샘 알트먼은 EU의 AI 법이 과도한 규제라며 우려를 표명하고, EU의 AI 법이 현안대로 통과되면 유럽 내 사업을 중단해야 할 수도 있다고 발언해 유럽의회 의원을 비롯한 일부의 반감을 샀다. 결국 알트먼은 입장을 뒤집어 오픈AI는 유럽을 떠날 계획이 없다는 트윗을 올렸다.

반응형
반응형

순다르 피차이 구글 최고경영자(CEO)가 10일(현지시간) 미국 캘리포니아주 마운틴뷰 쇼어라인 엠피씨어터에서 열린 '구글 연례 개발자 회의(I/O)'에서 연설을 하고 있다. 연합뉴스

구글이 사람처럼 묻고 답하는 인공지능(AI) 챗봇 '바드'(Bard)를 미국과 한국 등 전세계 180개국에서 전면 공개했다. 이에 따라 지난해 11월 출시된 오픈AI의 챗GPT와 본격적인 경쟁이 전개될 전망이다.

순다르 피차이 구글 최고경영자(CE)는 10일(현지시간) 미국 캘리포니아주 마운틴뷰 쇼어라인 엠피씨어터에서 개최한 '구글 연례 개발자 회의(I/O)'에서 "오늘부터 바드 이용을 위한 대기자 명단 운영을 종료한다"고 밝혔다. 바드 전면 공개는 지난 3월 출시한 지 한 달 반 만이다.

바드에는 구글의 최신 대규모 언어 모델(LLM) 팜2(PaLM)가 탑재됐다. 팜2는 지난해 4월 선보인 팜의 업그레이드 버전으로, 100개 이상의 언어를 지원한다. 5300억개의 파라미터(매개변수)를 바탕으로 과학·수학에 대한 추론뿐 아니라 코딩 작업도 한다고 구글은 설명했다.

그동안 영문만 지원해온 바드는 이날부터 한국어와 일본어 지원하기 시작했다. 바드의 두 번째 지원 언어가 한국어인 것이다. 구글은 조만간 40개의 언어로 서비스를 지원할 예정이라고 밝혔다.

 

바드의 질문과 답변에는 시각적인 요소도 추가됐다. 이에 따라 이용자 질문에 이미지를 제시해 답할 수 있다. 바드에는 시각 분석을 통해 관련 정보를 가져올 수 있도록 구글 렌즈(Google Lens)가 결합된다.

눈의 피로를 줄이기 위해 다크모드(어두운 화면에 흰 글자) 기능이 적용됐다. 다음 주부터는 답의 출처 표기 기능도 추가된다. 바드 답변은 바로 구글 G메일과 문서로도 내보낼 수 있다.

바드가 내놓을 오답을 의식한 듯 피차이 CEO는 "현재 사용되는 대규모 언어 모델들은 아직 한계가 있는 초기 기술"이라며 "앞으로 관련 서비스를 확장해 나가면서 품질을 중시하고 엄격한 기준을 유지하며 AI 원칙을 준수해 나갈 것"이라고 말했다.  https://www.joongang.co.kr/article/25161607 

 

https://bard.google.com/

 

Bard

Bard is your creative and helpful collaborator to supercharge your imagination, boost productivity, and bring ideas to life.

bard.google.com

 

반응형

+ Recent posts