반응형
반응형

**"Hallucination" (환각)** 할루시네이션 은  인공지능, 특히 대규모 언어 모델(Large Language Model, LLM)과 같은 생성형 AI 분야에서 사용되는 중요한 용어입니다.

Hallucination은 LLM이 사실과 다르거나, 논리적으로 불가능하거나, 학습 데이터에 존재하지 않는 정보를 마치 사실인 것처럼 자신 있게 생성하는 현상을 의미합니다. 쉽게 말해, AI가 '없는 것을 지어내는 것' 또는 **'거짓말을 하는 것'**과 같습니다.

왜 Hallucination이 발생할까요?

LLM은 방대한 양의 텍스트 데이터를 학습하여 단어와 문장 사이의 통계적 패턴과 관계를 배웁니다. 이를 통해 다음 올 단어를 예측하고 문장을 생성합니다. Hallucination이 발생하는 주요 이유는 다음과 같습니다.

  1. 패턴 학습의 한계:
    • LLM은 '세상에 대한 이해'를 하는 것이 아니라, '단어 시퀀스의 통계적 패턴'을 학습합니다. 따라서 특정 질문에 대해 학습 데이터에서 유사한 패턴을 찾지 못하거나, 불완전한 패턴을 발견했을 때, 가장 그럴듯한(통계적으로 유사한) 단어 시퀀스를 조합하여 생성하게 됩니다. 이 과정에서 사실과 동떨어진 내용이 나올 수 있습니다.
  2. 데이터 부족 또는 편향:
    • 특정 주제에 대한 학습 데이터가 부족하거나, 데이터 자체가 편향되어 있다면, 모델은 부정확하거나 존재하지 않는 정보를 생성할 가능성이 높아집니다.
  3. 최신 정보 부족:
    • LLM은 학습 데이터가 업데이트된 시점 이후의 최신 정보를 알지 못합니다. 따라서 최신 사건이나 사실에 대해 질문을 받으면, 과거 데이터를 기반으로 그럴듯하지만 틀린 답변을 생성할 수 있습니다.
  4. 불분명하거나 모호한 프롬프트:
    • 사용자의 질문(프롬프트)이 너무 추상적이거나 모호할 경우, LLM은 질문의 의도를 정확히 파악하기 어렵고, 이로 인해 잘못된 방향으로 정보를 생성할 수 있습니다.
  5. 과도한 일반화:
    • 모델이 학습 과정에서 본 일부 패턴을 과도하게 일반화하여, 실제로는 적용되지 않는 상황에 잘못된 정보를 생성할 수 있습니다.

Hallucination의 문제점

  • 신뢰성 저하: AI가 사실과 다른 정보를 생성하면 사용자는 AI의 답변을 신뢰하기 어렵게 됩니다.
  • 잘못된 의사결정: AI의 잘못된 정보를 기반으로 중요한 결정을 내릴 경우 심각한 결과를 초래할 수 있습니다.
  • 확인 노력 증가: 사용자는 AI가 생성한 모든 정보를 일일이 사실인지 확인해야 하는 추가적인 부담을 안게 됩니다.

Hallucination을 줄이는 방법

Hallucination을 완전히 없애는 것은 현재 LLM 기술의 큰 과제이지만, 다음과 같은 방법들로 그 발생 빈도와 심각도를 줄일 수 있습니다.

  • RAG (Retrieval-Augmented Generation): 외부의 신뢰할 수 있는 최신 정보를 검색하여 LLM에 제공함으로써 LLM이 '참조할 자료'를 기반으로 답변을 생성하게 합니다. (위에서 설명한 내용입니다!)
  • 정확한 프롬프트 엔지니어링: 질문을 명확하고 구체적으로 작성하여 LLM이 정확한 의도를 파악하도록 돕습니다.
  • 모델 재학습(Fine-tuning) 및 업데이트: LLM을 최신 데이터로 주기적으로 재학습시키거나, 특정 도메인에 특화된 데이터로 파인튜닝하여 해당 분야의 정확도를 높입니다.
  • 불확실성 표시: LLM이 자신이 생성한 정보에 대해 얼마나 확신하는지를 사용자에게 알려주어, 불확실한 정보는 사용자가 한 번 더 확인할 수 있도록 유도합니다.
  • 인간 개입 및 검증: 중요한 의사결정이나 민감한 정보의 경우, AI의 답변을 사람이 최종적으로 검증하고 수정하는 단계를 거칩니다.

Hallucination은 LLM을 실생활에 적용할 때 가장 주의해야 할 부분 중 하나이며, RAG와 같은 기술의 발전으로 그 영향력을 줄이려는 노력이 계속되고 있습니다.

 

 

반응형
반응형

RAG (검색 증강 생성) 설명

**RAG (Retrieval-Augmented Generation)**는 **"검색 증강 생성"**의 줄임말이에요. 대규모 언어 모델(LLM)의 한계를 보완하고 성능을 높이기 위한 강력한 기술이죠.


왜 RAG가 필요할까요?

ChatGPT 같은 LLM은 엄청난 양의 데이터로 학습되어 유창한 글을 잘 만들어요. 하지만 몇 가지 아쉬운 점이 있습니다.

  • 환각(Hallucination): LLM이 학습하지 않은 정보나 잘못된 내용을 마치 사실인 양 지어낼 수 있어요.
  • 정보의 최신성 부족: LLM은 특정 시점까지의 데이터로 학습되므로, 그 이후의 최신 정보는 알지 못합니다.
  • 특정 도메인 지식 부족: 일반적인 지식은 풍부하지만, 특정 기업의 내부 문서나 전문 분야 논문 같은 깊이 있는 지식은 부족할 수 있어요.
  • 투명성 부족: 왜 그런 답변을 생성했는지 그 근거를 제시하기 어렵습니다.

이런 문제들을 해결하기 위해 RAG가 등장했습니다.


RAG는 어떻게 작동할까요?

RAG는 질문에 답변을 만들기 전에, 외부에서 관련성 높은 정보를 검색(Retrieval)해서 가져온 뒤, 이 정보를 바탕으로 답변을 생성(Generation)하는 방식이에요. 쉽게 말해, LLM에게 "답변하기 전에 관련 자료를 찾아보고 대답해줘"라고 시키는 것과 같죠.

RAG의 핵심 과정은 다음과 같습니다.

  1. 질문 입력: 사용자가 질문을 입력합니다.
  2. 관련 문서 검색:
    • 질문을 분석하고 핵심 키워드나 의도를 파악해요.
    • 미리 구축해 둔 외부 지식 베이스 (데이터베이스, 문서 저장소, 웹 등)에서 질문과 가장 관련 깊은 **문서 조각(Chunk)**들을 찾아냅니다. 이때 벡터 데이터베이스 같은 기술이 사용되어 질문과 문서의 의미적 유사성을 기반으로 효율적인 검색이 이루어져요.
  3. 정보 증강 및 프롬프트 구성:
    • 검색된 관련 문서 조각들을 LLM에게 전달할 **프롬프트(Prompt)**에 추가합니다.
    • 보통 "다음 문서들을 참고하여 질문에 답변해 줘: [검색된 문서들 내용] 질문: [원래 질문]"과 같은 형식으로 프롬프트를 만들어요.
  4. 답변 생성:
    • 증강된 프롬프트(질문 + 관련 문서)를 LLM에 전달합니다.
    • LLM은 이제 자신의 학습 데이터만으로 답변하는 게 아니라, 제공된 최신 또는 특정 도메인의 정보를 참고하여 더 정확하고 근거 있는 답변을 생성해요.
  5. 답변 출력: LLM이 만든 답변을 사용자에게 보여줍니다.

RAG의 장점

  • 정확성 향상: 최신 정보나 특정 도메인 지식을 참조하여 잘못된 정보를 줄이고 답변의 정확도를 높여요.
  • 최신 정보 반영: LLM을 다시 학습(fine-tuning)할 필요 없이, 외부 데이터만 업데이트하면 실시간으로 최신 정보를 반영할 수 있어 비용 효율적입니다.
  • 투명성 및 신뢰성: 답변의 근거가 된 원본 문서를 함께 제시함으로써 답변에 대한 신뢰도를 높일 수 있어요.
  • 비용 효율성: LLM 자체를 재학습시키는 것보다 훨씬 적은 비용과 시간으로 모델의 지식을 확장할 수 있습니다.
  • 유연성: 다양한 외부 지식 베이스(데이터베이스, 문서, 웹 등)와 연결하여 사용할 수 있어요.

RAG의 활용 사례

  • 기업 내부 지식 챗봇: 회사의 내부 문서나 규정을 기반으로 직원들의 질문에 정확히 답변합니다.
  • 고객 서비스 챗봇: 기업의 최신 제품 정보나 FAQ를 기반으로 고객 문의에 응대해요.
  • 법률 및 의료 정보 시스템: 최신 법률이나 의학 논문 등을 참고하여 전문적인 질문에 답변합니다.
  • 개인화된 학습 도구: 특정 학습 자료를 기반으로 학생들의 질문에 맞춤형 답변을 제공해요.
  • 실시간 데이터 분석: 실시간으로 업데이트되는 데이터를 참조하여 질문에 대한 답변을 생성합니다.

RAG는 LLM의 한계를 극복하고 실제 환경에서 더욱 유용하게 쓰일 수 있도록 돕는 핵심 기술로 자리매김하고 있어요. 질문의 맥락과 외부 데이터를 함께 고려하여 더 스마트하고 신뢰할 수 있는 답변을 제공하는 것이 RAG의 궁극적인 목표라고 할 수 있습니다.

반응형
반응형

[AI] 에인전틱(AgenticAI)와 생성형 AI(Generative AI)

 

Agentic AI와 Generative AI는 최근 AI 분야에서 중요한 개념이므로, 두 기술을 비교하여 설명해 드릴 수 있습니다.

1. 생성형 AI (Generative AI)

  • 정의: 기존 데이터로부터 학습하여 텍스트, 이미지, 오디오, 비디오 등 새로운 콘텐츠를 생성하는 AI 기술입니다.
  • 특징:
    • 학습된 데이터의 패턴과 구조를 모방하여 창의적인 결과물을 생성할 수 있습니다.
    • 다양한 분야에서 활용될 수 있습니다. (예: 글쓰기, 그림 그리기, 음악 작곡, 코드 생성 등)
    • 대표적인 모델로는 GPT (텍스트 생성), DALL-E (이미지 생성), Stable Diffusion (이미지 생성) 등이 있습니다.
  • 예시:
    • 사용자의 질문에 맞춰 자연스러운 문장으로 답변하는 챗봇
    • 텍스트 설명을 기반으로 이미지를 생성하는 이미지 생성 모델
    • 사용자가 원하는 스타일의 음악을 작곡하는 음악 생성 모델

2. 에이전틱 AI (Agentic AI)

  • 정의: 스스로 계획을 세우고, 필요한 도구를 활용하여 목표를 달성하는 AI 시스템입니다. 여기서 "에이전트"는 환경을 인식하고 자율적으로 행동하는 주체를 의미합니다.
  • 특징:
    • 복잡한 작업을 여러 단계로 나누어 순차적으로 처리할 수 있습니다.
    • 외부 환경과 상호작용하며, 필요한 정보를 검색하고, API를 호출하는 등 다양한 도구를 활용합니다.
    • 장기적인 목표를 설정하고, 그 목표를 달성하기 위한 전략을 수립할 수 있습니다.
  • 예시:
    • 사용자의 요청에 따라 여행 일정을 계획하고 예약하는 여행 에이전트
    • 주식 시장의 데이터를 분석하여 투자 결정을 내리는 투자 에이전트
    • 소셜 미디어에서 사용자의 관심사를 파악하여 맞춤형 콘텐츠를 추천하는 추천 에이전트

비교 요약:

  • 생성형 AI는 새로운 콘텐츠를 생성하는 데 초점을 맞추는 반면, 에이전틱 AI는 자율적으로 목표를 달성하는 데 초점을 맞춥니다.
  • 생성형 AI는 주어진 입력에 따라 결과물을 생성하지만, 에이전틱 AI는 스스로 계획을 세우고 실행합니다.
  • 생성형 AI는 특정 작업에 특화되어 있는 경우가 많지만, 에이전틱 AI는 다양한 도구를 활용하여 복잡한 작업을 수행할 수 있습니다.

두 기술은 상호 보완적으로 사용될 수 있습니다. 예를 들어, 에이전틱 AI가 생성형 AI를 활용하여 특정 작업을 수행하는 시나리오도 가능합니다.

반응형
반응형
T자형 인재는 살고
I자형 인재는 죽는다
 
이러한 AI 네이티브 컴퍼니의 등장은 인재상에 큰 변화를 일으키고 있습니다. 현장 지식인 도메인 놀리지 뿐 아니라 AI 활용 능력과 이를 기반으로 한 빠른 판단 능력 역시 중요해 질수밖에 없는 것인데요. 많은 기업들이 베테랑 직원들이 갖고 있는 역량을 AI로 학습시켜 이를 전사에 배포할 가능성이 크기 때문입니다. 즉 직원들의 일반 능력이 평준화 되는 추세입니다.

T자형 인재가 뜰 것이다

하지만 AI한테는 문제가 있습니다. AI는 정답이 있는 문제를 푸는 데 탁월하지만, 현실의 일터에는 정답이 없는 문제가 훨씬 많다는 점입니다. 예를 들어 복잡한 의사결정, 예외 상황 대응, 이해관계 조율은 여전히 사람이 할 수밖에 없기 때문입니다.

때문에 미래 인재상은 T자형 인재(T-shaped Talent) 입니다. T자형 인재란 세로 줄에는 전문성을, 가로줄에는 융합력을 가진 인재를 가리킵니다. 예를 들어 한 분야(마케팅, 서비스 운영, 재무 등)에 깊이 있는 전문지식과 실무 경험을 보유하면서도, 다른 영역(데이터 분석, 기술 이해, 협업 커뮤니케이션 등)에 대한 폭넓은 이해력과 협업 능력을 갖춘 사람입니다.

MBA에 공학까지 섭렵

T자형 인재를 중시하는 기업으로는 JP모건이 있습니다. JP모건은 데이터 사이언스 역량과 금융 이해를 동시에 갖춘 ‘하이브리드 인재’를 핵심 인재상으로 제시했는데요. AI가 만든 분석 결과를 고객 맞춤 전략으로 바꾸는 가교 역할을 수행하는 인재를 가리킵니다. 실제로 JP모건은 작년부터 MBA와 STEM(과학·기술·공학·수학) 수학을 병행한 인력을 우선적으로 채용하고 있습니다.

또 AI한테 없는 창의성(Creativity), 감정(Emotion), 그리고 신뢰(Trust)는 더 중요해 집니다. PwC 보고서에 따르면, 고객이 제품·서비스를 선택할 때 ‘신뢰와 경험’을 중시하는 비중이 73%에 달했습니다. AI가 수치와 데이터를 기반으로 제안은 할 수 있어도, 고객과 관계를 쌓고 기대를 뛰어넘는 방식으로 문제를 해결하는 능력은 여전히 사람의 영역입니다.

I자형 인재는 사라진다

반면 단순히 패턴화된 직무는 빠르게 사라지고 있습니다. 반복적인 입력, 단순 응대, 정형화된 분석 등은 AI가 더 정확하고 빠르게 처리하기 때문입니다. 예를 들어 미국 내 500개 이상의 콜센터가 AI 챗봇을 도입했고, 이 가운데 절반 이상이 연간 20% 이상의 인건비를 감축했습니다. 한 가지 역량만 갖춘 I자형 인재는 AI에 의해 대체될 가능성이 높은데요. 이는 직무 난도나 직종을 가리지 않습니다.

로펌 업계에서는 계약서 검토, 판례 검색, 증거 정리 등 고부가가치 법률 업무의 상당 부분을 AI 도구가 대체하고 있습니다. 준법지원팀과 신입 변호사 수요가 감소하고 있는 것인데요. 가트너는 2026년까지 대형 로펌에서 신입 변호사 업무의 약 50%가 AI에 의해 처리될 것으로 예측하고 있습니다.

우리에게 진정 필요한 것

AI는 또 다른 일자리도 창출하고 있습니다. 세일즈포스에 따르면, 가장 빠르게 성장 중인 직군 중 하나는 AI 운영 관리자와 AI를 교육하는 디지털 트레이너입니다. 이들은 기술의 언어와 사람의 언어를 동시에 이해하고, AI와 인간 사이에서 조율자 역할을 수행합니다. 직장인이 고민해야할 대목이 바로 여기에 있습니다.

따라서 미래에 ‘내 일이 남아 있느냐’가 아니라, ‘내 역할을 어떻게 재정의하느냐’에 집중해야합니다. 앞으로 10년은 단순히 버티는 사람의 시대가 아닙니다. 미래는 직무가 AI에 무너지더라도 다시 쌓을 줄 아는 사람의 몫이라고 생각합니다.
 
반응형
반응형

AI(인공지능)는 광범위한
윤리적, 사회적 질문과 도전을 제기한다.
AI의 의사결정 과정의 투명성, 프라이버시 보호,
직업 시장에서의 변화, AI 시스템의 공정성과 편향 문제 등은
과거의 기술에서는 고려되지 않았던 새로운 차원의 고민을
가져온다. 과거 기술은 작동 원리와 결과가 상대적으로
예측 가능하고 이해하기 쉬웠다. 반면 AI, 특히 심층학습과
같은 고급 기술은 내부 작동 메커니즘이 복잡해 때때로
블랙박스로 여겨진다. 이는 AI 시스템의 결정과 행동을
예측하고 이해하는 것을 어렵게 만들며,
윤리적, 법적 책임의 문제를
복잡하게 한다.


- 변형균의 《통찰하는 기계 질문하는 리더》 중에서 -


* AI 기술은
빛의 속도로 진화하고 있습니다.
챗GPT를 이용해 본 사람은 무섭게 실감합니다.
어마어마한 자본, 기술, 두뇌가 요구되는 사안입니다.
그런 점에서 우리나라는 분명 한계가 있습니다. 하지만
그 한계를 넘어설 수 있는 것이 콘텐츠입니다. 특히
'AI 윤리' 부분은 세계를 선도할 수 있습니다.
'AI 윤리'가 장착된 '한국형 챗GPT'도
개발할 수 있습니다.

반응형

'아침편지' 카테고리의 다른 글

울컥하는 이름 하나  (0) 2025.05.19
  (0) 2025.05.19
아픔은 일어난 뒤에 사라진다  (0) 2025.05.16
쉬운 길만 택한다면  (0) 2025.05.14
나도 모르는 게 많다  (0) 2025.05.13
반응형

[AI Tech 2025]

AI 융합 비즈니스 개발 컨퍼런스

 

https://dubiz.co.kr/Event/374

 

[AI Tech 2025]AI 융합 비즈니스 개발 컨퍼런스

“Fine-tune is done. Now what?”GPT를 도입했다고 끝난 게 아닙니다. 이제부터 시작이죠.AI 도입 이전보다 이후를 고민하는 실무자 관점의컨퍼런스를 만들었습니다."Fine-Tuning 이후에 모델을 어떻게 굴

dubiz.co.kr

 

https://youtu.be/-e-53zvmu0k

 

 

“Fine-tune is done. Now what?”
GPT를 도입했다고 끝난 게 아닙니다. 이제부터 시작이죠. 
AI 도입 이전보다 이후를 고민하는 실무자 관점의 컨퍼런스를 만들었습니다.

'Fine-Tuning 이후에 모델을 어떻게 굴릴 것인가', 'RAG, SLM, LLMOps는 어떻게 활용할 수 있을까',
'PoC에서 프로덕션으로 넘어가기 위해 필요한 조직 구성과 전략은?'

모든 실무자의 질문에, 현장의 실전 경험으로 답하는 자리. 
그게 바로 ‘AI Tech 2025 - Your Fine-Tuning Roadmap’입니다. 



◀ 
이 행사가 특별한 이유 ▶ 

1. 실무자 관점에서 출발한 컨퍼런스
대기업도, 스타트업도 모두 고민 중인 AI 도입에 대한 현실. 
이 행사는 '도입에서 멈추는 AI가 아니라, 현장에서 돌아가는 AI'를 다룹니다. 

2. Fine-Tuning 이후를 말하는 컨퍼런스
지금까지 대부분의 AI 컨퍼런스는 '개발', '사례', '비전'만 말했죠. 
AI Tech 2025는 AI 모델 운영과 이를 통해 생산성을 확보하는 전략에 집중합니다. 
나아가 AI 운영에 걸맞은 기업 문화와 조직 구성에 대한 팁도 공유할 예정입니다. 


3. 도입과 운영의 온도차를 이해하는 컨퍼런스
AI 기술 트렌드과 최적화 전략을 소개하는 키노트
Track A : Infra & Intelligence Lab ? 개발자와 엔지니어를 위한 구조와 성능 이야기

Track B : Adopt & Scale Strategy ? 기획자와 전략가를 위한 도입과 확산 로드맵

◀ About, AI Tech 2025 ▶ 

◎ 일  시 : 2025. 5. 15(목) 10:00-16:30
◎ 장  소 : 코엑스 3층 컨퍼런스룸 317호, 318호
◎ 주  최 : ㈜첨단, 헬로티, 한국인공지능협회, 서울메쎄, 인공지능신문
◎ 후  원 : 과학기술정보통신부, 마우저
◎ 주  제 : ‘Your Fine-Tuning Roadmap'
◎ 행사 규모 : 각 산업 비즈니스 개발 관계자 200여 명 대상
◎ 관련 전시 : 국제인공지능대전 2025 / AI Tech 등록 시 동시 관람 가능

※ 등록해주신 분들께는 상품권 증정을 통해 감사의 마음을 전합니다.



◀ 궁금한 점들 ▶

Q : 발표 트랙이 총 2개인데, 자유롭게 들을 수 있나요?
A : 네, 프로그램 표를 보시고 원하시는 룸 이동하셔서 자유롭게 들으실 수 있습니다. 

Q : 행사 당일 준비해야 할 것과 등록 방법은 어떻게 되나요?
A : 별도 준비 서류는 없습니다. 행사 당일 등록대에서 성함 확인 후 명찰을 지급해 드립니다. 
     대리 참석의 경우 본래 참석자 명함을 가져오시기 바랍니다. (정보 확인 후 변경해드립니다.)

Q : 점심은 어떻게 하나요?
A : 신세계 상품권(1만원권)이 지급됩니다. 코엑스 지하 여러 음식점에서 사용 가능합니다. 

Q : 참가확인증과 영수증 발급은 가능한가요?
A : 참가확인증은 행사 후, 두비즈 [마이페이지] → [등록 이벤트] → [프린트 아이콘] 클릭으로 직접 발급하실 수 있습니다. 현장 등록의 경우, 별도로 참가확인증 발급 요청을 해주시면 메일로 전달드리겠습니다. 영수증은 신용카드 결제 시 [마이페이지] → [결제내역]에서 영수증 출력이 가능합니다. 입금 계좌 시 [결제 방식] → [무통장 입금] → [세금계산서 발행] 선택 후 사업자 정보를 기입하시면 됩니다. 

Q : 발표자료를 모바일이나 웹으로 확인할 수 있나요?
A : 행사 당일, QR코드를 통해 발표자료를 다운받으실 수 있도록 QR코드를 행사장 곳곳에 부착해둘 예정입니다. 

※ 문의 : AI Tech 2025 담당자 / 070-4345-9890 / E-mail. dubiz@hellot.net

 


 

 

 

반응형

+ Recent posts