반응형 LLM2 RAG란 무엇인가? ChatGPT가 헛소리를 줄이는 핵심 기술 지난 글에서 LLM이 "다음에 올 단어를 예측하는 확률 모델"이라고 설명했었죠. 그때 잠깐 언급했던 할루시네이션, 기억나시나요? AI가 그럴듯하지만 완전히 틀린 답을 내놓는 그 현상 말이에요.오늘은 그 문제를 해결하는 핵심 기술, RAG(Retrieval-Augmented Generation, 검색증강생성)을 다룹니다. 쉽게 말하면 "오픈북 시험을 치르는 AI"를 만드는 기술인데요. 이 원리를 알면 ChatGPT가 왜 가끔 웹 검색을 하는지, 기업들이 왜 RAG에 수십억 달러를 투자하는지 한 번에 이해됩니다.📌 핵심 요약 (Key Takeaways)RAG는 AI가 답변 전에 외부 자료를 검색해서 참고하는 기술입니다. "오픈북 시험"과 같은 원리예요.RAG를 적용하면 AI 할루시네이션이 30~70% 줄어.. 2026. 4. 21. ChatGPT는 어떻게 말을 만들까? LLM 작동 원리를 컴공 출신이 쉽게 설명합니다 "ChatGPT한테 물어봤더니 이상한 답을 줬어요." 주변에서 이런 말을 정말 많이 듣습니다. 그런데 왜 그럴까요? AI가 '생각'하는 게 아닌데, 어떻게 그럴듯한 문장을 만들어 낼까요? 컴공을 나온 저도 처음엔 막막했는데, 원리를 알고 나니 ChatGPT를 쓰는 방식이 완전히 달라졌습니다.이 글에서는 LLM(Large Language Model, 대형 언어 모델)이 어떻게 텍스트를 이해하고 생성하는지를 처음부터 끝까지 순서대로 풀어드립니다. "LLM이 뭔지" → "어떻게 패턴을 학습하는지" → "실제로 문장을 어떻게 만드는지" 이 흐름을 따라가다 보면, AI의 작동 원리가 자연스럽게 머릿속에 그려질 거예요.📌 핵심 요약 (Key Takeaways)LLM은 '다음에 올 단어'를 예측하는 확률 모델입니다.. 2026. 4. 17. 이전 1 다음 반응형