XAI
-
검색하는 AI, RAG로 보는 생성형 AI의 미래🔍 AI 탐험하기 2025. 4. 10. 09:07
RAG(Retrieval-Augmented Generation)은 언어 모델이 외부 지식을 검색해 응답을 생성하는 구조입니다. 이 글에서는 페이스북 AI 논문을 바탕으로, LLM의 한계를 넘는 새로운 AI 접근법을 설명합니다.🔍 Retrieval-Augmented Generation(RAG)이란? 지식 집약형 NLP의 새로운 접근법1. 서론 | 지식을 외우는 AI에서, 찾아보는 AI로요즘 ChatGPT 같은 대형 언어 모델(LLM)은 마치 모든 지식을 다 알고 있는 것처럼 보입니다. 하지만 사실 이 모델들은 훈련 데이터에 기반한 "암기형 지식"을 사용합니다.그러다 보니 새로운 정보를 반영하기 어렵고, 때로는 사실과 다른 내용을 "그럴듯하게" 만들어내는 현상(이른바 hallucination)이 나타납니다..
-
의료 현장에서의 설명 가능한 AI(XAI): 현황과 미래 전망🧪 디마지 실험실 (LAB) 2025. 3. 19. 07:44
의료 현장에서 인공지능(AI)의 활용이 급증하고 있습니다. AI는 의료 진단, 치료 계획, 환자 관리 등 다양한 분야에서 중요한 역할을 하고 있습니다. 그러나 AI 모델의 의사결정 과정이 불투명한 '블랙박스' 문제가 계속 제기되고 있습니다. 이러한 배경에서 '설명 가능한 AI(Explainable AI, XAI)'가 의료 분야에서 중요한 화두로 떠오르고 있습니다. 의료 AI와 설명 가능성의 중요성의료 환경에서 AI 모델이 왜 특정 진단을 내렸는지 설명할 수 없다면, 의료진과 환자 모두 해당 결과를 신뢰하기 어렵습니다. Ghassemi 등(2021)의 연구에 따르면, "현재 의료 AI 접근법의 불투명성은 임상 환경에서의 신뢰와 채택에 심각한 장벽이 된다"고 지적했습니다1. 이는 의료 AI가 실제 의료 현장..
-
🤖 AI의 결정을 신뢰할 수 있을까? – XAI(설명 가능한 인공지능)의 역할🧪 디마지 실험실 (LAB) 2025. 2. 14. 12:48
🤔 AI가 왜 이런 결정을 내렸을까?📌 "죄송합니다, 이 대출은 승인할 수 없습니다."은행에서 대출을 신청한 A씨는 황당했습니다.신용등급도 괜찮고 연체 기록도 없는데, AI가 자동으로 대출을 거절한 것입니다.상담원에게 이유를 물었지만, 돌아온 답변은 단 하나."AI 시스템이 그렇게 결정했습니다."이럴 때 우리는 AI를 신뢰할 수 있을까요?AI는 금융, 의료, 법률, 자율주행차 등 중요한 결정을 내리는 역할을 하고 있습니다.하지만 그 결정 과정이 불투명하다면, 우리는 AI를 믿고 의존할 수 있을까요?📌 이 문제를 해결하기 위해 등장한 기술이 바로 XAI(설명 가능한 인공지능, Explainable AI)입니다.오늘은 XAI가 무엇인지, 왜 중요한지, 그리고 실생활에서 어떻게 활용될 수 있는지 쉽게 알..