사이언스타임즈 로고

정보통신기술
김민재 리포터
2025-03-21

AI 의료 상담, 어디까지 믿을 수 있을까? AI 의료 상담의 현황과 신뢰성

  • 콘텐츠 폰트 사이즈 조절

    글자크기 설정

  • 프린트출력하기

AI 의료 상담의 현 주소

"루푸스란 무엇인가?", "독감은 얼마나 오래 지속되는가?", "치질은 어떻게 치료하는가?" 이러한 질문들은 사람들이 ChatGPT에게 가장 흔히 묻는 건강 관련 질문들이다. 2024년 중반에 약 2,000명의 호주인을 대상으로 실시된 조사에 따르면, 현재 호주인 10명 중 1명이 의학적 질문을 위해 이 플랫폼을 사용하고 있으며, 그중 거의 61%가 일반적으로 임상 조언이 필요한 질문을 한다. 이처럼 인공지능이 의료 분야에 가져오고 있는 혁신은 매우 놀랍다. 하지만 ChatGPT와 같은 대형 언어 모델(LLM: Large Language Model)이 제공하는 의료 조언은 얼마나 신뢰할 수 있을까?

최근 연구 결과는 LLM의 의료 조언 신뢰성에 의문을 제기하고 있다. 2024년의 한 연구에서는 ChatGPT3.5에 150개의 의학 사례를 제시했을 때, 정확한 진단과 치료 계획을 49%의 경우에만 제공했다. 또 다른 연구는 ChatGPT가 "적절하고 개인화된 의료 조언을 신뢰성 있게 제공하지 않았다."고 결론지은 바 있다. 

ChatGPT와 같은 대형 언어 모델이 제공하는 의료 조언은 얼마나 신뢰할 수 있을까? ©Getty Images

ChatGPT와 같은 대형 언어 모델이 제공하는 의료 조언은 얼마나 신뢰할 수 있을까? ©Getty Images

2023년 한 연구에서는 "왜 담석증으로 인한 황달을 치료해야 하는가?"라는 질문에 ChatGPT3.5가 황달을 완화하면 환자의 외모가 개선되고 자존감이 향상된다고 답변해 다소 황당하고 임상적 근거가 매우 부족함을 보여줬다. 최신 버전인 ChatGPT4.0은 장기 손상과 질병 진행 방지의 필요성을 강조하며 훨씬 더 나은 답변을 제공하지만, 여전히 한계가 존재함을 알 수 있다.

 

AI 의료 정보의 근본적 한계

ChatGPT 및 다른 LLM의 문제점은 의학적 조언이 완전히 틀리지는 않지만, 완전히 정확하지도 않다는 것이다. AI 모델이 훈련된 정보의 질은 그 모델의 의료 조언 질을 결정하는데, 특정 모델이 정확히 어떤 정보로 훈련되었는지 알 수 없다는 것도 문제이다.

AI 모델은 모든 크롤링 데이터에 대해서 진위 여부와 차이를 구별할 수 없다는 치명적인 단점이 있다. ©Getty Images

AI 모델은 모든 크롤링 데이터에 대해서 진위 여부와 차이를 구별할 수 없다는 치명적인 단점이 있다. ©Getty Images

LLM은 인터넷에서 정보를 수집하는 데이터 크롤링(crawling: 웹 페이지를 그대로 가져와서 거기서 데이터를 추출해 내는 행위)에 의해 수집된 거의 모든 정보를 사용한다. 문제는 여기에서 발생한다. 이러한 정보들은 신뢰할 수 있는 의학 정보와 함께 Reddit 게시물, 제대로 연구되지 않은 건강 관련 기사, 위키피디아 문서와 같은 신뢰할 수 없는 정보도 포함될 수 있다. 온라인의 '나쁜' 정보나 '틀린' 정보는 좋은 정보만큼이나 자주 돌아다닌다. 또한 고의로 나쁜 정보를 뿌리는 사람들도 있다. 하지만 AI 모델은 그 차이를 구별할 수 없다는 치명적인 단점이 있다. 

아직까지 LLM은 인간처럼 문제를 해결하거나 연역적 분석을 하지 않고, 단지 통계적으로 다음에 가장 가능성 있는 단어를 예측할 뿐이다. ©Getty Images

아직까지 LLM은 인간처럼 문제를 해결하거나 연역적 분석을 하지 않고, 단지 통계적으로 다음에 가장 가능성 있는 단어를 예측할 뿐이다. ©Getty Images

또한, LLM은 인간처럼 문제를 해결하거나 연역적 분석을 하지 않고, 단지 "통계적으로 다음에 가장 가능성 있는 단어를 예측"할 뿐이다. 즉, 정보를 '재생산'할 뿐이다.

 

균형 잡힌 접근: AI와 인간 의료 전문가의 공존

물론 결함에도 불구하고, LLM은 건강 정보를 단순화하고 의학 전문 용어를 설명하는 데 매우 유용할 수 있다. ChatGPT를 의료 조언에 사용하는 유저들의 비율은 낮은 건강 문해력을 가진 사람들, 그리고 문화적, 언어적으로 다양한 커뮤니티의 사람들에게서 더 높은 것으로 나타나고 있기에 이는 환자들에게 자신의 질병과 그들의 건강 상태에 대해 더 많은 지식을 갖게 한다. 하지만 환자들은 정보의 질이 결함이 있을 수 있다는 것을 이해해야 한다. 물론 ChatGPT 자체도 "의학적 주제에 대한 일반적인 정보를 제공하고 건강 개념을 설명할 수 있지만, 전문적인 의료 조언을 대체할 수 없다."고 인정한다.

AI 의료 상담은 환자와 의료 전문가 사이의 소통을 강화하는 '보조적'인 도구로 발전할 것이다. ©Getty Images

AI 의료 상담은 환자와 의료 전문가 사이의 소통을 강화하는 '보조적'인 도구로 발전할 것이다. ©Getty Images

미래에는 의학적으로 검증된 데이터만을 훈련에 사용하고, 최신 의학 연구 결과를 지속적으로 업데이트하며 이에 특화된 의료 AI가 등장할 가능성이 높다. 그러나 AI는 어떤 의료 정보가 증거 기반인지 이해하거나 사용자에게 알리지 못하기 때문에, 의료 전문가와의 대화는 여전히 어떤 AI로도 대체되기 힘들 것이다. 궁극적으로, AI 의료 상담은 환자와 의료 전문가 사이의 소통을 강화하는 보조적 도구로 발전할 것이지만, 중요한 의료 결정은 여전히 인간 의사와의 상담을 통해 이루어져야 할 것이다.

김민재 리포터
minjae.gaspar.kim@gmail.com
저작권자 2025-03-21 ⓒ ScienceTimes

관련기사

목록으로
연재 보러가기 사이언스 타임즈에서만 볼 수 있는
특별한 주제의 이야기들을 확인해보세요!

인기 뉴스 TOP 10

속보 뉴스

ADD : 06130 서울특별시 강남구 테헤란로7길 22, 4~5층(역삼동, 과학기술회관 2관) 한국과학창의재단
TEL : (02)555 - 0701 / 시스템 문의 : (02) 6671 - 9304 / FAX : (02)555 - 2355
정기간행물 등록번호 : 서울아00340 / 등록일 : 2007년 3월 26일 / 발행인 : 정우성 / 편집인 : 윤승재 / 청소년보호책임자 : 윤승재
한국과학창의재단에서 운영하는 모든 사이트의 콘텐츠는 저작권의 보호를 받는 바 무단전재, 복사, 배포 등을 금합니다.

사이언스타임즈는 과학기술진흥기금 및 복권기금의 지원으로 우리나라의 과학기술 발전과 사회적 가치 증진에 기여하고 있습니다.