최근 많은 사람들이 가벼운 증상이 나타나면 병원을 찾기 전에 인공지능에게 먼저 질문을 던지곤 합니다. 실제로 영국인의 3분의 1 이상이 정신 건강이나 웰빙을 위해 AI를 활용한다는 조사 결과도 있습니다. 하지만 옥스퍼드 대학교의 최신 연구에 따르면 AI 챗봇이 제공하는 의료 조언은 일관성이 없고 부정확할 때가 많아 사용자에게 심각한 위험을 초래할 수 있습니다.

AI 챗봇이 주는 의료 조언은 왜 위험할까
옥스퍼드 대학교 연구팀은 1,300명을 대상으로 실험을 진행했습니다. 참가자들에게 심한 두통이나 극심한 피로를 느끼는 산모와 같은 가상의 시나리오를 제시하고 AI 챗봇을 통해 진단을 시도하게 했습니다. 그 결과 인공지능은 유익한 정보와 잘못된 정보를 섞어서 제공하는 경향을 보였습니다.
가장 큰 문제는 사용자가 어떤 정보가 옳고 어떤 정보가 위험한지 스스로 구별하기 어렵다는 점입니다. 의료 전문 지식이 없는 일반인은 챗봇이 내놓는 그럴듯한 문장 구조에 속아 응급실에 가야 할 상황을 단순 휴식으로 오해할 가능성이 큽니다. 리베카 페인 박사는 증상에 대해 챗봇에게 묻는 행위 자체가 매우 위험한 결과를 초래할 수 있다고 경고합니다.
옥스퍼드 연구가 발견한 AI 답변의 불일치성
연구진은 AI가 사용자의 질문 방식에 따라 매번 다른 답변을 내놓는다는 사실을 확인했습니다. 동일한 증상을 설명하더라도 단어 하나만 달라지면 전혀 다른 진단 결과가 나오기도 했습니다. 이는 AI 챗봇이 환자의 상태를 종합적으로 이해하기보다는 텍스트 데이터의 패턴만을 분석하기 때문입니다.
- 질문의 단어 선택에 따라 답변의 신뢰도가 요동침
- 사용자에게 유익한 정보와 쓸모없는 정보를 동시에 제공
- 일관성 없는 답변으로 인해 사용자의 혼란을 가중

질문 방식에 따라 결과가 바뀌는 인공지능 자가진단
사람은 의료 전문가와 대화할 때 자신의 상태를 점진적으로 공유합니다. 처음에는 중요한 사실을 빠뜨렸다가 대화가 이어지면서 세부 사항을 덧붙이기도 합니다. 하지만 인공지능 자가진단 과정에서는 이러한 소통의 유연성이 부족합니다.
아담 마디 박사는 사람들이 챗봇에게 모든 정보를 한 번에 제공하지 않기 때문에 AI가 제시하는 여러 가능성 중에서 무엇이 자신에게 맞는지 추측해야 하는 상황에 놓인다고 지적합니다. 인공지능이 세 가지 가능성을 제시했을 때 사용자가 잘못된 진단을 선택하게 되면 치료 시기를 놓치는 치명적인 오류가 발생하게 됩니다.
챗봇이 학습한 의료 데이터의 편향성 문제
예일 의과대학의 앰버 차일즈 교수는 챗봇이 기존의 의료 관행과 데이터를 바탕으로 학습되었다는 점을 강조합니다. 문제는 기존 의료 데이터에는 수십 년간 축적된 편향성이 포함되어 있다는 사실입니다. AI는 이를 그대로 학습하여 특정 집단에 부적절한 조언을 반복할 위험이 있습니다.
인공지능은 숙련된 임상의만큼의 진단 능력을 갖추려 노력하지만 결코 완벽할 수 없습니다. 인간 의사도 실수를 할 수 있는데 그 데이터를 학습한 챗봇이 완벽한 진단을 내릴 것이라고 기대하는 것은 무리입니다. 현재의 기술 수준으로는 데이터에 내재된 편향성을 완전히 제거하기 어렵습니다.

건강 조언을 얻을 때 AI를 안전하게 다루는 방법
물론 기술의 발전 가능성은 열려 있습니다. 오픈AI와 앤스로픽 같은 주요 개발사들은 최근 의료 전용 챗봇 버전을 출시하며 정확도를 높이려는 시도를 하고 있습니다. 하지만 전문가들은 여전히 국가적 규제와 의료 가이드라인이 필요하다고 입을 모읍니다. AI를 참고용으로만 사용하고 최종 결정은 전문가에게 맡기는 자세가 필요합니다.
- 챗봇의 답변을 맹신하지 말고 참고용으로만 활용하기
- 심각한 통증이나 응급 상황에서는 즉시 의료 기관 방문하기
- 챗봇에게 질문할 때는 가능한 구체적이고 객관적인 사실만 전달하기
- AI가 제시한 진단명을 바탕으로 임의로 약물을 복용하지 않기
- 가이드라인이 명확한 공신력 있는 의료 기관의 AI 서비스 이용하기

올바른 건강 정보를 위한 현명한 마무리
AI 챗봇은 우리 삶을 편리하게 만들어주는 도구임이 분명하지만 생명과 직결된 의료 분야에서는 아직 조심스러운 접근이 필요합니다. 옥스퍼드 연구가 보여주듯이 인공지능은 여전히 부정확하고 편향된 정보를 제공할 가능성이 높습니다. 스스로의 건강을 지키기 위해서는 챗봇의 답변에 의존하기보다 전문가의 진찰을 우선시하는 태도가 중요합니다. 기술이 더욱 발전하여 안전한 가이드라인이 정착될 때까지는 인공지능을 보조적인 수단으로만 현명하게 활용하시길 바랍니다.
출처: https://www.bbc.com/news/articles/c3093gjy2ero
이어서 보면 좋은 글
#AI챗봇 #의료조언 #옥스퍼드연구 #인공지능자가진단 #챗봇위험성 #건강정보 #디지털헬스 #AI부작용 #의료데이터 #AI활용법