• 맑음속초1.9℃
  • 맑음-0.1℃
  • 맑음철원-1.5℃
  • 맑음동두천-0.9℃
  • 맑음파주-1.3℃
  • 맑음대관령-5.0℃
  • 맑음춘천0.8℃
  • 맑음백령도-1.6℃
  • 맑음북강릉2.3℃
  • 맑음강릉3.3℃
  • 맑음동해3.6℃
  • 맑음서울0.3℃
  • 맑음인천-1.2℃
  • 맑음원주0.0℃
  • 구름조금울릉도2.5℃
  • 맑음수원-1.1℃
  • 맑음영월-0.4℃
  • 맑음충주0.2℃
  • 맑음서산-0.2℃
  • 맑음울진3.5℃
  • 맑음청주1.0℃
  • 맑음대전1.4℃
  • 맑음추풍령0.3℃
  • 맑음안동1.7℃
  • 맑음상주1.1℃
  • 맑음포항5.1℃
  • 맑음군산0.3℃
  • 맑음대구4.0℃
  • 맑음전주1.9℃
  • 맑음울산4.8℃
  • 맑음창원5.8℃
  • 맑음광주1.9℃
  • 맑음부산7.4℃
  • 맑음통영7.0℃
  • 구름조금목포0.6℃
  • 맑음여수4.9℃
  • 흐림흑산도3.0℃
  • 구름조금완도2.9℃
  • 구름조금고창0.9℃
  • 구름조금순천1.9℃
  • 맑음홍성(예)0.7℃
  • 맑음0.1℃
  • 구름조금제주5.2℃
  • 구름조금고산3.8℃
  • 구름조금성산4.8℃
  • 구름조금서귀포10.2℃
  • 맑음진주6.5℃
  • 맑음강화-1.9℃
  • 맑음양평0.5℃
  • 맑음이천0.0℃
  • 맑음인제-1.0℃
  • 맑음홍천-0.1℃
  • 맑음태백-3.5℃
  • 맑음정선군-0.8℃
  • 맑음제천-1.0℃
  • 맑음보은0.4℃
  • 맑음천안0.1℃
  • 맑음보령0.9℃
  • 맑음부여1.9℃
  • 맑음금산1.4℃
  • 맑음0.9℃
  • 맑음부안0.7℃
  • 구름조금임실0.9℃
  • 구름조금정읍0.5℃
  • 맑음남원1.6℃
  • 맑음장수-0.7℃
  • 구름조금고창군1.1℃
  • 구름조금영광군0.8℃
  • 맑음김해시6.8℃
  • 구름조금순창군1.1℃
  • 맑음북창원6.3℃
  • 맑음양산시7.3℃
  • 맑음보성군4.2℃
  • 구름조금강진군2.8℃
  • 맑음장흥3.0℃
  • 구름조금해남2.3℃
  • 구름조금고흥3.8℃
  • 맑음의령군5.2℃
  • 구름조금함양군2.9℃
  • 맑음광양시4.8℃
  • 구름조금진도군1.5℃
  • 맑음봉화-0.1℃
  • 맑음영주-0.5℃
  • 맑음문경0.4℃
  • 맑음청송군1.6℃
  • 맑음영덕4.1℃
  • 맑음의성2.9℃
  • 맑음구미2.1℃
  • 맑음영천3.4℃
  • 맑음경주시4.4℃
  • 맑음거창3.6℃
  • 맑음합천6.3℃
  • 맑음밀양5.9℃
  • 맑음산청3.5℃
  • 맑음거제5.0℃
  • 맑음남해5.4℃
  • 맑음7.3℃
기상청 제공

2026년 01월 31일 (토)

“잘 만드는 AI보다 잘 사용하는 AI”

“잘 만드는 AI보다 잘 사용하는 AI”

한국보건의료연구원, 의료 현장 생성형 AI 활용 원칙 제시
안전하고 책임 있는 의료 AI 활용 위한 공공적 실천 기준 마련

원칙.jpg

 

[한의신문] 한국보건의료연구원(원장 이재태·이하 NECA)은 의료 현장에서 빠르게 확산되고 있는 생성형 인공지능(AI)에 대해 “AI를 잘 만드는 것이 아니라, 잘 사용하는 것을 목표로 의료 분야 생성형 인공지능 적정 활용 원칙을 발표했다.

 

최근 대규모 언어모델(LLM)과 다중모달모델(LMM)을 기반의 생성형 AI는 의료 현장에서 폭넓게 활용되고 있다. 그러나 기술 활용이 확대될수록 환자 안전, 개인정보 보호, 의료 판단에 대한 과신, 책임 소재와 같은 쟁점도 함께 제기되고 있으며, 제도적 규제만으로는 실제 이용 행태와 다양한 적용 환경을 충분히 포괄하기 어렵다는 한계도 지적되고 있다.

 

이에 NECA는 지난해 원탁회의 주제를 의료 AI’로 선정, 두 차례에 걸쳐 의료인·연구자·산업계··정책 전문가 및 국민참여단과 함께 의료 AI 적정 활용 원칙에 대해 논의했다.

 

이 원칙은 기술 규제나 세부 가이드라인을 제시하기보다, 의료 AI를 사용하는 모든 주체가 공유해야 할 사회적 약속(Social Compact)’에 초점을 두고 있다. 원칙은 개발자·서비스 제공자 의료인 국민(이용자) 등 세 주체별 핵심 역할과 실천 원칙으로 구성된다.

 

먼저 개발자·서비스 제공자는 의료 AI를 신뢰할 수 있는 기술과 서비스를 설계·제공하는 주체로서 환자 안전과 투명성 확보, 공정성·설명가능성의 강화, 인간 감독의 내재화(Human-in-the-loop) 등을 핵심 원칙으로 제시했다. 더불어 오류 발생 시 신속한 개선과 정보 공개, AI 생성 결과의 명확한 표시, 정보취약층을 고려한 쉬운 말 모드와 필수 정보 자동 확인(slot filling) 등 접근성 강화 책임도 포함됐다.

 

의료인은 AI를 임상 판단을 돕는 참고 도구로 활용하되, 최종 의사결정의 책임은 의료인에게 있음을 분명히 했다. 이를 위해 보조적 활용 원칙, 근거 기반 검증, 환자 중심 설명과 동의, 오류 예방과 학습, 지속적인 디지털 역량 강화를 핵심 실천 원칙으로 제시했다.

 

국민(이용자)AI를 자신을 보호하고 판단하는 보조 도구로 인식하고, 자율과 책임, 안전한 사용, 개인정보 보호, 비판적 이해를 핵심 원칙으로 제시했다. 특히 응급·고위험 상황에서는 AI의 답변만으로 판단하지 말고 즉시 의료기관을 이용하도록 했으며, AI가 이상하거나 불편한 답변을 할 경우 즉시 사용을 중단하는 등 생활 속 실천 수칙을 함께 제시했다.

 

이재태 원장은 의료 AI는 국민건강 증진을 위한 중요한 기회인 동시에, 잘못 활용될 경우 의료 신뢰를 훼손할 수 있는 위험도 함께 가지고 있다면서 이번 원칙은 규제를 넘어 의료 현장에서 실제로 참고할 수 있는 공공적 기준점으로서 의미가 있다고 밝혔다.

 

한편 NECA 원탁회의는 보건의료 현안에 대해 다양한 이해관계자가 참여해 논의하는 공론의 장으로, ‘의료 분야 생성형 인공지능 적정 활용 원칙은 이러한 원탁회의 논의를 종합해 도출된 결과인 만큼 향후 의료 현장과 정책 논의에서 참고자료로 활용될 예정이다.

 

 

관련기사

가장 많이 본 뉴스

더보기

최신뉴스

더보기

뉴스

더보기