• 맑음속초15.0℃
  • 맑음17.5℃
  • 구름많음철원17.8℃
  • 맑음동두천17.5℃
  • 맑음파주15.1℃
  • 맑음대관령12.7℃
  • 맑음춘천19.6℃
  • 맑음백령도12.7℃
  • 맑음북강릉18.4℃
  • 맑음강릉20.7℃
  • 맑음동해15.0℃
  • 맑음서울18.0℃
  • 맑음인천15.6℃
  • 맑음원주20.4℃
  • 맑음울릉도16.7℃
  • 구름많음수원16.6℃
  • 맑음영월18.5℃
  • 맑음충주19.3℃
  • 맑음서산15.0℃
  • 맑음울진15.8℃
  • 맑음청주19.7℃
  • 맑음대전18.2℃
  • 맑음추풍령17.8℃
  • 맑음안동21.0℃
  • 맑음상주20.0℃
  • 맑음포항20.8℃
  • 맑음군산14.6℃
  • 맑음대구21.6℃
  • 맑음전주15.7℃
  • 맑음울산16.1℃
  • 맑음창원17.8℃
  • 맑음광주16.8℃
  • 맑음부산17.2℃
  • 맑음통영17.3℃
  • 구름많음목포14.8℃
  • 맑음여수17.3℃
  • 구름많음흑산도12.7℃
  • 맑음완도16.3℃
  • 맑음고창13.4℃
  • 맑음순천16.9℃
  • 맑음홍성(예)14.4℃
  • 맑음17.7℃
  • 맑음제주15.5℃
  • 맑음고산14.5℃
  • 맑음성산15.1℃
  • 맑음서귀포17.2℃
  • 맑음진주18.1℃
  • 맑음강화15.0℃
  • 맑음양평19.2℃
  • 맑음이천18.4℃
  • 맑음인제16.9℃
  • 맑음홍천18.7℃
  • 맑음태백14.3℃
  • 맑음정선군17.5℃
  • 맑음제천18.2℃
  • 맑음보은17.7℃
  • 맑음천안17.4℃
  • 맑음보령15.2℃
  • 맑음부여17.1℃
  • 맑음금산19.2℃
  • 맑음17.0℃
  • 맑음부안14.3℃
  • 맑음임실15.7℃
  • 맑음정읍14.8℃
  • 맑음남원18.3℃
  • 맑음장수16.1℃
  • 맑음고창군14.0℃
  • 맑음영광군13.6℃
  • 맑음김해시18.3℃
  • 맑음순창군17.7℃
  • 맑음북창원20.1℃
  • 맑음양산시18.4℃
  • 맑음보성군16.1℃
  • 맑음강진군17.3℃
  • 맑음장흥16.7℃
  • 맑음해남14.0℃
  • 맑음고흥17.2℃
  • 맑음의령군20.1℃
  • 맑음함양군20.8℃
  • 맑음광양시18.4℃
  • 구름많음진도군13.2℃
  • 맑음봉화15.2℃
  • 맑음영주19.9℃
  • 맑음문경20.5℃
  • 맑음청송군16.2℃
  • 맑음영덕17.6℃
  • 맑음의성17.3℃
  • 맑음구미20.2℃
  • 맑음영천18.3℃
  • 맑음경주시18.2℃
  • 맑음거창17.8℃
  • 맑음합천21.1℃
  • 맑음밀양21.3℃
  • 맑음산청18.5℃
  • 맑음거제18.1℃
  • 맑음남해18.6℃
  • 맑음18.2℃
기상청 제공

2026년 04월 26일 (일)

AI 의사 편향적 판단시 의사결정의 도덕성 불분명

AI 의사 편향적 판단시 의사결정의 도덕성 불분명

AI, 알고리즘 편향으로 중립성에 근본적 한계…인지적 오류 불가피한 문제 발생

김효은 교수, ‘AI 의사, AI 판사 알고리즘 편향과 윤리’ 주제 발표



인공지능을 활용한 기계학습이 미국의 흑인 여성을 고릴라로 인식하는 등 편향의 오류를 낳을 수 있어 주의가 필요하다는 지적이 제기됐다. 인종 구분 실패 등 알고리즘의 편향으로 발생하는 이같은 오류는 왓슨 등 AI 의사에게도 나타날 수 있어 인간의 적절한 개입이 필요하다는 주장이다.

김효은 한밭대 인문교양학부 교수는 지난달 27일 서울시 중구 국가생명윤리정책원 대회의실에서 열린 콜로키엄에서 ‘AI 의사, AI 판사 알고리즘 편향과 윤리’를 주제로 발표하며 이 같이 밝혔다.

전기전자기술협회(IEEE)에서 AI윤리분과위원을 맡고 있는 김 교수는 “컴퓨터 알고리즘을 만드는 데 인간이 개입하는 만큼 인간의 인지적 오류나 실수 등이 여기에 불가피하게 반영될 수밖에 없다”고 지적했다.



◇AI 결정 과정에도 도덕적 기준이 적용됐는가?



김 교수에 따르면 가장 대표적인 오류는 ‘편향된 대표성’의 문제다. 알고리즘의 특정 결과를 낼 때 참고하는 데이터가 전체를 대표하지 못한다는 것이다. 인공지능 방식을 활용한 구글 포토 서비스는 2015년 한 흑인 여성의 얼굴에 ‘고릴라’ 태그를 띄워 논란을 일으켰다. 한 카메라의 얼굴인식 시스템이 사진에 나온 아시아인에게 ‘누군가 눈을 감았나요?’란 메시지를 띄운 사례도 여기에 포함된다.

마찬가지로 인공지능의 판단이 어떤 기준에 따라 내려졌는지 알 수 없는 점도 사회적 문제가 될 수 있다. 대표적인 인공지능 학습 방식인 ‘딥러닝’은 받아들인 데이터에서 패턴을 찾아 연결망을 강화하는 방식으로 결론을 산출한다.





문제는 이 연결망이 강화되면서 중간 단계의 판단과 기준을 알 수 없게 된다는 점이다. 재범 가능성을 가리는 미국 경찰의 빅데이터 컴퓨터 컴파스는 범죄자 중 백인이나 소득수준이 높은 시민보다 흑인이나 소득수준이 낮은 이들의 재범 가능성을 높게 판단해 물의를 빚기도 했다.

김 교수는 “연결망이 강화돼 중간 단계의 판단 근거를 알 수 없는 ‘블랙박스’는 인공지능의 판단 결과가 윤리적인지의 여부를 알 수 없게 만든다”며 “인공지능의 의사결정 결과 뿐 아니라 과정에도 도덕적 기준이 적용됐는지 살펴봐야 하는 이유”라고 강조했다.

김 교수는 그러면서 AI 의사인 왓슨의 진단 및 치료 방식과 이 과정상의 쟁점을 소개했다. 왓슨은 미국과 국내 의료 부문에서 인공지능 학습을 도입해 사용하고 있다.

미국의 왓슨은 현재 의료기관에서 영상분석과 진단, 치료법 권고, 위험 징후 예측 등의 역할을 하고 있다. 인공지능과 증강현실을 결합한 현미경으로 뇌, 폐, 심혈관 등 인체를 관찰한 결과를 수집한다.

왓슨의 치료 권고안이 인간 의사의 권고안과 차이가 있어 정확성에 대한 의문을 증폭시킨다는 내용은 2014년 미국의 메모리얼 슬론 캐터링 암센터와 IBM의 공동 연구 결과를 통해 확인됐다.



◇암 치료하는 美 AI 의사 결정, 신뢰 가능한가?



김 교수는 “왓슨을 활용하고 있는 의료기관은 사람인 의사와 AI인 의사가 한 결정을 클라우딩 시스템에 올려 의견을 주고받는 식으로 운용하고 있다”며 “이 과정에서 데이터가 포함하고 있는 무의식적인 편향이 영향을 미칠 수 있다는 점을 간과해서는 안된다”고 지적했다.

김 교수는 알고리즘의 편향을 방지할 수 있는 방법으로 설명 가능한 인공지능의 도입과 신경과학 방법론 도입을 제시했다.

전자는 의사 결정 과정을 알 수 없는 인공지능의 판단 기준을 설명하게 해서 인간이 개입할 수 있는 여지를 높이는 방법이다. 미국 국방부의 방위고등연구계획국(DARPA)은 딥러닝 알고리즘을 제작할 때 학습 절차를 설명하도록 하는 펀딩 이니셔티브를 추진 중이다. 우리나라도 지난해 인공지능의 의사결정 이유를 설명하는 국가전략 프로젝트를 지원하기 시작했다.





그런가 하면 신경과학론의 방법론은 유전자 기능을 찾기 위해 유전자 돌연변이를 일으키는 신경과학론의 방법론을 적용한 방식이다. 인공지능에 입력된 특정 정보를 지우거나 변형시킨 결과를 추적해 의사결정에 미친 영향을 파악하는 식이다.

김 교수는 “그동안 인종, 계층에 대한 공정성의 화두는 전통적인 윤리의 영역이었지만 오늘날의 각 학문은 서로 영향을 주고받으며 함께 변화하는 추세를 보이고 있다”며 “마찬가지로 기술 발전은 윤리 문제와 떼려야 뗄 수 없는 관계가 돼 가고 있다. 기업은 윤리적 문제 해결을 통해 소비자의 위험을 기업의 책임이 아닌 공공의 안전문제로 전환시킬 수 있을 것”이라고 밝혔다.



31-1
 

관련기사

가장 많이 본 뉴스

더보기

최신뉴스

더보기

뉴스

더보기