• 구름많음속초18.5℃
  • 구름많음10.3℃
  • 구름많음철원8.9℃
  • 구름많음동두천10.8℃
  • 구름많음파주8.0℃
  • 구름많음대관령7.9℃
  • 구름많음춘천10.7℃
  • 구름많음백령도11.8℃
  • 구름많음북강릉15.3℃
  • 구름많음강릉16.8℃
  • 구름많음동해14.1℃
  • 맑음서울13.7℃
  • 구름많음인천12.7℃
  • 구름많음원주13.5℃
  • 맑음울릉도16.9℃
  • 구름많음수원12.0℃
  • 구름많음영월10.8℃
  • 구름많음충주12.0℃
  • 구름많음서산8.9℃
  • 맑음울진11.6℃
  • 구름많음청주15.8℃
  • 구름많음대전13.5℃
  • 구름많음추풍령14.6℃
  • 구름많음안동13.5℃
  • 구름많음상주16.2℃
  • 맑음포항17.3℃
  • 맑음군산10.8℃
  • 맑음대구18.2℃
  • 맑음전주13.2℃
  • 맑음울산13.6℃
  • 구름많음창원15.4℃
  • 맑음광주14.4℃
  • 구름많음부산17.1℃
  • 구름많음통영14.5℃
  • 맑음목포12.4℃
  • 맑음여수17.3℃
  • 맑음흑산도11.7℃
  • 맑음완도13.0℃
  • 맑음고창9.8℃
  • 맑음순천14.6℃
  • 구름많음홍성(예)10.4℃
  • 구름많음12.4℃
  • 맑음제주13.6℃
  • 맑음고산13.7℃
  • 맑음성산13.0℃
  • 맑음서귀포14.8℃
  • 맑음진주11.8℃
  • 구름많음강화11.7℃
  • 맑음양평13.6℃
  • 구름많음이천14.2℃
  • 구름많음인제10.6℃
  • 구름많음홍천11.7℃
  • 구름많음태백9.0℃
  • 구름많음정선군9.2℃
  • 구름많음제천9.3℃
  • 구름많음보은10.9℃
  • 구름많음천안11.9℃
  • 맑음보령10.8℃
  • 맑음부여10.2℃
  • 구름많음금산11.5℃
  • 맑음12.1℃
  • 맑음부안10.9℃
  • 맑음임실9.6℃
  • 맑음정읍10.0℃
  • 구름많음남원11.6℃
  • 구름많음장수9.3℃
  • 맑음고창군9.6℃
  • 맑음영광군9.6℃
  • 구름많음김해시15.3℃
  • 맑음순창군10.9℃
  • 구름많음북창원16.1℃
  • 구름많음양산시14.9℃
  • 맑음보성군14.6℃
  • 맑음강진군11.0℃
  • 맑음장흥9.7℃
  • 맑음해남8.8℃
  • 맑음고흥11.4℃
  • 맑음의령군12.5℃
  • 구름많음함양군12.3℃
  • 구름많음광양시16.3℃
  • 맑음진도군8.5℃
  • 구름많음봉화7.1℃
  • 구름많음영주17.9℃
  • 구름많음문경17.2℃
  • 맑음청송군7.9℃
  • 맑음영덕12.2℃
  • 구름많음의성9.2℃
  • 구름많음구미17.7℃
  • 맑음영천10.3℃
  • 맑음경주시12.1℃
  • 구름많음거창11.7℃
  • 구름많음합천14.0℃
  • 구름많음밀양14.2℃
  • 구름많음산청14.3℃
  • 구름많음거제14.7℃
  • 맑음남해15.0℃
  • 구름많음14.0℃
기상청 제공

2026년 04월 27일 (월)

AI 의사 편향적 판단시 의사결정의 도덕성 불분명

AI 의사 편향적 판단시 의사결정의 도덕성 불분명

AI, 알고리즘 편향으로 중립성에 근본적 한계…인지적 오류 불가피한 문제 발생

김효은 교수, ‘AI 의사, AI 판사 알고리즘 편향과 윤리’ 주제 발표



인공지능을 활용한 기계학습이 미국의 흑인 여성을 고릴라로 인식하는 등 편향의 오류를 낳을 수 있어 주의가 필요하다는 지적이 제기됐다. 인종 구분 실패 등 알고리즘의 편향으로 발생하는 이같은 오류는 왓슨 등 AI 의사에게도 나타날 수 있어 인간의 적절한 개입이 필요하다는 주장이다.

김효은 한밭대 인문교양학부 교수는 지난달 27일 서울시 중구 국가생명윤리정책원 대회의실에서 열린 콜로키엄에서 ‘AI 의사, AI 판사 알고리즘 편향과 윤리’를 주제로 발표하며 이 같이 밝혔다.

전기전자기술협회(IEEE)에서 AI윤리분과위원을 맡고 있는 김 교수는 “컴퓨터 알고리즘을 만드는 데 인간이 개입하는 만큼 인간의 인지적 오류나 실수 등이 여기에 불가피하게 반영될 수밖에 없다”고 지적했다.



◇AI 결정 과정에도 도덕적 기준이 적용됐는가?



김 교수에 따르면 가장 대표적인 오류는 ‘편향된 대표성’의 문제다. 알고리즘의 특정 결과를 낼 때 참고하는 데이터가 전체를 대표하지 못한다는 것이다. 인공지능 방식을 활용한 구글 포토 서비스는 2015년 한 흑인 여성의 얼굴에 ‘고릴라’ 태그를 띄워 논란을 일으켰다. 한 카메라의 얼굴인식 시스템이 사진에 나온 아시아인에게 ‘누군가 눈을 감았나요?’란 메시지를 띄운 사례도 여기에 포함된다.

마찬가지로 인공지능의 판단이 어떤 기준에 따라 내려졌는지 알 수 없는 점도 사회적 문제가 될 수 있다. 대표적인 인공지능 학습 방식인 ‘딥러닝’은 받아들인 데이터에서 패턴을 찾아 연결망을 강화하는 방식으로 결론을 산출한다.





문제는 이 연결망이 강화되면서 중간 단계의 판단과 기준을 알 수 없게 된다는 점이다. 재범 가능성을 가리는 미국 경찰의 빅데이터 컴퓨터 컴파스는 범죄자 중 백인이나 소득수준이 높은 시민보다 흑인이나 소득수준이 낮은 이들의 재범 가능성을 높게 판단해 물의를 빚기도 했다.

김 교수는 “연결망이 강화돼 중간 단계의 판단 근거를 알 수 없는 ‘블랙박스’는 인공지능의 판단 결과가 윤리적인지의 여부를 알 수 없게 만든다”며 “인공지능의 의사결정 결과 뿐 아니라 과정에도 도덕적 기준이 적용됐는지 살펴봐야 하는 이유”라고 강조했다.

김 교수는 그러면서 AI 의사인 왓슨의 진단 및 치료 방식과 이 과정상의 쟁점을 소개했다. 왓슨은 미국과 국내 의료 부문에서 인공지능 학습을 도입해 사용하고 있다.

미국의 왓슨은 현재 의료기관에서 영상분석과 진단, 치료법 권고, 위험 징후 예측 등의 역할을 하고 있다. 인공지능과 증강현실을 결합한 현미경으로 뇌, 폐, 심혈관 등 인체를 관찰한 결과를 수집한다.

왓슨의 치료 권고안이 인간 의사의 권고안과 차이가 있어 정확성에 대한 의문을 증폭시킨다는 내용은 2014년 미국의 메모리얼 슬론 캐터링 암센터와 IBM의 공동 연구 결과를 통해 확인됐다.



◇암 치료하는 美 AI 의사 결정, 신뢰 가능한가?



김 교수는 “왓슨을 활용하고 있는 의료기관은 사람인 의사와 AI인 의사가 한 결정을 클라우딩 시스템에 올려 의견을 주고받는 식으로 운용하고 있다”며 “이 과정에서 데이터가 포함하고 있는 무의식적인 편향이 영향을 미칠 수 있다는 점을 간과해서는 안된다”고 지적했다.

김 교수는 알고리즘의 편향을 방지할 수 있는 방법으로 설명 가능한 인공지능의 도입과 신경과학 방법론 도입을 제시했다.

전자는 의사 결정 과정을 알 수 없는 인공지능의 판단 기준을 설명하게 해서 인간이 개입할 수 있는 여지를 높이는 방법이다. 미국 국방부의 방위고등연구계획국(DARPA)은 딥러닝 알고리즘을 제작할 때 학습 절차를 설명하도록 하는 펀딩 이니셔티브를 추진 중이다. 우리나라도 지난해 인공지능의 의사결정 이유를 설명하는 국가전략 프로젝트를 지원하기 시작했다.





그런가 하면 신경과학론의 방법론은 유전자 기능을 찾기 위해 유전자 돌연변이를 일으키는 신경과학론의 방법론을 적용한 방식이다. 인공지능에 입력된 특정 정보를 지우거나 변형시킨 결과를 추적해 의사결정에 미친 영향을 파악하는 식이다.

김 교수는 “그동안 인종, 계층에 대한 공정성의 화두는 전통적인 윤리의 영역이었지만 오늘날의 각 학문은 서로 영향을 주고받으며 함께 변화하는 추세를 보이고 있다”며 “마찬가지로 기술 발전은 윤리 문제와 떼려야 뗄 수 없는 관계가 돼 가고 있다. 기업은 윤리적 문제 해결을 통해 소비자의 위험을 기업의 책임이 아닌 공공의 안전문제로 전환시킬 수 있을 것”이라고 밝혔다.



31-1
 

관련기사

가장 많이 본 뉴스

더보기

최신뉴스

더보기

뉴스

더보기