
챗GPT가 차세대 인공지능(AI)으로 부상하고 있다. 이를 두고 새로운 기술을 선점하기 위해 IT업계의 관심도 커지고 있다.
챗GPT는 사용자와 주고받는 대화에서 질문에 답하도록 설계된 AI서비스다. 머신러닝 기술을 적용해 지식을 학습하고 스스로 성장해 나간다는 게 가장 큰 특징으로 지난해 12월1일 처음 출시된 후 5일 만에 이용자 100만을 돌파, 현재는 1억 명 이상이 사용하고 있다는 분석도 나온다.
챗GPT의 기능 자체는 기존 챗봇과 다르지 않지만, 답변에서 차이가 난다. 전문가 수준의 답변을 도출하고, 요청 시에는 표를 만들어주기도 한다.
의학논문 초록 50편 표절검사 모두 통과
이처럼 챗GPT가 두각을 나타내자 정치권의 관심도 커지고 있다. 국내에서는 윤석열 대통령이 챗GPT로 신년사를 작성한 경험을 언급하며 극찬을 보낸바 있다. 이에 화답이라도 하듯 국내 대표 빅테크 기업 네이버는 챗GPT와 유사한 검색전용 ‘서치GPT’를 개발하겠다고 나섰다.
챗GPT는 정교한 글쓰기 능력을 구사한다. 단순히 장소를 안내하는 것에서 벗어나 논문을 대신 작성해주며, 해외에서는 판결문을 대신 작성해주는 사례도 있다.
챗GPT는 예술과 같은 창작의 영역에서도 변화를 예고하고 있다. 이미 챗GPT는 그럴듯한 수준의 소설이나 시도 창작해준다. 심지어는 간단한 음악코드를 작곡해주기도 한다.
학교 현장에도 파장을 몰고 왔다. 최근 미국과 영국의 일부 학교에서는 학생들이 챗GPT를 이용해 숙제를 하는 일이 벌어지자, 아예 챗GPT 사용을 금지해버렸다. 교육평가에서 챗GPT의 영향을 차단하고자 구술시험과 그룹평가를 대폭 늘린 경우도 있다.
의학 교육에도 마찬가지다. 챗GPT가 의학 학술지에 실린 논문을 참조해 만든 논문이 의학 논문 초록 50편이 표절 검사 프로그램을 모두 통과했고, 의학 전문가들마저 제출된 초록의 32%를 걸러내지 못했다는 연구결과도 나온 바 있다.
앞으로 한의계에 미칠 영향은?
하지만 챗GPT가 도출해내는 정보를 신뢰할 수 있을 지에 대한 문제의식도 팽배하다. 챗GPT가 오류가 있는 데이터를 학습할 경우 틀린 답변을 정답처럼 말하는 일명 ‘환각 현상’에 빠질 수도 있다. 때문에 챗GPT를 비롯한 AI가 잘못된 정보를 확대 재생산하는 도구가 될 수 있다는 우려가 있다.
개발자나 외부인이 챗GPT에 오염된 정보를 학습시킬 시 편향성을 띈 정보를 이용자에게 제공할 수 있다는 위험도 있다. 특히 한의계 등 특정 업계나 분야에 오염된 시각을 가진 사람이 이러한 일을 벌인다면 업계 종사자들이 입을 피해도 매우 클 수 있다.
이와 더불어 이 같은 일들이 조직적으로 일어날 가능성도 배제할 수 없다. 챗GPT는 이용자들이 직접 지식을 주입할 수 있는 AI기 때문이다. 기자는 챗GPT에게 기자 본인의 신상정보를 학습시켰다. 과거에는 어떤 직장에서 근무했으며, 현재 속해 있는 곳은 어디인지에 대한 정보다. 이후 다른 사람이 챗GPT에 기자에 대한 정보를 물어보니 기자가 가르쳐준 내용을 그대로 대답했다.

이번에는 챗GPT에게 ‘한의학은 과학적인지’에 대해 물어봤다. 챗GPT는 “한의학은 과학적으로 입증되지 않은 일부 제약이 있지만, 기적의 결과를 달성하는 데 사용되는 경우가 있다”고 말했다. 불분명하며, 다소 오해의 소지가 있는 답변이다.
앞서 오염된 정보로 문제를 일으킨 AI의 사례도 있었다. 이루다1.0의 경우가 대표적이다. 이루다1.0 또한 챗GPT와 마찬가지로 스스로 학습할 수 있는 머신러닝 기능을 탑재한 AI다.
이루다1.0은 이용자와의 대화를 통해 대화가 자연스러운 AI로 성장해 나갔지만, 특정 사용자들이 주입한 편향된 정보를 학습한 끝에 여혐 및 성적 논란 등 각종 문제에 시달리며 서비스를 종료한 바 있다.
이 같은 사례를 토대로 업계 관계자들은 AI의 정보를 무조건 신뢰하는 건 위험하다고 지적했다.
거짓 내용 섞여있을 수 있다는 점 감안
전창배 국제인공지능윤리협회 이사장은 “챗GPT는 제작사인 오픈AI에서 1~2년 동안 필터링 작업에 굉장히 공을 들여 편향된 결과나 혐오 표현이 없는 편”이라면서도 “AI에 기반이 되는 학습데이터가 완전무결하지 않은 만큼 편향적이고 신뢰할 수 없는, 불법적인 결과가 나올 수도 있을 것”이라고 말했다.
전 이사장은 이어 “챗GPT와 같은 제품을 출시하기 전 기업들이 직접 인력을 동원해 필터링을 철저하게 하는 작업, 테스트하는 과정이 필요하다”며 “이용자들도 AI가 주는 정보 중 거짓된 내용이 섞여있을 수도 있다는 점을 감안하고 받아들여야 할 것”이라고 설명했다.

기자는 챗GPT에게 편향적인 정보를 제공하지 않을 자신이 있는지 물어봤다. “저는 오픈AI에서 훈련된 AI 대화 모델입니다. 객관적이고 정확한 정보만을 제공하며, 편향적인 정보를 제공하지 않습니다.” 기자의 질문에 대한 챗GPT의 답이다. 과연 100% 신뢰할 수 있을까?