MZ 인공지능 해커톤 대회에서 우리 학교 소프트웨어 학과 김수민 인공지능 융합학과 이병한 학생이 대상을 수상하는 쾌거를 이뤘다. 한국지능정보사회진흥원이 주최한 이번 대회는 지난 1월 29일부터 2월 16일까지 온라인으로 진행되었다. 대회의 주제는 의료용어 질의응답 시스템 구축이었다. 대상을 수상한 김수민 이병한 학생은 우리 학교의 손경아 교수 연구실(LAMDA, Learning And Mining from DAta Lab)의 인턴으로 Lamda팀에서 참가했다.

 

대상을 수상한 질의응답 시스템은 Funnel-Transformer 모델을 기반으로 했다. 의사와 환자가 상담하여 작성한 문진표를 이해하여 질문에 맞는 정답을 찾는 시스템이다. 질의응답 시스템은 자연어 처리의 한 분야로 원래 연결되어 있는데 이 성능을 최대한 높인 것이다. 자연어 처리는 인간이 쓰는 언어를 기계가 이해할 수 있게 만들어 원하는 작업을 수행하도록 하는 것이다. 자연어 처리는 pre-train과 fine-tune으로 나누어진다. pre-train은 쉽게 설명해서 컴퓨터가 언어를 이해하도록 하는 부분이고 fine-tune은 해당 pre-train 위에서 원하는 특정 작업을 수행하도록 만드는 작업이다. pre-train의 다양한 구조 중 하나가 여기서 활용된 Transformer이다. Transformer은 모델의 크기(파라미터가) 커서 단점이 존재한다. Funnel - Transformer는 이러한 transformer의 효율적 모델 크기를 효율적으로 작게 만든 모델이다. Lamda팀은 이 모델 말고도 bertㆍalbert 등 다른 모델들을 사용해 Funnel - Transformer가 가장 높은 점수를 얻어서 사용했다. 이번 시스템으로 실제 문진 내용에서 ▲내원 사유 ▲증상 ▲통증 강도 ▲복용 약 여부 등을 환자의 대답에서 빠르게 찾을 수 있다. 이렇게 구한 시스템은 모델 정확성을 측정하는 지표인 EMscore와 F1 score 테스트 데이터 기준 각각 92.64ㆍ97.27 점을 기록해 대상을 수상했다.

 

이병한 학우는 대회에 참여하게 된 계기에 대해 “지난 학기 수강했던 손경아 교수님의 ‘기계학습 및 데이터 마닝’ 수업을 듣고 인공지능에 대해 더 깊게 공부해보고 싶다는 생각이 들었는데 대회와 비슷한 주제로 수업 팀 프로젝트를 했기에 이미 익숙한 내용이고 참여하면 실력을 키울 수 있는 기회가 될 것이라고 생각했다”라고 답했다.

 

연구 중 어려운 부분에 대해선 “pre-train이 시간이 많이 걸리고 컴퓨팅 자원(비용)이 많이 드는 작업이라 모델의 pre-train을 어떻게 해야 할지 굉장히 막막했는데 다행히 사전에 pre-train 된 모델을 찾을 수 있어서 이러한 문제를 해결할 수 있었다”라고 답했다. 또한 “이후에 fine-tune 단계의 구조를 이미 존재하는 방식과 다른 방식으로 바꿔보려고 했는데 성능이 오히려 떨어져서 굉장히 난해했고 대회의 기간이 매우 짧아서 기존에 있는 방식을 쓰되 더 좋고 다양한 사전 학습 모델들을 찾아서 이러한 문제를 해결할 수 있었던 것 같다”라고 설명했다.

 

대상을 수상할 수 있었던 성과에 대해 “같은 태스크라도 다양한 모델을 사용해 좋은 결과 값을 얻은 모델을 사용한 것이 대상의 큰 요인이었으며 특히 성능을 높이기 위해 데이터 전처리를 효과적으로 했고 하이퍼 파라미터(인간이 조정해줘야 하는)를 미세하게 잘 조정해 좋은 결과를 얻었다”며 “이번에 만든 시스템이 의료용 시스템으로써 환자가 다른 병원으로 이동해야 하는 경우 발생할 정보의 부족과 같은 문제를 해결하기 위해 응용되길 바란다”라고 언급했다. 대회를 통해 얻은 점으로는 “학교 강의를 통해 배운 내용을 실제로 활용할 수 있는 기회를 경험했고 대회에 나가 대상을 받았다는 것이 굉장히 뜻깊었으며 처음엔 당연히 입상 못할 줄 알았는데 열심히 하고 운이 따라 입상받으니 역시 노력을 배신하지 않는다는 것을 느끼고 더욱 인공지능에 대해 열심히 공부하게 됐다며 도전하는 정신을 얻은 것 같다.”라고 말했다.

 

 
저작권자 © 아주대학보 무단전재 및 재배포 금지