2 분 소요

작년 12월부터 Explainable AI(설명가능한 인공지능)에 대해 리서치를 해왔다. LIME에 초점을 맞추어 공부해보았는데, 한국어를 적용한 논문을 발견하여 간단하게 리뷰해보았다. 한국어 감성 분류 모델에 LIME을 적용한 논문 을 리뷰해보았다.

0. Summary

  • GOAL: LIME 알고리즘을 이용하여 한국어 감성 분류 데이터셋으로 학습된 모델들의 입력 문장 내 단어들 중 어떤 단어가 결과에 영향을 미쳤는지 해석하고자 한다
  • RESULT: 85.23% 성능의 Bi-LSTM 모델은 25,283개의 긍/부정 단어를 포함했지만, 상대적으로 낮은 성능을 보인 84.20%의 Transformer 모델의 해석 결과, 26,447개의 긍/부정 단어가 포함되어 있었다
  • CONCLUSION: 따라서 Bi-LSTM 보다 Transformer 모델이 신뢰할 수 있는 모델로 확인했다

1. INTRODUCTION

  • 블랙박스 모델의 한계: 신경망 모델은 높은 정확도로 입력 문장이 긍/부정인지 결과 예측을 알려줄 수 있지만, 어떤 단어들로 인해 그 결과가 예측되었는지 해석하기는 현재 불가능하다
    • 긍/부정과 연관없는 단어들로 인해 결과를 예측하거나, 토큰들의 상대적인 빈도 차이로 인해 학습이 편파적으로 이루어져 잘못 예측하는 경우 등의 오류를 범할 수 있다
  • 정확도 지표 기반의 학습된 신경망 모델의 맹목적인 사용보다는 입력 문장 내 단어들 중 어떤 단어 에 근거하였는지 모델을 해석하는 것이 필요하다

2. KOREAN SENTIMENT MODEL

2-1. Bi-LSTM

2-2. Transformer

3. LIME (for text)

텍스트 데이터는 테이블, 이미지 데이터와 다른 방식으로 변형이 이루어진다. 새로운 텍스트는 원래 텍스트에서 임의로 단어를 제거하여 만들어진다. 데이터셋은 각 단어에 대해 이진 변수로 표현되는데, 단어가 변수에 포함되면 1, 제거되면 0의 값을 지닌다.

  • input : “이번 영화 화이팅” 이고 띄어쓰기 기준으로 문장을 나눈다면, “이번”, “영화”, “화이팅” 토큰들에 대해 해석 가능한 표현은 이진 벡터 {1,1,1} 이 되며, 샘플 데이터는 모두 0이 아닌 경우를 제외한 {0,0,1}, (0,1,1} 등과 같은 벡터로 아래와 같이 표현 가능하다.
이번 영화 화이팅 결과 문장
0 0 1 화이팅
0 1 1 영화 화이팅
1 1 1 이번 영화 화이팅

4. EXPERIMENT

4-1. 실험 소개

  • 모델은 크게 RNN, CNN, Transformer 3가지 종류로 실험 진행
  • 데이터셋
    • 네이버 감성 분류 데이터셋으로 학습
    • 한국어 감성 사전:
      • n-gram으로 이루어진 어절과 축약어 등의 긍/부정 단어들 포함
      • LIME 알고리즘을 통해 추출된 단어들이 긍/부정 단어들로써 모델에 영향을 주었는지 확인하기 위해 활용

4-2. 학습 결과

4-2-1. 정확도

  • RNN 모델이 CNN 이나 Transformer 보다 상대적으로 높은 성능을 보였다
  • Bi-RNN with single layer 와 CNN 모델이 각각 85.23%, 83.71%로 가장 높은 성능과 가장 낮은 성능을 보였다

4-2-2. 한국어 적용 결과

  • LIME 알고리즘을 적용하여 각 모델들의 예측 값에 영향을 미친 단어들이 한국어 감성 사전에 속한단어인지 확인한 결과이다
  • 각 모델들로부터 샘플링 된 긍정 단어(Sampled Positive Word)와 부정 단어(Sampled Negative Word)들이 한국어 감성 사전 내에 포함되어 있는 긍정 단어(Positive Word), 부정 단어(Negative Word)에 얼마나 포함되어 있는지 개수로 나타낸다
  • 정확도는 RNN 모델 이 Transformer 모델보다 더 높지만 긍/부정 단어들이 예측 결과에 크게 영향을 미치지는 못했음 확인했다

4-2-2. 형태소 분석 전처리 후 적용 결과

  • 조사와 같은 중립 단어들과 형태학적 자질 중 문장의 긍정, 부정적인 성격에 영향을 미치는 명사, 대명사 등을 포함한 체언과 동사, 형용사 등 을 포함한 용언, 그 외 품사들에 대한 빈도를 측정
  • 모델 중 문장의 긍/부정적인 성격에 영향을 주는 체언과 용언이 가장 많이 추출된 모델은 6층 Transformer 모델이며, 가장 낮은 모델은 1층 순환 신경망 모델이었다

4-3. 결론

  • 모델의 “정확도”와 LIME 기반의 “해설력”은 비례하지 않는다
    • 정확도가 가장 높았던 RNN 모델이 아닌, Transformer 모델에 LIME을 적용할 때 확인되는 긍/부정 단어들이 더 많았다
  • Transformer 모델이 다른 비교 모델들에 비해 학습 과정에서 문장의 긍/부정적인 성격을 가지게 만드는 단어들을 학습하여 결과 값을 예측한다고 볼 수 있다

댓글남기기