본문 바로가기
책읽는 뚱냥이/인문, 사회, 문화, 종교

(2023 #66) AI는 차별을 인간아게서 배운다. | 고학수 지음

by 뚱냥아빠 2023. 7. 28.
반응형

 

 

AI는 차별을 인간에게서 배운다

서가명강 22권. 한국인공지능법학회장과 서울대 인공지능정책 이니셔티브 공동디렉터를 맡고 있는 서울대학교 법학전문대학원 고학수 교수가 쓴 책으로, 새로운 기술이 우리 사회에 미치는 영

www.aladin.co.kr

AI의 학습 데이터는 무엇일까?

결국 사람이 만든 흔적에서 학습을 하고, 그것을 바탕으로 알고리즘에 의하여 AI가 작동을 하게 된다.

그 사람의 흔적 안에 "차별"적 요소들이 들어가 있을 수 밖에 없다.

그래서 그 흔적을 학습한 AI 역시 그 "차별"이 학습된 결과 속에 담겨져 있을 수 밖에 없다.

 

그렇다면...

AI는 공정한가? 라는 질문에 있어서 그렇지 않을 수 있다는 답이 나온다.

두번째...

인간과 같은 실수를 반복할 수 있는가? 그럴 수 있다는 답이 있다.

 

그렇다면, AI와 인간간 가장 큰 차이점은 무엇일까?

AI는 본인이 틀렸다는 생각을 하지 않는다.

왜냐하면, AI가 학습한 데이터에 기반하여 알고리즘에 의하여 결과가 나왔으니 말이다.

그런데, 사람은 틀릴 수 있음을 알고 있다.

그래서 어쩌면 희망이 있는 것일지도 모르겠다.

사람이 틀릴 수도 있음을 알고 있기에....

그 틀림을 기반으로 서로 간 살아갈 틈을 만들어 주기 때문이다.

 

AI가 발전을 하면서 참 많은 일들을 사람을 대체할 것이라 기대를 한다.

그럼에도 불구하고....

많은 부분을 대체하기에는 아직 시기상조이다.

왜냐하면... 그 학습 데이터가 인간의 불완전성에 기반한 것이고,

그 불완전성에 기반한 학습 데이터의 결과물 역시 불완전한 것인데,

사람은 틀릴 수 있음을 감안하지만, AI는 그렇지 않기에....

그걸 알게 되면, 많은 부분에 AI로 대체하는 것에 한계가 있을 수 밖에 없게 되는 것이다.

 


p139

공정성은 사실상 정의하기가 매우 어려운 개념이다. 아마도 100명의 사람에게 공정성의 개념이 무엇인지에 관해 질문을 한다면 1000개의 대답이 나올지도 모른다. 저마다 공정성에 대해 생각하는 바도 다르고 또한 개개인이 하나의 용어를 두고도 여러가지 개념을 염두에 두고 있을 가능성도 있기 때문이다. 그래서 인공지능이 공정해야 한다는 이야기를 흔히 하지만, 실제 인공지능 맥락에서 공정성이 무엇을 의미하는지를 밝히는 일은 쉽지 않다.

 

p150

앞에서 본 차별에 관한 논의는 인공지능 시대가 오기 전부터 있었던 개념을 빅데이터 또는 인공지능 맥락에서 다시 생각해본 것이다. 그렇다면 인공지능에 의한 차별과 사람에 의한 차별은 어떻게 다른 것일까?

먼저 사람에 의한차별을 생각해 보자. 사람의 판단은 일관적이지 않다. ~ 중략 ~ 긍정적이건 부정적이건 사람의 평가는 속내가 정확히 평가에 반영되지 않을 가능성이 있다. ~ 중략 ~ 그런 점에서 보면, 인간에 의한 차별과 달리 인공지능에 의한 차별은 훨씬 더 투명한 경우가 많다.

 

p155

학습용 데이터가 구축되면 이를 이용해서 여러 형태의 알고리즘을 구현해보게 되고, 반복적 시행착오와 수정의 과정을 거쳐 모형이 만들어진다. 어떤 유형의 알고리즘을 이용할 것인지에 대한 판단을 포함하여 이 단계에서의 판단에서도 편향이 발생할 가능성이 있다. 그렇게 보면, 결국 인공지능 모형이 개발되는 모든 단계에서 편향이나 차별이 나타나거나 강화될 가능성이 있다. 그중 일반적으로 제일 중요한 요소는 학습 데이터에 편향이 나타날 가능성에 관한 것이다.

 

p160

학습용 데이터와 관련하여 발생할 수 있는 한계 중에서도 특히 주목해야 하는 것이, 과거의 사회적 규범이나 관행이 데이터에 반영되는 것으로 인해 발생하는 것이다.

 

p220

인공지능에 법인격이 부여되는 것이 법적 책임에 관한 문제의 해결에 도움이 될 것인지 생각해보자.

문제를 단순화시켜서 직관적으로 생각해보면, 인공지능에 법인격을 부여하면 문제 상황이 발생할 때 인공지능이 탑재된 기계 하나만 폐기하면 되는 것 아니냐는 반응이 있을 수 있다. 그런데 그렇게 될 경우, 인공지능이 탑재된 로봇이나 기계를 각각의 법인으로 만드는 방식이 오히려 책임을 회피하는 용도로 쓰이게 될 수 있다는 우려가 나타날 수 있다.

한편, 문제가 발생할 때 해당 로봇이나 기계를 폐기하더라도 당초에 문제를 야기한 계기가 된 알고리즘이나 관련 데이터는 계속 남아 있는 것이 아닌가 하는 질문도 제기될 수 있다. 이처럼 실무적인 차원에서는 법인격 부여와 관련된 질문은 계쏙해서 제기될 수 있고, 인공지능 맥락에서의 법인격 개념에 대한 현실적 유용성에 대해서도 질문이 계속 나타날 수 있다.

 

p246

트롤리 딜레마가 던지는 질문은 사회윤리적 차원에서의 근본적인 가치체계에 대한 고민을 안겨주는 것이다. 하지만 자율주행차와 관련된 질문은 그 외에도 매우 다양하다. 근본적인 가치체계에 대한 것도 있고, 기술적인 사항에 관한 질뭉도 있고, 정책적인 판단에 관한 질문도 있다.

 

p251

우리가 인공지능 세상에 대해 가지는 가장 궁극적인 질문은 인공지능을 얼마나 믿을 수 있겠느냐 하는 것이다. 결국 신뢰 문제로 귀결되는 것이다. 앞서 인공지능의 투명성이나 설명가능성에 대해 논의를 했지만, 이런 개념이 중요한 화두로 제시되는 커다란 이유는 아직 우리가 인공지능에 대해 충분한 신뢰를 형성하지 못하고 있다는 것이 배경에 있다. 만일 인공지능이 사회적 규범을 적절히 반영하여 '좋은' 판단을 할 것이라는 신뢰가 충분히 형성된 상황이라면, 투명성이나 설명가능성에 대한 요구가 크게 줄어들 것이다.

 

반응형