AI가 만든 기발한 문제 해결 규칙이 실제로는 가끔 잘못된 가정에 기초하고 있을 때도 있다.
예를 들어, 어떤 프로그래머가 했던 AI 실험 중에는 마이크로 소프트의 이미지 인식 제품을 이용한 것이 있었다.
그가 AI에게 이미지를 제출하면, 그게 뭐가 되었든 AI가 살펴보고 태그와 자막을 달아주는 제품이었다.
평소에는 이 알고리즘이 이미지를 잘 알아본다.
구름이나 전철, 어린아이가 스케이트 보드를 타고 재주를 부리는 것까지 식별한다.
그런데 어느 날 이 제품이 내놓은 결과 중에 이상한 것을 하나 알아챘다. 이 제품이 '양'이라고 태그를 달았는데, 사진에는 양이 한 마리도 없었던 것이다. 좀 더 조사를 해보니 이 제품은 풀이 무성한 들판을 보고 자꾸만 양이라고 인식하는 경향이 있었다. 여러분도 그 유명한 사진을 알 것이다. 마이크로소프트 배경화면으로 뜨는 벌판과 산이 드넓게 펼쳐진 그 사진 말이다!
왜 자꾸만 이런 오류가 나는지 확인을 해보니, AI를 훈련시킬 때 들판에 있는 양만 보여 주었는데, '양'이라는 자막이 저 푸른 초원이 아니라 이 동물을 가리킨다는 사실을 프로그램이 까닫지 못한 것일 수도 있었다.
다시 말해, AI가 엉뚱한 것을 보고 있었을 가능성이 있다.
프로그래머가 초원이 '아닌' 곳에 있는 양을 보여주었더니, AI는 혼란스러워했다. 차에 있는 양을보여주었더니 '개'나 '고양이'로 태그를 달았고, 거실에 있는 양이나 사람이 품에 안고 있는 양도 '개' 나 '고양이' 라고 표시했다.
가죽끈을 묶은 양은 개로 식별했다. 이 AI는 염소에 관련해서도 비슷한 문제점들을 안고 있었다. 염소가 나무를 타고 올라가고 있으면(염소들은 종종 그렇게 한다.) 알고리즘은 그게 기린이라고 생각했다.
확실히 알 수는 없었지만, AI 가 '푸른초원 = 양 떼', '자동차나 부엌에 있는 털 = 고양이' 같은 규칙을 만들어 낸 것이 아닌가 짐작됐다. 이런 규칙이 훈련 과정에서는 좋은 결과를 만들어 냈지만, 현실세계에서는 양과 관련 된 온갖 상황을 마주하다 보니 들어맞지 않은 것이다.
훈련 과정에서 생기는 이런 오류는 이미지 인식 AI에서는 흔한 일이다.
하지만 AI가 이렇게 실수를 할 경우, 그 결과는 심각할 수 있다. 한번은 스탠퍼드 대학교의 어느 연구 팀이 건강한 피부와 피부암 사진을 구분하도록 AI를 훈련시킨 적이 있었다. 하지만 훈련시켜 놓고 보니, 의도치 않게도 그들이 만든 것은 눈금자를 감지하는 AI였다. 데이터세트에 있는 종양 다수가 사이즈 측정을 위해 눈금자를 옆에 대고 촬영한 탓이었다!!!
이처럼 AI가 실수를 하는 경우가 종종 있는데, 이런 오류를 나타낼 가능성이 있는지 여부를 알아내기 어려운 경우들이 종종 있다. 우리가 규칙을 어디에 써놓는 것도 아니고, AI가 스스로 규칙을 만들고 그 규칙을 어디에 써놓거나 인간에게 설명해 주는 것도 아니기 때문이다. 대신에 AI는 복잡한 상호 의존적인 수정을 거쳐서 자체적으로 내부 구조를 세우는 방식으로, 일반적인 틀을 개별 과제에 맞게 미세 조정된 무언가로 만들어 낸다.
마치, 일반적인 재료가 가득한 주방으로 시작해 쿠키로 끝을 맺는 것과 같다. 그 규칙들은 가상의 뇌 세포 사이에 놓인 연결 관계나, 어떤 가상의 유기체가 지닌 유전자 속에 저장되어 있을지도 모른다. 그 규칙들은 복잡하고, 넓게 분포하고, 괴상하게 서로 얽혀 있을지도 모른다. AI 의 내부구조를 연구하는 것은 뇌나 생태게를 연구하는 것과 아주 흡사하다.
알파고와 이세돌의 경기를 다시 생각해 보시라! 알파고 는 수백만판의 대국을 스스로 두고 결과값을 찾아냈고, 그 안에서 매번 한수한수를 둘 때마다 알파고 내부에서 벌어지는 연산을 이해하는 것은 절대 쉬울 일이 아니라는 것을 이해할 수 있을 것이다!
연구자들은 AI가 어떻게 의사 결정을 내리는지 알아내려고 노력 중이다. 하지만 일반적으로는 어느 AI의 내부 규칙이 무엇인지 실제로 알아내기는 어렵다. 어떤 때는 그냥 그 규칙들이 이해하기 어려운 내용이어서 그럴 때도 있고, 또 상업용 알고리즘이나 저우의 알고리즘의 경우처럼 알고리즘 자체가 지적 재산이어서 그럴 때도 있다. 그래서 안타깝게도 때로는 이미 사용하고 있는 알고리즘에서, 알고리즘이 생사에 영향을 주거나 실질적인 해악을 유발하는 의사 결정을 내리고 있는 도중에 문제가 드러난다.
한 가지 예로 죄수들의 가석방을 판단하는 데 사용되는 AI가 편견을 가진 의사 결정을 내리고 있다는 것이 발견된 적도 있다. AI가 훈련 과정에서 발견한 인종차별주의자의 행동을 자신도 모른 채 모방하고 있었던 것이다. AI는 편향이라는게 무엇인지조차 모르면서도 편향된 결정을 내릴 수 있다.
그리고 많은 AI들이 인간을 모방하는 방식으로 학습한다.
그런 AI 들은 '최선의 해결책이 무엇인가?' 라는 질문에 답하고 있는게 아니라, '인간이라면 어떻게 했을 것인가?' 라는 질문에 답하고 있다.
체계적으로 편향성을 테스트한다면, AI가 어떤 해악을 끼치기 전에 이런 문제점을 잡아내는 데 도움이 될 수 있다. 하지만 또 하나 병행해야 할 일은 문제가 발생하기 전에 그것을 예측하는 법을 배우고, 문제가 발생하지 않도록 AI를 설계하는 것이다.
AI가 초래할 재난이라고 하면, 사람들은 AI가 모든 명령을 거부하거나, 모든 인간을 죽여야겠다고 결정하는 못ㅂ, 또는 영화 <터미네이터 Terminater> 속 로봇의 모습을 떠올린다. 하지만 이런 재난 시나리오는 어느 수준 이상의 비판적 사고와 인간과 비슷한 수준의 세상에 대한 이해를 전제하고 있다. 가까운 미래에 AI 가 그런 능력을 보유할 수는 없을 것이다. 세계 최고의 기계학습 연구자인 앤드루 응의 말마따나, AI가 세상을 접수할 걱정을 하는 것은 화성에 인구가 너무 많아질까 걱정하는 것과 비슷하다.
그렇다고 해서 오늘날의 AI가 문제를 유발하지 않는다는 말은 아니다. 프로그래머를 약간 짜증나게 만드는 경우부터, 선입경을 고착화하거나 자율주행차의 사고를 유발하는 경우에 이르기까지, 지금의 AI를 완전 무해하다고 말할 수는 없다.
그러나 AI에 관해 조금만 알면 이런 문제들 가운데 일부는 우리가 예측할 수 있다.
만일 실제로 AI가 문제를 일으킨다면 어떤 문제가 일어날지, 그리고 AI에 대해 어떤 문제가 일어나게 할 수 있는지에 대해서, AI의 세번째 이야기로 추가로 이야기를 해 볼 것이며, 또한 이어진 에피소드에서 그렇다면, AI를 실제로 이용할 수 있는 분야와, 아직은 이용할 수 없는 분야는 무엇인지에 대해서도 또한 이야기를 계속해 보고자 한다.
'IT and AI' 카테고리의 다른 글
AI에 대한 네번째 이야기 : AI가 뛰어난 기능을 보이고 있는 분야 (0) | 2022.06.20 |
---|---|
AI에 대한 이야기 그 세번째 : AI는 언제 실수를 하는가? (0) | 2022.06.20 |
AI에 대한 이야기 그 첫번째 (0) | 2022.06.20 |
정보보호 보안기술의 요구사항(ISO 27001 : 2013) 3부 (0) | 2022.06.20 |
정보보호 보안기술의 요구사항(ISO 27001 : 2013) 2부 (0) | 2022.06.19 |