IT and AI

AI에 대한 열번째 이야기 : AI에게 정말로 요구하고 싶은 것은?

창업가 2022. 6. 22. 00:11

 언젠가 나는 경마에 돈을 걸어서 이익을 극대화할 수 있는 인공신경망을 만들려고 했다. 인공신경망은 최선의 전략은 돈을 걸지 않는 것이라고 했다.

- citizen of law

나는 로봇이 벽에 부딪치지 않게 로봇을 진화시키려고 했다.

  1. 로봇은 움직이지 않는 쪽으로 진화했다. 그래서 벽에 부딪치지 않았다.....
  2. 움직임을 추가했다. 로봇은 제자리에서 회전했다.
  3. 전진과 후진을 추가했다. 로봇은 작은 원을 그리며 돌았다.
  4. 그리고 수 많은 시행착오의 결과들.....
  5. 그 결과 나온 책의 제목 : <<AI는 어떻게 프로그래머를 진화시키는가>>

- Douglas  

나는 로봇 청소기에 인공 신경망을 연결했다. 나는 로봇 청소기가 물건에 부딪치지 않고 돌아다니는 법을 학습하길 바랐다. 그래서 속도는 높이고, 범퍼 센서에 부딪치는 것은 피하는 것에 보상을 주도록 설정했다. 로봇 청소기는 뒤로 주행하는 법을 학습했다. 후면에는 범퍼가 없었기 때문이다.

-swiming

내 목표는 로봇 팔을 훈련시켜서 팬케이크를 만드는 것이다. 첫번째 테스트로 나는 로봇 팔이 팬케이크를 접시에 던져놓게 만들었다... 첫 번째 보상시스템은 간단했다. 사이클이 유지되면 매 프레임마다 작은 보상을 주는데, 만약 팬케이크가 땅바닥에 닿으면 사이클이 끝나버리게 만들었다. 이렇게 하면 알고리즘이 최대한 오랫동안 팬케이크를 팬에 둘줄 알았다. 그러나 실제 로봇 팔이 한 것은 팬케이크를 최대한 높이 던지는 것이었다. 팬케이크가 공중에 머무는 시간이 최대화 되도록 말이다. 결국 로봇이 이겼다. 

- 크리스틴

앞서 본 것처럼, 실수로 잘못된 데이터나 부적절한 데이터를 주어서 본의 아니게 AI를 방해하는 방법은 무수히 많다. 그런데 AI 가 실패하는 또 다른 유형이 있다. AI는 우리가 하라는 일을 성공적으로 해냈으나, 우리가 시킨 일이 실제로 우리가 원했던 일이 아니라는 걸 뒤늦게 알게 되는 경우다. 

 AI는 왜 그렇게 자꾸만 엉뚱한 문제를 푸는 걸까? 

  1. AI는 한 단계, 한 단계 프로그래머의 지시를 따르는 것이 아니라, 스스로 문제 해결책을 개발한다.
  2. 맥락에 대한 지식이 없기 때문에, AI는 자신이 내놓는 해결책이 인간이 선호할 만한 해결책이 아니라는 사실을 모른다. 

문제를 해결하는 방법을 찾아내는 것은 AI가 하더라도, 프로그래머는 여전히 AI가 실제로 제대로 된 문제를 풀었는지 확인해야 한다. 거기에는 보통 다음과 같은 많은 노력이 필요하다. 

  1. AI가 유용한 답변만 내놓도록 목표를 아주 분명하게 정의한다.
  2. 목표가 명확하더라도, AI가 유용하지 않은 해결책을 생각해 낸 것은 아닌지 확인한다.

AI가 의도치 않게 잘못 해석하는 일이 없도록 목표를 명확하게 생각해 내는 것은 여간 까다로운 일이 아니다. 특히나 잘못 해석한 버전의 과제가 실제 우리가 AI에게 원하는 작업보다 더욱 쉬울 경우에는 말이다.(이런 우회로를 선택하지 않고 우직하게 새로운 답변을 찾고 싶어서 AI를 연구했건만, 실제로 AI를 잘 활용하기 위해서는 결국 AI 운영자의 피와 뼈와 살이 요구가 된다. 이런 부분에 대해 제대로 관리되지 않는경우, 자칫 잘못하면 스카이넷이 탄생하는 순간을 우리는 목도하게 될지도 모른다.) 

 문제는 AI가 전후 사정이나, 윤리, 기본적인 생물학을 고려할 수 있을 만큼 자신의 과제에 관해 충분히 알지 못한다는 사실이다. 아니, 솔직히 AI 입장에서는 새로운 문제를 해결하는 것만으로도 벅찬데, 그런 맥락까지 신경쓰고 있을 여유가 없다는 것이 더욱 더 맞는 표현이라고 볼 수 밖에 없다. AI가 건강한 폐 사진과 병에 걸린 폐 사진을 분류할 수 있다고 해도, 여전히 폐가 어떻게 작동하는지, 크기는 얼마나 되는지, 심지어 페가 인간 몸속에 있는지조차 모를 수 있다. 인간이 무엇인가는 차지하고 서라도 말이다.

 AI는 상식이라는 것도 없고, 문제를 더 명확히 말해달라고 요구할 줄도 모른다. AI에게 목표를 주면, 다시 말해 주행거리나 비디오 게임에서 얻어야 할 점수처럼 모방할 데이터나 극대화할 보상 함수 reward function를 주면, AI는 단지 시키는 일을 할 것이다. 실제로 우리가 원하는 문제를 해결했든 못했던 말이다. 

 "나는 AI를 거의 악마라고 부르는 지경까지 갔다. 나의 보상을 일부러 잘못 해석하고, 가장 게으르고 지엽적인 해결책만 열심히 찾아다니는 악마 말이다. 좀 우습기도 하지만 이것이 실제로는 생산적인 사고 방식이라는 것을 알게 됐다." 구글에서 AI를 연구하는 알렉스 어팬이 쓴 글이다.

 또 어떤 프로그래머는 가상의 로봇 강아지에게 걷기 훈련을 시켜보려고 했다. 강아지들은 경련을 일으키듯 움찔 거리며 바닥을 돌아다녔고, 뒷다리를 꼰채 이상한 팔굽혀펴기를 하더니, 그 자리를 떠나지 않으려고 시뮬레이션의 물리 모형을 해킹하기까지 했다. 다음은 엔지니어인 스털링 크리스핀이 트위터에 쓴 글이다.

 "나는 뭔가 진전이 있는 줄 알았다.... 하지만 이 멍청이들은 물리 모형의 시뮬레이션에서 작은 결함을 하나 찾아내 바닥을 미끄러지듯이 활강하고 다녔다. 사기꾼이 따로 없다."
 말 그대로 걷는 것을 시키려는 크리스핀은 걷는 것만 빼고 뭐든 하려는 로봇과 씨름하느라, 넌덜머리가 난 것이었다....

 이처럼 AI에 대해 새로운 것을 습득시키고자 시뮬레이션을 만드는 일 자체도 쉬운일은 아니지만, 시뮬레이션을 만들고 실질적으로 AI에게 새로운 학습을 시작한다고 하더라도 그 과정은 참으로 처참하다. 유치원 생들을 대상으로 새로운 무언가를 가르치거나, 갓 태어난 강아지에게 복잡한 훈련을 가르치는 것과 동일하다는 말이다. AI는 만능의 해결책을 찾을 수 있는 무언가가 아니고, AI가 적절한 해결책을 찾기까지는 얼마나 많은 프로그래머나 연구자들의 피와 땀 그리고 눈물을 흘렸을지를 잊지 말아야 한다. 가치판단을 할 수 있는 스카이넷은 아마 2100년 이후에나 등장할 가능성이 매우 높다.....

이걸 다행이라고 해야 되나.....그러나 가치판단을 하지 못하더라도 AI가 성급한 판단을 내리고 가치판단 없이 인간에게 잔혹한 결과를 낼 수 있는 결론을 내는 것은 언제나 가능하다. 그렇기 때문에 AI가 만능의 해결사라는 것도 아니고, 인간의 일자리가 손쉽게 AI에게 대체될 수도 없을 것이니, 인간 제군들은 안심해도 좋다! 

반응형