조선비즈 | 조선비즈K | Tech Chosun | 조선일보
알파고로 본 인공지능의 한계와 미래 목표 바꿀 줄 모르는 게 현재 인공지능의 한계
  > 2016년03월 142호 > 연중기획
알파고로 본 인공지능의 한계와 미래 목표 바꿀 줄 모르는 게 현재 인공지능의 한계
기사입력 2016.03.25 23:32

이세돌 9단과 구글 인공지능 알파고의 대결이 알파고의 승리(4 대 1)로 끝났다. 이번 세기의 대결은 인공지능의 발전 가능성과 한계를 동시에 보여줬다. 사람처럼 바둑을 두는 것으로 보이는 알파고에서 직관력을 발견할 수 있었다는 견해가 나왔다. 어이없는 수를 둘 때는 알파고도 약점과 한계가 있다고 느꼈다. 둘 다 틀린 이야기는 아니다. 분명한 것은 알파고를 통해 인공지능 기술의 ‘대단함’을 우리 모두 목격했다는 점이다.


알파고는 대국 내내 ‘외줄타기’를 했다

30년 전인 1980년대 인공지능 연구의 붐이 일었다. 당시 인공지능은 프로그래밍 수준에 그쳤다. 사람이 컴퓨터에 지식을 입력하면 프로그래밍에 따라 인공지능 컴퓨터는 사람이 원하는 답이나 판단을 내렸다.

알파고로 대변되는 현재 인공지능의 가장 큰 특징은 스스로 학습한다는 것이다. 알려진 바와 같이 바둑에서 경우의 수는 10의 170제곱에 이른다. 우주의 원자 수보다 많다. 모든 경우의 수를 탐색하는 것은 불가능하며 효율적이지도 않다. 알파고도 모든 경우의 수를 계산해낸 것은 아니다.

알파고는 3000만 번의 착점 학습을 하는 과정에서 몬테카를로 트리 서치 이론을 적용하고 다음 착점의 후보를 빠르게 찾는 ‘정책망’과 승률이 높은 수를 찾는 ‘가치망’을 여러 층으로 나눠 적용하며 스스로 최적의 수를 찾는 방법을 익혔다.

알파고는 대국 내내 ‘외줄타기’를 했을 것이다. 이세돌 9단처럼 인간 최고의 고수를 상대하다 보면 약점을 드러낼 수밖에 없다. 알파고가 한 수를 둘 때마다 최적의 수를 찾을 확률이 90%라고 해보자. 첫 수가 최적일 확률이 90%였다면 두 번째 수는 90%의 90%의 확률, 즉 81%의 확률로 최적의 수를 찾게 된다. 둘 때마다 10%가량 낮아지는데 다섯 수 만에 최적의 수를 찾을 확률은 50% 아래로 내려간다. 한 번 ‘삐끗’하면 외줄에서 떨어지는 것이다. 이세돌 9단이 승리한 4국 때 나온 알파고의 어이없는 수가 이런 경우에 해당되는 것으로 보인다.

그러나 알파고는 끝까지 흔들리지 않는 모습을 보였다. 그런 점에서 딥마인드의 연구자들은 대단한 성취를 이뤄낸 것이다.


목표를 변경할 줄 모르는 알파고, 인공지능의 한계 보여줘

알파고를 통해 본 인공지능의 한계는 목표를 변경할 줄 모른다는 것이다. 바둑은 규칙과 승패가 명확하다. 알파고는 바둑에서 이기기 위해 스스로 학습한 인공지능이다.

알파고의 인공지능을 주식 투자에 활용한다고 보자. 인간은 주가가 어느 정도 올랐을 때 만족하고 투자를 멈출 수 있다. 상황에 따라 유연하게 목표를 바꾼다. 인공지능이 하기 어려운 부분이다. 인공지능은 인간이 설정한 목표에 따라서만 작동한다. 물론 알파고처럼 진보한 인공지능은 목표가 주어지면 스스로 방법을 찾아낸다. 그러나 상황에 따라 목표를 스스로 설정하는 인공지능은 아직 없다. 인간이 가진 유연성과 융통성을 현재로선 기계가 갖추긴 어렵다.

데미스 허사비스 구글 딥마인드 CEO는 범용 인공지능 플랫폼 개발을 목표로 제시했다. 이를 위해 목표를 스스로 바꾸는 유연한 인공지능 연구를 할 것으로 보인다. 생각보다 어렵고 시간이 오래 걸리는 연구지만 딥마인드 개발자들의 역량이라면 해낼 것으로 예상된다.


‘안전한’ 의료 인공지능, 자율주행차 나올 수 있을까

인공지능이 여러 분야에서 상용화한다면 가장 신경 써야 하는 부분은 ‘안전’이다. 질병 진단과 약 처방을 자동으로 하는 의료용 인공지능과 항상 위험이 도사리고 있는 도로에서의 자율주행은 위험할 수 있다. 한 번의 실수로 ‘외줄타기’에서 떨어져 최악의 상황을 맞을 수 있는 것에 비유할 수 있다.

물론 반론도 있다. 이번 대국을 보면서 구글의 무인 자율주행차가 사람이 운전하는 차보다 더 안전할 수 있다는 생각이 들었다. 자율주행차는 음주운전이나 졸음운전에 의한 사고를 내지 않는다. 인공지능이 어쩌면 사람보다 더 안전할 수 있다는 것이다.


인공지능의 오류를 감시하는 인공지능 나온다

그래도 사람들은 인지과학적으로 100번을 잘해도 1번 잘못하면 잘못한 부분만 문제 삼는 경향이 있다. 따라서 사고를 방지하는 기술은 인공지능의 중요한 연구 주제다. 인공지능의 오류를 감시하는 상위 개념의 인공지능도 나올 수 있다. 세계인공지능학회는 이미 상위 개념의 인공지능을 고민하기 시작했다. 테슬라의 일론 머스크는 2014년 1월 안전한 인공지능을 개발해달라며 연구비 100억원을 학회에 기증했다.

‘트랜스 휴머니즘’이라는 새로운 연구 분야도 나오고 있다. 영국 옥스퍼드대 연구진은 인공지능을 통해 인간이 죽은 뒤에도 후손과 대화하는 기술을 연구 중이다. 개인 데이터를 축적한 뒤 ‘아바타’처럼 만들어 증손자와 상황에 맞게 대화할 수 있도록 인공지능을 만드는 연구다. 개인의 생전 경험을 단편적으로 공유할 수 있는 수준이다. 당시의 감정을 전달할 인공지능은 아직 없다.

다음 세대의 인공지능은 목표를 스스로 정할 수 있는 단계로 갈 것이다. 아직 요원하긴 하다. 다음으로는 감성이나 사회성도 갖출 가능성이 높다. 자율성이나 자유의지를 지닌 인공지능의 초기 단계다. 인공지능이 정말 무서워지는 시기는 인공지능이 거짓말을 할 수 있게 되면서부터일 것이다.


한국의 인공지능 연구, 딥마인드를 선뜻 인수할 대기업이 없는 게 문제

끝으로 한국의 인공지능 연구를 활성화하기 위해서는 딥마인드의 개발자처럼 창의적인 생각을 할 수 있는 인재 육성이 필요하다. 또 유연한 사고와 비즈니스 감각을 갖춘 엔지니어나 수학, 과학, 공학적인 기초 소양을 지닌 인재가 필요하다. 무엇보다도 딥마인드 같은 회사를 인수할 수 있는 국내 기업이 있을지가 관건이다. 바둑을 연구하면 다른 응용 분야까지 적용할 수 있는데 우리는 이미 응용 분야로 만들어진 것만 관심을 가진다. 문화적으로 부족한 현실이 안타까운 것이다.


▒ 장병탁
서울대 컴퓨터공학과, 독일 본대학 컴퓨터공학 박사, 독일국립정보기술연구소 연구원, 건국대 컴퓨터공학과 조교수, 현 서울대 컴퓨터공학과 교수.

기사: 장병탁 서울대 컴퓨터 공학과 교수
정리: 김민수 조선비즈 산업2부 기자
사진: C영상미디어 김종연
 
다음글
이전글 ㆍ“인간이 기계보다 잘할 수 있는 일 고민할 때”


ⓒ 조선경제아이 & economychosun.com 무단 전재 및 재배포 금지
2017.06
[205호]
리더를 위한 고품격 경제주간지 <이코노미조선> 공식 사이트입니다.
뉴스레터 신청하기
자주묻는질문 1:1온라인문의
독자편지 정기구독문의
배송문의 광고문의
고객불만사항

광고문의: 02-724-6037