[2019-2] 이준환 교수 <인공지능 소설사? 로봇 저널리즘?>
김민정2020-12-06 22:26
[002 고*환]
<창의성에 대한 판단 기준, 튜링 테스트>
영상을 보고 많은 사람들이 놀랍게 느꼈을 부분은 바로 인공지능이 문학창작의 영역에서도 적용되고 있다는 사실일 것이다. 비록 그 창작의 수준이 아직은 단순한 문장과 단어의 조합에 불과할 지 몰라도, 인간 고유의 능력이라 자부했던 창의성의 영역에 대한 일정한 도전으로 생각할 수도 있다. 이준환 교수님께서 말씀하셨듯이, 인간 역시 수많은 문학작품을 접했던 경험으로부터 창의적인 글을 작성하는 것이라면, 더 발달된 인공지능이 미래에는 인간과 유사한 수준의 창작을 하지 못할 것이라고 단정짓는 것은 무리가 있어보인다.
그렇다면, 우리는 기계가 생성한 문학작품에 대한 창의석의 평가를 어떻게 해야할까? 문학에 있어서 인공지능의 한계를 강조하는 입장에서는, 인간의 경험과 사상으로부터 우러나오는 함의가 담겨있어야 그 작품이 비로소 의미를 갖고 '창의적'이라고 평가를 받을 수 있다고 말할 것이다. 그러나 이렇게 오로지 생산의 원리와 방식에 비추어서 창의성의 여부를 평가하는 방법을 고집할 근본적인 이유를 존재한다고 말하기 어렵다. 만약 인공지능이 만든 문학작품을 보고 독자들이 사람의 작품인지, 기계의 작품인지 판단할 수 없는 수준에 이르른다면, 그것이 특정 알고리즘에 의해서 생성되었다고 해서 인간의 작품보다 가치가 덜하다고 볼 수 있을까?
현대 자본주의 사회에서 재화는 생산자의 의도도 중요하지만, 그보다도 소비자가 어떻게 사용하는지에 따라 가치가 결정되는 경우가 많다. 생산자가 고상한 의미를 가지고 무엇을 만들었다고 해도, 그것을 소비자가 원하지 않는다면, 시장에서는 가치가 낮게 매겨진다. 문학은 단순한 재화가 아니기에 이를 창작한 사람의 의도가 중요하겠지만, 그러한 의미라 사람들에게 전달되는지의 여부가 보다 중요하다고 볼 수 있을 것이다. 따라서 만약 인공지능이 창작한 문학작품을 보고 사람들이 특정 감정을 느끼고 교훈을 얻어갈 수 있다면, 이 역시 인간이 만든 동일한 수준의 문학작품과 가치를 동등하게 평가할 여지도 존재한다.
우리가 창의성이라는 것을 정의할 때, 기계가 할 수 없는 것, 우리가 말이나 특정 법칙으로 설명할 수 없는 것이라고 하는 것은 오히려 인간의 오만일지 모른다는 생각이 든다. 그보다도 작품의 창의성을 그 작품을 향유하는 소비자들이 느끼는 바에 맡기는 것도 하나의 방법일 수 있겠다.
*튜링 테스트 : 인공지능 연구 초기 단계에 지능에 대한 명확한 정의가 자리잡지 않은 상황에서 앨런 튜링이 "인간이 보기에 인간 같은 것"을 지능이 있는 것으로 간주하자는 의견을 제시하여 이를 기반으로 만들어진 실험을 의미한다. 즉, 평가의 대상이 사람인지, 컴퓨터인지 판별할 수 없다면 그 컴퓨터는 시험을 통화하여 인간에 준하는 지능을 갖춘 것으로 판단을 하자는 것이다.
<창의성에 대한 판단 기준, 튜링 테스트>
영상을 보고 많은 사람들이 놀랍게 느꼈을 부분은 바로 인공지능이 문학창작의 영역에서도 적용되고 있다는 사실일 것이다. 비록 그 창작의 수준이 아직은 단순한 문장과 단어의 조합에 불과할 지 몰라도, 인간 고유의 능력이라 자부했던 창의성의 영역에 대한 일정한 도전으로 생각할 수도 있다. 이준환 교수님께서 말씀하셨듯이, 인간 역시 수많은 문학작품을 접했던 경험으로부터 창의적인 글을 작성하는 것이라면, 더 발달된 인공지능이 미래에는 인간과 유사한 수준의 창작을 하지 못할 것이라고 단정짓는 것은 무리가 있어보인다.
그렇다면, 우리는 기계가 생성한 문학작품에 대한 창의석의 평가를 어떻게 해야할까? 문학에 있어서 인공지능의 한계를 강조하는 입장에서는, 인간의 경험과 사상으로부터 우러나오는 함의가 담겨있어야 그 작품이 비로소 의미를 갖고 '창의적'이라고 평가를 받을 수 있다고 말할 것이다. 그러나 이렇게 오로지 생산의 원리와 방식에 비추어서 창의성의 여부를 평가하는 방법을 고집할 근본적인 이유를 존재한다고 말하기 어렵다. 만약 인공지능이 만든 문학작품을 보고 독자들이 사람의 작품인지, 기계의 작품인지 판단할 수 없는 수준에 이르른다면, 그것이 특정 알고리즘에 의해서 생성되었다고 해서 인간의 작품보다 가치가 덜하다고 볼 수 있을까?
현대 자본주의 사회에서 재화는 생산자의 의도도 중요하지만, 그보다도 소비자가 어떻게 사용하는지에 따라 가치가 결정되는 경우가 많다. 생산자가 고상한 의미를 가지고 무엇을 만들었다고 해도, 그것을 소비자가 원하지 않는다면, 시장에서는 가치가 낮게 매겨진다. 문학은 단순한 재화가 아니기에 이를 창작한 사람의 의도가 중요하겠지만, 그러한 의미라 사람들에게 전달되는지의 여부가 보다 중요하다고 볼 수 있을 것이다. 따라서 만약 인공지능이 창작한 문학작품을 보고 사람들이 특정 감정을 느끼고 교훈을 얻어갈 수 있다면, 이 역시 인간이 만든 동일한 수준의 문학작품과 가치를 동등하게 평가할 여지도 존재한다.
우리가 창의성이라는 것을 정의할 때, 기계가 할 수 없는 것, 우리가 말이나 특정 법칙으로 설명할 수 없는 것이라고 하는 것은 오히려 인간의 오만일지 모른다는 생각이 든다. 그보다도 작품의 창의성을 그 작품을 향유하는 소비자들이 느끼는 바에 맡기는 것도 하나의 방법일 수 있겠다.
*튜링 테스트 : 인공지능 연구 초기 단계에 지능에 대한 명확한 정의가 자리잡지 않은 상황에서 앨런 튜링이 "인간이 보기에 인간 같은 것"을 지능이 있는 것으로 간주하자는 의견을 제시하여 이를 기반으로 만들어진 실험을 의미한다. 즉, 평가의 대상이 사람인지, 컴퓨터인지 판별할 수 없다면 그 컴퓨터는 시험을 통화하여 인간에 준하는 지능을 갖춘 것으로 판단을 하자는 것이다.
김민정2020-12-06 22:27
[002 김*우]
페이크 뉴스와 관련하여 인공지능의 발달이 가져올 법적 문제에 대해 고민하게 되었다. 과연 누구의 책임인가. 자유주행 자동차의 경우도 마찬가지이다. 사고가 나면 그것은 인공지능을 만든 개발자의 잘못인가, 인공지능을 구입하여 사용한 사용자의 잘못인가. 인공지능이 아닌 다른 기술이나 제품의 경우를 생각해보자. 대부분 사용자에게 그 책임이 있다. 칼을 사용하다 베이거나 자전거를 타다 넘어져도 만들 사람을 탓하지는 않는다. 그러나 제품 자체의 결함, 즉 여러 사용자에게 공통적으로 피해가 가는 경우 그 제품이나 기술을 개발한 사람은 책임을 지는 경우도 있다. 인공지능의 경우 미묘하게 다르긴 하지만 비슷한 맥락으로 사용자가 책임을 진 후 제품 자체의 결함이 발견되면 그때 개발자에게 책임을 물어야 하지 않을까 생각한다.
위의 경우는 인공지능의 판단 범위를 좁게 설정해두었을 때다. 그러나 영상에서 이준환 교수가 말했듯 먼 미래이긴 하지만 인공지능이 아예 새로운 제안, 판단을 내릴 수 있게 되고 그 판단대로 실행하는 것을 허용했을 때 나타나는 사고는 누구의 책임인가는 또 다른 문제이다. 인공지능 자체를 처벌하고 책임을 지게 할 수 있을까. 인공지능에게 책임을 지게 한다는 것은 인공지능을 인간처럼 하나의 ‘자아’로 인정하는 꼴이 될 수 있다. 이 부분에 대해서는 철학적인 측면의 고찰이 필요해 보인다.
페이크 뉴스와 관련하여 인공지능의 발달이 가져올 법적 문제에 대해 고민하게 되었다. 과연 누구의 책임인가. 자유주행 자동차의 경우도 마찬가지이다. 사고가 나면 그것은 인공지능을 만든 개발자의 잘못인가, 인공지능을 구입하여 사용한 사용자의 잘못인가. 인공지능이 아닌 다른 기술이나 제품의 경우를 생각해보자. 대부분 사용자에게 그 책임이 있다. 칼을 사용하다 베이거나 자전거를 타다 넘어져도 만들 사람을 탓하지는 않는다. 그러나 제품 자체의 결함, 즉 여러 사용자에게 공통적으로 피해가 가는 경우 그 제품이나 기술을 개발한 사람은 책임을 지는 경우도 있다. 인공지능의 경우 미묘하게 다르긴 하지만 비슷한 맥락으로 사용자가 책임을 진 후 제품 자체의 결함이 발견되면 그때 개발자에게 책임을 물어야 하지 않을까 생각한다.
위의 경우는 인공지능의 판단 범위를 좁게 설정해두었을 때다. 그러나 영상에서 이준환 교수가 말했듯 먼 미래이긴 하지만 인공지능이 아예 새로운 제안, 판단을 내릴 수 있게 되고 그 판단대로 실행하는 것을 허용했을 때 나타나는 사고는 누구의 책임인가는 또 다른 문제이다. 인공지능 자체를 처벌하고 책임을 지게 할 수 있을까. 인공지능에게 책임을 지게 한다는 것은 인공지능을 인간처럼 하나의 ‘자아’로 인정하는 꼴이 될 수 있다. 이 부분에 대해서는 철학적인 측면의 고찰이 필요해 보인다.
김민정2020-12-06 22:27
[002 최*주]
영상자료를 보고 가장 먼저 인공지능이 인간의 의사결정에 미치게 될 영향에 대해 논해보고 싶었다. 인공지능의 발전으로 인해 인간의 지성과 판단력의 의미가 약해질 수 있다는 우려가 종종 나오곤 한다. 이에 관해 영상에서는 인간에게는 감성과 아직 뇌과학에서 밝히지 못한 수많은 지성의 요소들이 있기 때문에 인공지능이 모방할 수 있는 인간의 지성은 극히 일부에 지나지 않을 것이라고 하였다. 물론 인공지능이 모방하기 굉장히 어려울 인간에게 특화된 지성의 영역이 존재한다는 것에는 동감하나, 공적인 의사결정 상황에서는 이들보다도 인공지능에게 특화된 지성 요소가 결정적인 역할을 한다는 점에 주목해야 한다고 생각한다. 감성, 공감능력 등 인간에게 특화된 지성은 주로 비이성과 관련된 지능으로, 예측, 분류 등 인공지능에게 특화된 지성은 대부분 이성, 객관성과 관련된 지능이라고 볼 수 있다. 이성과 비이성 모두 인간이 반드시 갖춰야 하는 지성의 영역이며 우열을 가릴 수 없으나, 어떤 종류의 의사결정인지에 따라 둘 중 요긴하게 활용되는 지성이 다를 수 있다. 업무적인 의사결정을 비롯한 대부분의 공적인 의사결정에서는 회사 혹은 단체에서 중시하는 가치를 최고로 끌어올릴 수 있는 객관적이고 이성적인 판단을 내리는 것이 가장 중요할 것이며, 그렇기에 이러한 능력에 특화된 인공지능을 의사결정 과정에 중요하게 활용하는 것이 효과적일 것이다. 공적인 의사결정 상황에서 감성, 공감 능력 등 인간 고유의 지능이 더욱 중요하게 활용되어야 하는 경우는 거의 없을 것이라고 생각한다. 정리하자면, 인간이 인공지능에 비해 우월한 지능의 영역은 분명히 존재하나, 그러한 능력들이 실제 공적 의사결정 과정에서 주요하게 작용하지 않는다는 것이다. 이에 반해 사적인 의사결정 상황에서는 감성적이고 감정적이며 비효율적인 결정이 필요한 경우가 많다. 예를 들어 대인관계를 맺고 유지하는 과정에서 때론 감정적인 대처를 하는 것이 오히려 후련할 때가 있고, 우울해하는 친구를 위해 중요한 일을 미루는 경우도 존재할 것이다. 그런데 사적인 의사결정일 지라도 이성적인 판단이 중시되는 경우도 적지 않다. 예를 들어 물건을 구매할때는 비용과 편익을 분석하여 합리적인 판단을 내리는 것이 중요할 것이다. 이렇듯 사적인 의사결정에서도, 상황에 따라 이성과 비이성 중 더욱 중시되는 지성이 다르다는 것이다.
이처럼 인공지능에게 더욱 특화된 이성적, 합리적인 능력이 중시되는 의사결정 상황은 매우 많다. 물론 그 과정에서 일부 대인관계 능력, 공감 능력 등 인간 고유의 지성이 활용될 수 있겠지만, 의사결정의 주체를 묻는 질문에 선뜻 인간이라고 답하기는 어려워 보인다. 최종적으로 특정 의사결정을 승인하는 주체는 인간일 수 있지만, 과연 그를 진정한 최종 의사결정자로 보아야 할 것인가? 표면적이고 절차상의 최종결정자라는 비판도 일리가 있다고 생각한다. 인공지능 시대에서 인간의 의사결정의 주체를 누구로 보아야 할지에 대해 더 논의해볼 필요가 있다고 본다.
영상자료를 보고 가장 먼저 인공지능이 인간의 의사결정에 미치게 될 영향에 대해 논해보고 싶었다. 인공지능의 발전으로 인해 인간의 지성과 판단력의 의미가 약해질 수 있다는 우려가 종종 나오곤 한다. 이에 관해 영상에서는 인간에게는 감성과 아직 뇌과학에서 밝히지 못한 수많은 지성의 요소들이 있기 때문에 인공지능이 모방할 수 있는 인간의 지성은 극히 일부에 지나지 않을 것이라고 하였다. 물론 인공지능이 모방하기 굉장히 어려울 인간에게 특화된 지성의 영역이 존재한다는 것에는 동감하나, 공적인 의사결정 상황에서는 이들보다도 인공지능에게 특화된 지성 요소가 결정적인 역할을 한다는 점에 주목해야 한다고 생각한다. 감성, 공감능력 등 인간에게 특화된 지성은 주로 비이성과 관련된 지능으로, 예측, 분류 등 인공지능에게 특화된 지성은 대부분 이성, 객관성과 관련된 지능이라고 볼 수 있다. 이성과 비이성 모두 인간이 반드시 갖춰야 하는 지성의 영역이며 우열을 가릴 수 없으나, 어떤 종류의 의사결정인지에 따라 둘 중 요긴하게 활용되는 지성이 다를 수 있다. 업무적인 의사결정을 비롯한 대부분의 공적인 의사결정에서는 회사 혹은 단체에서 중시하는 가치를 최고로 끌어올릴 수 있는 객관적이고 이성적인 판단을 내리는 것이 가장 중요할 것이며, 그렇기에 이러한 능력에 특화된 인공지능을 의사결정 과정에 중요하게 활용하는 것이 효과적일 것이다. 공적인 의사결정 상황에서 감성, 공감 능력 등 인간 고유의 지능이 더욱 중요하게 활용되어야 하는 경우는 거의 없을 것이라고 생각한다. 정리하자면, 인간이 인공지능에 비해 우월한 지능의 영역은 분명히 존재하나, 그러한 능력들이 실제 공적 의사결정 과정에서 주요하게 작용하지 않는다는 것이다. 이에 반해 사적인 의사결정 상황에서는 감성적이고 감정적이며 비효율적인 결정이 필요한 경우가 많다. 예를 들어 대인관계를 맺고 유지하는 과정에서 때론 감정적인 대처를 하는 것이 오히려 후련할 때가 있고, 우울해하는 친구를 위해 중요한 일을 미루는 경우도 존재할 것이다. 그런데 사적인 의사결정일 지라도 이성적인 판단이 중시되는 경우도 적지 않다. 예를 들어 물건을 구매할때는 비용과 편익을 분석하여 합리적인 판단을 내리는 것이 중요할 것이다. 이렇듯 사적인 의사결정에서도, 상황에 따라 이성과 비이성 중 더욱 중시되는 지성이 다르다는 것이다.
이처럼 인공지능에게 더욱 특화된 이성적, 합리적인 능력이 중시되는 의사결정 상황은 매우 많다. 물론 그 과정에서 일부 대인관계 능력, 공감 능력 등 인간 고유의 지성이 활용될 수 있겠지만, 의사결정의 주체를 묻는 질문에 선뜻 인간이라고 답하기는 어려워 보인다. 최종적으로 특정 의사결정을 승인하는 주체는 인간일 수 있지만, 과연 그를 진정한 최종 의사결정자로 보아야 할 것인가? 표면적이고 절차상의 최종결정자라는 비판도 일리가 있다고 생각한다. 인공지능 시대에서 인간의 의사결정의 주체를 누구로 보아야 할지에 대해 더 논의해볼 필요가 있다고 본다.
김민정2020-12-06 22:28
[002 박*빈]
이번 영상을 통해 첫째, 인공지능 발전을 저해하는 규제에 관하여 생각하게 되었습니다. 영상에서는 첫째로 카풀에 관한 규제가 자율주행자동차의 발전을 저해할 수 있다는 사실을, 둘째로 무인 편의점도 국내 규제로 인해 중국에서 솔루션을 구입해야 하는 상황이라는 사실을 언급합니다. 사생활 문제에 민감한 유럽에 비해 정부 주도로 데이터를 수집할 수 있는 중국이 현재 AI개발에 유리함을 생각해 보면, 윤리적 규제와 AI발전은 상충된 관계에 있는지도 모르겠습니다. 이는 영상의 후반부에서 언급하듯이 결국 ‘사람의 윤리적인 문제가 가장 중요하다’는 명제와 연결됩니다.
인공지능이 창작 소설을 쓸 수 있다는 이슈를 소개한 다음 로봇이 기사를 쓰는 인공지능과 저널리즘 주제로 넘어가는데, 가짜뉴스와 덧글 등 윤리적인 문제를 쟁점으로 소개합니다. 현재에도 덧글과 여론 조작을 위해 사람을 고용할 뿐 아니라 프로그램 또한 사용하고 있음을 생각하면 AI의 가짜 뉴스와 현재 상황이 본질적으로 다른 점은 없을 것입니다. 그러나 문제는 AI는 훨씬 더 빨리, 그리고 빠르게 가짜 뉴스를 생성할 수 있다는 점입니다. 따라서 영상에서 소개한 팩트체크 알고리즘 이외에도, ‘누가’ 알고리즘 자체에, 그리고 생성된 결과물에 책임을 질 것이냐 하는 문제 또한 중요해질 듯합니다.
또한 본 영상에서는 AI가 해낼 수 있는 긍정적인 역할 중 1:1 맞춤형 기사를 언급하고 있는데, 이것은 역으로 정치적 공고화를 초래하는 부정적 기제로 작동하지 않을지 이야기를 나누어 보고 싶습니다. 나날이 발전하고 급속히 변화하는 현대 사회에서 다양성을 수용하는 것은 매우 중요한 역량입니다. 그러나 현재 시중에 나와 있는 많은 플랫폼이 개인의 활동, 가치관, 선택에 기반해 컨텐츠를 추천해 주는 AI를 활용하고 있고, 이는 자칫 가치관과 사고방식을 고착화시키는 수단이 될 수도 있습니다. 의무적으로 다른 영역의 컨텐츠를 추천하도록 강제하는 법안이 가능할지, 그렇지 않다면 어떤 다른 해결책이 있을지 이야기해보고 싶습니다.
이번 영상을 통해 첫째, 인공지능 발전을 저해하는 규제에 관하여 생각하게 되었습니다. 영상에서는 첫째로 카풀에 관한 규제가 자율주행자동차의 발전을 저해할 수 있다는 사실을, 둘째로 무인 편의점도 국내 규제로 인해 중국에서 솔루션을 구입해야 하는 상황이라는 사실을 언급합니다. 사생활 문제에 민감한 유럽에 비해 정부 주도로 데이터를 수집할 수 있는 중국이 현재 AI개발에 유리함을 생각해 보면, 윤리적 규제와 AI발전은 상충된 관계에 있는지도 모르겠습니다. 이는 영상의 후반부에서 언급하듯이 결국 ‘사람의 윤리적인 문제가 가장 중요하다’는 명제와 연결됩니다.
인공지능이 창작 소설을 쓸 수 있다는 이슈를 소개한 다음 로봇이 기사를 쓰는 인공지능과 저널리즘 주제로 넘어가는데, 가짜뉴스와 덧글 등 윤리적인 문제를 쟁점으로 소개합니다. 현재에도 덧글과 여론 조작을 위해 사람을 고용할 뿐 아니라 프로그램 또한 사용하고 있음을 생각하면 AI의 가짜 뉴스와 현재 상황이 본질적으로 다른 점은 없을 것입니다. 그러나 문제는 AI는 훨씬 더 빨리, 그리고 빠르게 가짜 뉴스를 생성할 수 있다는 점입니다. 따라서 영상에서 소개한 팩트체크 알고리즘 이외에도, ‘누가’ 알고리즘 자체에, 그리고 생성된 결과물에 책임을 질 것이냐 하는 문제 또한 중요해질 듯합니다.
또한 본 영상에서는 AI가 해낼 수 있는 긍정적인 역할 중 1:1 맞춤형 기사를 언급하고 있는데, 이것은 역으로 정치적 공고화를 초래하는 부정적 기제로 작동하지 않을지 이야기를 나누어 보고 싶습니다. 나날이 발전하고 급속히 변화하는 현대 사회에서 다양성을 수용하는 것은 매우 중요한 역량입니다. 그러나 현재 시중에 나와 있는 많은 플랫폼이 개인의 활동, 가치관, 선택에 기반해 컨텐츠를 추천해 주는 AI를 활용하고 있고, 이는 자칫 가치관과 사고방식을 고착화시키는 수단이 될 수도 있습니다. 의무적으로 다른 영역의 컨텐츠를 추천하도록 강제하는 법안이 가능할지, 그렇지 않다면 어떤 다른 해결책이 있을지 이야기해보고 싶습니다.
김민정2020-12-06 22:28
[002 정*화]
인공지능 저널리즘에 대한 논의는 상당히 오래 전부터 진행되어 왔다. 한국에서도 증시 등에 대한 간단한 기사를 작성할 수 있는 인공지능이 개발되고 있으며, 해외에서는 이미 상당수의 온라인 기사가 인공지능에 의해 작성됐다. 인공지능이 가까운 미래에 언론에서 중요하게 활용될 가능성이 높아 보이는 가운데, 인공지능이 도입될 경우 예상되는 문제점과 언론의 어느 수준까지 인공지능이 대체할 수 있을지에 대한 논의가 필요하다.
우선 인공지능이 딥러닝 기술을 기반으로 기사 작성 방법을 학습한 뒤 정치나 사회, 경제 영역 기사를 작성하게 됐을 때 각 언론사의 이념적 성향이 기사에 반영될 것인지에 대한 논의가 필요하다. 만약 자사 기사에 대해서만 데이터 학습을 시킨다면 언론사의 본래 정치 성향이 반영될 가능성이 높겠지만, 학습 데이터의 범위를 전체 기사로 둔다면 그렇지 않을 수 있다. 사건에 대한 다양한 관점을 학습한 인공지능이 중립적인, 혹은 균형적인 기사를 쓰게 될지, 데이터 양의 차이(일반적으로 보수 성향 일간지가 많기 때문에)로 인해 특정한 정치색을 띄게 될지, 혹은 다양한 정치 성향이 혼합된 기사가 작성될지 궁금증이 생긴다.
인공지능 저널리즘이 온라인 신문이나 종이 신문 외에도 방송 기사를 대체할 수 있을지도 궁금하다. 현재 인공지능은 딥러닝 기술을 통해 상당히 자연스러운 톤과 억양으로 말할 수 있게 됐다. 그에 따라 자료화면이나 인포그래픽이 인공지능 목소리와 합쳐져 방송 기사가 대체될 가능성도 있다고 생각한다. 실제로 인공지능이 방송사 뉴스에서도 활용된다면 기존 방송기자의 역할이 어떻게 변하게 될지도 고민할 필요가 있다.
인공지능이 투입된 데이터를 바탕으로 기사를 작성하는 것이 아니라 스스로 데이터를 수집하거나 생성해서 기사를 만들어낼 가능성은 없을까? 최근 다양한 언론사에서 시도되는 데이터 저널리즘은 다양한 형태의 데이터나 빅데이터를 수집하거나, 직접 데이터 형성에 관여함으로써 기사를 만들고 있다. 이는 인간보다 인공지능이 훨씬 잘 수행할 수 있는 영역으로 보이기 때문에 기사 기획 자체는 인간이 하더라도 실질적인 데이터 수집, 형성, 분석은 인공지능이 하게 될 가능성도 부정하기 어려울 것 같다.
마지막으로 인공지능 저널리즘에 대해 수용자가 어떻게 반응할지에 대한 논의가 필요하다. 현재 한국사회에서 기자는 '기레기'로 불릴 정도로 사회적 인식이 나쁜 직업군이다. 이때 인공지능이 기사를 작성하게 된다면 기사나 언론사에 대한 신뢰도는 상승하게 될까? (의도적으로 페이크 뉴스를 만들지 않는다면, 혹은 데이터에 오류가 있지 않다면) 증시나 스포츠 경기, 스트레이트 보도는 인공지능이 더 정확한 보도를 할 가능성이 높아 보인다. 그러나 정치적, 이념적 성향이 개입될 수 있는 대부분의 보도에 대해 수용자가 인공지능을 신뢰할 수 있을지는 미지수다. 그리고 만약 인공지능이 데이터 학습에 의해 편파적 보도를 하거나 혐오적인 표현을 썼음에도 딥러닝 기술의 블랙박스로 인해 정확한 학습 경위를 알 수 없다면 책임 소재가 어떻게 돌아갈지도 중요한 문제로 부각되리라 생각한다.
인공지능 저널리즘에 대한 논의는 상당히 오래 전부터 진행되어 왔다. 한국에서도 증시 등에 대한 간단한 기사를 작성할 수 있는 인공지능이 개발되고 있으며, 해외에서는 이미 상당수의 온라인 기사가 인공지능에 의해 작성됐다. 인공지능이 가까운 미래에 언론에서 중요하게 활용될 가능성이 높아 보이는 가운데, 인공지능이 도입될 경우 예상되는 문제점과 언론의 어느 수준까지 인공지능이 대체할 수 있을지에 대한 논의가 필요하다.
우선 인공지능이 딥러닝 기술을 기반으로 기사 작성 방법을 학습한 뒤 정치나 사회, 경제 영역 기사를 작성하게 됐을 때 각 언론사의 이념적 성향이 기사에 반영될 것인지에 대한 논의가 필요하다. 만약 자사 기사에 대해서만 데이터 학습을 시킨다면 언론사의 본래 정치 성향이 반영될 가능성이 높겠지만, 학습 데이터의 범위를 전체 기사로 둔다면 그렇지 않을 수 있다. 사건에 대한 다양한 관점을 학습한 인공지능이 중립적인, 혹은 균형적인 기사를 쓰게 될지, 데이터 양의 차이(일반적으로 보수 성향 일간지가 많기 때문에)로 인해 특정한 정치색을 띄게 될지, 혹은 다양한 정치 성향이 혼합된 기사가 작성될지 궁금증이 생긴다.
인공지능 저널리즘이 온라인 신문이나 종이 신문 외에도 방송 기사를 대체할 수 있을지도 궁금하다. 현재 인공지능은 딥러닝 기술을 통해 상당히 자연스러운 톤과 억양으로 말할 수 있게 됐다. 그에 따라 자료화면이나 인포그래픽이 인공지능 목소리와 합쳐져 방송 기사가 대체될 가능성도 있다고 생각한다. 실제로 인공지능이 방송사 뉴스에서도 활용된다면 기존 방송기자의 역할이 어떻게 변하게 될지도 고민할 필요가 있다.
인공지능이 투입된 데이터를 바탕으로 기사를 작성하는 것이 아니라 스스로 데이터를 수집하거나 생성해서 기사를 만들어낼 가능성은 없을까? 최근 다양한 언론사에서 시도되는 데이터 저널리즘은 다양한 형태의 데이터나 빅데이터를 수집하거나, 직접 데이터 형성에 관여함으로써 기사를 만들고 있다. 이는 인간보다 인공지능이 훨씬 잘 수행할 수 있는 영역으로 보이기 때문에 기사 기획 자체는 인간이 하더라도 실질적인 데이터 수집, 형성, 분석은 인공지능이 하게 될 가능성도 부정하기 어려울 것 같다.
마지막으로 인공지능 저널리즘에 대해 수용자가 어떻게 반응할지에 대한 논의가 필요하다. 현재 한국사회에서 기자는 '기레기'로 불릴 정도로 사회적 인식이 나쁜 직업군이다. 이때 인공지능이 기사를 작성하게 된다면 기사나 언론사에 대한 신뢰도는 상승하게 될까? (의도적으로 페이크 뉴스를 만들지 않는다면, 혹은 데이터에 오류가 있지 않다면) 증시나 스포츠 경기, 스트레이트 보도는 인공지능이 더 정확한 보도를 할 가능성이 높아 보인다. 그러나 정치적, 이념적 성향이 개입될 수 있는 대부분의 보도에 대해 수용자가 인공지능을 신뢰할 수 있을지는 미지수다. 그리고 만약 인공지능이 데이터 학습에 의해 편파적 보도를 하거나 혐오적인 표현을 썼음에도 딥러닝 기술의 블랙박스로 인해 정확한 학습 경위를 알 수 없다면 책임 소재가 어떻게 돌아갈지도 중요한 문제로 부각되리라 생각한다.
김민정2020-12-06 22:29
[002 공*채]
<인공지능과 저널리즘>
과거 인간 고유의 영역이라고 불리던 창작 분야에 인공지능이 들어오기 시작했다. 물론 언론의 영역도 예외는 아니다. NLP(Natural Language Processing)을 사용해 자연적으로 문장을 생성하거나, TTS(Text-To-Speech), STT(Speech-To-Text)를 각각 사용하여 , 문자기사를 음성으로 변환하고, 음성 인터뷰를 녹취록으로 변환하는 등 미디어 업계 각 분야에 인공지능이 활발히 도입되고 있다.
이 외에도 AP사 Digital Globe가 Computer Vision을 사용, 동남아시아 노예선의 결정적 증거를 찾으며 16년 공공서비스 부문 퓰리쳐상을 수상하거나 18년 일본 SF 공모전에서 인공지능이 작성한 소설이 예선을 통과하는 등 인공지능이 미디어 업계에서 미치는 영향력이 점차 확대되는 추세이다. 국내에서도 이준환 교수님의 ‘프로야구 뉴스로봇 소프트웨어’가 경기영상을 직접 텍스트화 하는 등 오늘날 국내외 미디어 업계에서 인공지능은 저널리즘 생산 주체로 기능하고 있다.
인공지능이 각종 매체 뉴스 생산의 주체로 자리 잡아가는 미디어 업계의 흐름에 대해 일각에서는 우려의 목소리를 높인다. 이들은 인공지능이 가짜 뉴스를 생산하거나 논문을 작성하는 등의 부정적 방식으로 사용되어 기존 미디어 저널리즘에 위협이 될 수 있다고 지적한다. 실제로 19년 2월 비영리재단인 Open AI에서는 키워드 몇 개를 통해 그럴듯한 가짜 뉴스를 만드는 기계학습 알고리즘 GPT-2를 개발 완료하였다. 물론 나쁜 목적으로 사용될 것을 우려해 일부 모델과 논문만 발표하고 상세 알고리즘에 대해서는 기술하지 않았지만, 이가 악용된다면 정보의 혼란이 가중될 것이다. 가짜 뉴스를 생산하는 시도는 텍스트에 그치지 않고 딥러닝과 페이스 매핑 기술을 활용한 Deepfake를 통해 비디오 영역까지 확장되고 있다. 물론 이에 반해 가짜 뉴스 여부를 확인할 수 있는 AI 기술 또한 활발히 연구되고 있지만 이러한 사후적 예방보다는 사전적으로 영상에서 나왔듯 인공지능에 저널리즘의 논의를 어떻게 적용시켜야할지 정부 및 민간에서 고민하고 이를 규제화하여 가짜 정보의 생산을 미연에 방지하는 노력이 필요하다.
<인공지능과 저널리즘>
과거 인간 고유의 영역이라고 불리던 창작 분야에 인공지능이 들어오기 시작했다. 물론 언론의 영역도 예외는 아니다. NLP(Natural Language Processing)을 사용해 자연적으로 문장을 생성하거나, TTS(Text-To-Speech), STT(Speech-To-Text)를 각각 사용하여 , 문자기사를 음성으로 변환하고, 음성 인터뷰를 녹취록으로 변환하는 등 미디어 업계 각 분야에 인공지능이 활발히 도입되고 있다.
이 외에도 AP사 Digital Globe가 Computer Vision을 사용, 동남아시아 노예선의 결정적 증거를 찾으며 16년 공공서비스 부문 퓰리쳐상을 수상하거나 18년 일본 SF 공모전에서 인공지능이 작성한 소설이 예선을 통과하는 등 인공지능이 미디어 업계에서 미치는 영향력이 점차 확대되는 추세이다. 국내에서도 이준환 교수님의 ‘프로야구 뉴스로봇 소프트웨어’가 경기영상을 직접 텍스트화 하는 등 오늘날 국내외 미디어 업계에서 인공지능은 저널리즘 생산 주체로 기능하고 있다.
인공지능이 각종 매체 뉴스 생산의 주체로 자리 잡아가는 미디어 업계의 흐름에 대해 일각에서는 우려의 목소리를 높인다. 이들은 인공지능이 가짜 뉴스를 생산하거나 논문을 작성하는 등의 부정적 방식으로 사용되어 기존 미디어 저널리즘에 위협이 될 수 있다고 지적한다. 실제로 19년 2월 비영리재단인 Open AI에서는 키워드 몇 개를 통해 그럴듯한 가짜 뉴스를 만드는 기계학습 알고리즘 GPT-2를 개발 완료하였다. 물론 나쁜 목적으로 사용될 것을 우려해 일부 모델과 논문만 발표하고 상세 알고리즘에 대해서는 기술하지 않았지만, 이가 악용된다면 정보의 혼란이 가중될 것이다. 가짜 뉴스를 생산하는 시도는 텍스트에 그치지 않고 딥러닝과 페이스 매핑 기술을 활용한 Deepfake를 통해 비디오 영역까지 확장되고 있다. 물론 이에 반해 가짜 뉴스 여부를 확인할 수 있는 AI 기술 또한 활발히 연구되고 있지만 이러한 사후적 예방보다는 사전적으로 영상에서 나왔듯 인공지능에 저널리즘의 논의를 어떻게 적용시켜야할지 정부 및 민간에서 고민하고 이를 규제화하여 가짜 정보의 생산을 미연에 방지하는 노력이 필요하다.
김민정2020-12-06 22:29
[002 서*빈]
인공지능에 대해 여러 방면으로 생각할 수 있었던 수업들을 거치고 오늘 영상 자료를 보니, 몇 가지 스스로 정립된 사실이 있었다.
첫 째로, 미디어에서 숱하게 비춰져 우리가 두려워하게 된 인공지능의 모습은 실제와 많이 다르다는 것이었다. 인공지능의 여러 기술들은 이미 실생활에서 사용되고 있음에도 불구하고 사회는 AI라고 불리우는 '인간을 닮은 물체'에 공포를 가진다. 인공지능의 기술은 수많은 분야에 흩어져 사용되고 있으며 그 유용성은 이미 경험을 통해 입증되었다. 결국 미래에는 완벽한 로봇이 인간에게 어떤 영향을 미칠 것인가를 고민하는 게 아니라 사람들이 다방면에 사용되고 있는 인공지능 기술의 정확한 개념과 용도를 이해할 수 있도록 돕는 방법을 고민해봐야 할 것이다.
둘 째로, 인공지능의 윤리는 곧 사람의 윤리라는 사실이다. 영상에서 교수님이 언급하신 것과 같이, 인공지능은 결국 그 뒤에 조종하는 사람의 책임이 있어야 실현될 수 있다. 가짜뉴스를 예로 든다면, 컴퓨터가 뉴스를 조작할 위험이 있다는 얘기는 사람 또한 그 위험을 가지고 있다는 뜻이다. 알고리즘 자체에 도덕성을 부여하고 이를 비난하는 것이 아닌, 해당 알고리즘을 형성하거나 활용하는 사람들에게 더욱 큰 책임을 부과해야 한다.
마지막으로 인공지능을 통해 우리는 더욱 맞춤형 서비스를 제공받을 수 있을 것이다. 인공지능의 주요 기술인 '분석'은 결국 소비자인 우리의 데이터를 가지고 이루어진다. 분석 기술이 발전할수록 개개인의 라이프스타일에 맞는 생활 환경이 제공될 것이라는 생각이 들었다.
인공지능에 대해 여러 방면으로 생각할 수 있었던 수업들을 거치고 오늘 영상 자료를 보니, 몇 가지 스스로 정립된 사실이 있었다.
첫 째로, 미디어에서 숱하게 비춰져 우리가 두려워하게 된 인공지능의 모습은 실제와 많이 다르다는 것이었다. 인공지능의 여러 기술들은 이미 실생활에서 사용되고 있음에도 불구하고 사회는 AI라고 불리우는 '인간을 닮은 물체'에 공포를 가진다. 인공지능의 기술은 수많은 분야에 흩어져 사용되고 있으며 그 유용성은 이미 경험을 통해 입증되었다. 결국 미래에는 완벽한 로봇이 인간에게 어떤 영향을 미칠 것인가를 고민하는 게 아니라 사람들이 다방면에 사용되고 있는 인공지능 기술의 정확한 개념과 용도를 이해할 수 있도록 돕는 방법을 고민해봐야 할 것이다.
둘 째로, 인공지능의 윤리는 곧 사람의 윤리라는 사실이다. 영상에서 교수님이 언급하신 것과 같이, 인공지능은 결국 그 뒤에 조종하는 사람의 책임이 있어야 실현될 수 있다. 가짜뉴스를 예로 든다면, 컴퓨터가 뉴스를 조작할 위험이 있다는 얘기는 사람 또한 그 위험을 가지고 있다는 뜻이다. 알고리즘 자체에 도덕성을 부여하고 이를 비난하는 것이 아닌, 해당 알고리즘을 형성하거나 활용하는 사람들에게 더욱 큰 책임을 부과해야 한다.
마지막으로 인공지능을 통해 우리는 더욱 맞춤형 서비스를 제공받을 수 있을 것이다. 인공지능의 주요 기술인 '분석'은 결국 소비자인 우리의 데이터를 가지고 이루어진다. 분석 기술이 발전할수록 개개인의 라이프스타일에 맞는 생활 환경이 제공될 것이라는 생각이 들었다.
김민정2020-12-06 22:30
[002 이*현]
<인공지능으로 소설쓰기의 한계>
인공지능이 직접 소설을 쓰는 것은 아니지마는, 인공지능의 도움으로 작가가 소설(주로 장르소설이다)을 쓸 수 있게 해주는 출판사가 있다. 독일의 inKitt라는 곳이다. 이곳에서 개발한 프로그램은 지금까지 출간된 베스트셀러의 플롯과 문체들을 분석하여 상업적으로 성공을 즉각적인 거둘 수 있는 글쓰기를 작가에게 제안한다. 이것을 통해서 많은 소설들이 ‘양산’되었다.
inKitt의 사업모델에 대해서는 굉장한 비판이 있었다. 예컨대 함량 미달의 ‘작가’와 ‘소설’이 양산되어 장르소설계를 초토화한다는 것이나, 출판사가 제시하는 상업적 성공이라는 것이 검증 불가능하다는 것 등이 있었다. 그런데 결정적인 타격이라면, 오늘날 기계학습으로 가능해진 인공지능의 분석만으로는 아직까지 존재하지 않았던 주제, 캐릭터, 플롯, 문체 등을 제안해줄 수는 없다는 것이다. (만약 이것이 가능하다면 인공지능이 스스로 소설을 쓰는 것이 나을지도 모른다.) 그런 점에 비추어 볼 때 문학사를 바꾸어놓을만한 소설쓰기는 아직 인간만이 할 수 있는 영역이 아닐까 싶다.
<인공지능으로 소설쓰기의 한계>
인공지능이 직접 소설을 쓰는 것은 아니지마는, 인공지능의 도움으로 작가가 소설(주로 장르소설이다)을 쓸 수 있게 해주는 출판사가 있다. 독일의 inKitt라는 곳이다. 이곳에서 개발한 프로그램은 지금까지 출간된 베스트셀러의 플롯과 문체들을 분석하여 상업적으로 성공을 즉각적인 거둘 수 있는 글쓰기를 작가에게 제안한다. 이것을 통해서 많은 소설들이 ‘양산’되었다.
inKitt의 사업모델에 대해서는 굉장한 비판이 있었다. 예컨대 함량 미달의 ‘작가’와 ‘소설’이 양산되어 장르소설계를 초토화한다는 것이나, 출판사가 제시하는 상업적 성공이라는 것이 검증 불가능하다는 것 등이 있었다. 그런데 결정적인 타격이라면, 오늘날 기계학습으로 가능해진 인공지능의 분석만으로는 아직까지 존재하지 않았던 주제, 캐릭터, 플롯, 문체 등을 제안해줄 수는 없다는 것이다. (만약 이것이 가능하다면 인공지능이 스스로 소설을 쓰는 것이 나을지도 모른다.) 그런 점에 비추어 볼 때 문학사를 바꾸어놓을만한 소설쓰기는 아직 인간만이 할 수 있는 영역이 아닐까 싶다.
김민정2020-12-06 22:30
[002 조*주]
인터뷰 내용 중 로봇 저널리즘에 대한 내용이 가장 흥미롭게 다가왔다. 인공지능과 저널리즘을 연결지어 생각할 때, 인공지능이 생산할 가짜뉴스의 부작용을 우선적으로 걱정했던 것 같다. 하지만 인터뷰를 보며 인공지능의 팩트체크 기능을 간과해서는 안 되며, 이러한 기술을 통해 부작용을 최소화하고 투명하고 공정한 언론을 만들어갈 것을 기대할 수 있다는 생각을 할 수 있었다.
그동안 사람이 직접 조사해서 검증하는 과정을 거쳐야 했던 팩트 체크에 더욱 신속하고 객관적인 알고리즘을 적용한다면 가짜 뉴스의 노출과 전파를 더 정확하고 신속하게 막을 수 있다. 이때 참 또는 거짓의 이분법적인 판단이 아닌 확률적 판단을 사용해서 좀 더 신뢰도를 높일 수 있을 것 같다고 생각한다. 인공지능이 데이터베이스 상에서 찾을 수 없는 정보가 존재할 수 있고, 그 정보의 진실 여부가 언제나 명확한 것은 아닐 수 있기 때문에 확률적인 판단의 제공이 객관성을 높일 수 있는 방법이 될 수 있을 것이라 생각한다.
인공지능이 초래할 것으로 우려되는 부작용에만 매몰되어서는 안 되며, 인공지능을 어떻게 유용하게 활용할 수 있을지를 고려해야 함, 즉 양면성을 볼 줄 알아야 한다는 것을 생각해볼 수 있었다. 또한, 가짜뉴스와 팩트체크와 관련된 문제는 정치적으로도 굉장히 중요한 이슈이기 때문에, 기술의 발달에 있어서 정치적으로 편향된 개입이 최소화될 수 있도록 신중한 접근이 필요하다고 생각된다.
인터뷰 내용 중 로봇 저널리즘에 대한 내용이 가장 흥미롭게 다가왔다. 인공지능과 저널리즘을 연결지어 생각할 때, 인공지능이 생산할 가짜뉴스의 부작용을 우선적으로 걱정했던 것 같다. 하지만 인터뷰를 보며 인공지능의 팩트체크 기능을 간과해서는 안 되며, 이러한 기술을 통해 부작용을 최소화하고 투명하고 공정한 언론을 만들어갈 것을 기대할 수 있다는 생각을 할 수 있었다.
그동안 사람이 직접 조사해서 검증하는 과정을 거쳐야 했던 팩트 체크에 더욱 신속하고 객관적인 알고리즘을 적용한다면 가짜 뉴스의 노출과 전파를 더 정확하고 신속하게 막을 수 있다. 이때 참 또는 거짓의 이분법적인 판단이 아닌 확률적 판단을 사용해서 좀 더 신뢰도를 높일 수 있을 것 같다고 생각한다. 인공지능이 데이터베이스 상에서 찾을 수 없는 정보가 존재할 수 있고, 그 정보의 진실 여부가 언제나 명확한 것은 아닐 수 있기 때문에 확률적인 판단의 제공이 객관성을 높일 수 있는 방법이 될 수 있을 것이라 생각한다.
인공지능이 초래할 것으로 우려되는 부작용에만 매몰되어서는 안 되며, 인공지능을 어떻게 유용하게 활용할 수 있을지를 고려해야 함, 즉 양면성을 볼 줄 알아야 한다는 것을 생각해볼 수 있었다. 또한, 가짜뉴스와 팩트체크와 관련된 문제는 정치적으로도 굉장히 중요한 이슈이기 때문에, 기술의 발달에 있어서 정치적으로 편향된 개입이 최소화될 수 있도록 신중한 접근이 필요하다고 생각된다.
김민정2020-12-06 22:30
[002 장*진]
<인공지능은 사실을 ‘이해’하고 ‘추상화’할 수 있을까?>
인공지능이 기사를 쓴다는 것은 조금만 생각해봐도 대단히 어려워 보이는 일이다. 우리가 어떤 사실에 대한 글을 쓰기 위해서는 먼저 그 사실의 본질이 무엇이고 사실의 선후에 존재하는 원인과 결과는 무엇이며, 그 사실이 일어난 맥락과 배경은 무엇인지 등을 종합하여 사실을 정확히 이해해야만 한다. 그 다음으로는 인간 사회에서 공통으로 약속된 언어를 통해 자신이 이해한 사실을 표현해내는 고도의 추상화 작업을 거쳐야 한다.
인공지능 저널리즘에 관한 짧은 강의를 들으면서 인공지능이 아무리 발달한다 해도 과연 이런 일련의 작업을 해낼 수 있을 것인지에 대한 의문이 들었다. 지금 수준에서의 인공지능 저널리즘은 증시, 스포츠 기사처럼 결과가 도출되는 일정한 규칙, 틀이 존재하는 상황에서 그때그때 나오는 수치들의 변화만을 그대로 반영하여 전달하면 되기에 인공지능 기술의 한계가 느껴지지 않는다.
그러나 만약 증시나 스포츠처럼 일정한 규칙 하에 반복되는 사건이 아닌 계속해서 발생하는 세계 곳곳의 새로운 사건들을 인공지능이 온전히 이해하고 추상화하여 새로운 언어로 표현해낼 수 있을지에 대해서는 회의적인 생각이 들었다. 동영상에서 언급이 나오듯이 지금의 인공지능 또한 기존 문장의 의미를 이해하고 글을 쓴다기보다는 그저 수많은 문장을 짜깁기하여 결과물을 내놓는데 그치고 있기 때문이다.
개인적으로 이러한 인공지능의 자연어 처리의 한계는 ‘감각기관의 부재’에도 일정 부분 기인한다고 생각했다. 인간이 글을 쓰고 말을 배우며 추상화 사고를 배우는 과정을 생각해보면 모든 것은 일차적으로 감각 기관을 통한 세계의 인식에 기초하기 때문이다. 인간은 어릴 적부터 시각, 청각, 촉각 등을 활용하여 외부 세계를 학습하고 자신이 경험한 구체적 사물의 특성에서부터 시작하여 추상화된 개념을 차근차근 쌓아올린다. 그러나 인공지능은 아무리 신경망이 발달한다 하더라도 인간과 똑같은 ‘감각을 통한 경험’을 쌓을 수 없기에 결코 인간과 같은 수준의 추상적 사고를 통한 사실에 대한 이해와 이를 바탕으로 한 소통이 어려울 것 같다는 생각이 들었다.
<인공지능은 사실을 ‘이해’하고 ‘추상화’할 수 있을까?>
인공지능이 기사를 쓴다는 것은 조금만 생각해봐도 대단히 어려워 보이는 일이다. 우리가 어떤 사실에 대한 글을 쓰기 위해서는 먼저 그 사실의 본질이 무엇이고 사실의 선후에 존재하는 원인과 결과는 무엇이며, 그 사실이 일어난 맥락과 배경은 무엇인지 등을 종합하여 사실을 정확히 이해해야만 한다. 그 다음으로는 인간 사회에서 공통으로 약속된 언어를 통해 자신이 이해한 사실을 표현해내는 고도의 추상화 작업을 거쳐야 한다.
인공지능 저널리즘에 관한 짧은 강의를 들으면서 인공지능이 아무리 발달한다 해도 과연 이런 일련의 작업을 해낼 수 있을 것인지에 대한 의문이 들었다. 지금 수준에서의 인공지능 저널리즘은 증시, 스포츠 기사처럼 결과가 도출되는 일정한 규칙, 틀이 존재하는 상황에서 그때그때 나오는 수치들의 변화만을 그대로 반영하여 전달하면 되기에 인공지능 기술의 한계가 느껴지지 않는다.
그러나 만약 증시나 스포츠처럼 일정한 규칙 하에 반복되는 사건이 아닌 계속해서 발생하는 세계 곳곳의 새로운 사건들을 인공지능이 온전히 이해하고 추상화하여 새로운 언어로 표현해낼 수 있을지에 대해서는 회의적인 생각이 들었다. 동영상에서 언급이 나오듯이 지금의 인공지능 또한 기존 문장의 의미를 이해하고 글을 쓴다기보다는 그저 수많은 문장을 짜깁기하여 결과물을 내놓는데 그치고 있기 때문이다.
개인적으로 이러한 인공지능의 자연어 처리의 한계는 ‘감각기관의 부재’에도 일정 부분 기인한다고 생각했다. 인간이 글을 쓰고 말을 배우며 추상화 사고를 배우는 과정을 생각해보면 모든 것은 일차적으로 감각 기관을 통한 세계의 인식에 기초하기 때문이다. 인간은 어릴 적부터 시각, 청각, 촉각 등을 활용하여 외부 세계를 학습하고 자신이 경험한 구체적 사물의 특성에서부터 시작하여 추상화된 개념을 차근차근 쌓아올린다. 그러나 인공지능은 아무리 신경망이 발달한다 하더라도 인간과 똑같은 ‘감각을 통한 경험’을 쌓을 수 없기에 결코 인간과 같은 수준의 추상적 사고를 통한 사실에 대한 이해와 이를 바탕으로 한 소통이 어려울 것 같다는 생각이 들었다.
김민정2020-12-06 22:31
[002 김*성]
인공지능은 인간 고유의 영역인 창의력, 직관력, 판단력에 침범할 수 없다는 내용의 기사를 본적이 있다. (https://news.joins.com/article/19699691) 이 기사를 보고 인공지능은 여러 면에서 인간보다 ‘똑똑’할 수는 있지만 창의성을 장착하기는 힘들 것이라 생각했다. 그러나 동영상을 보면서 창작과 창의력에 대한 고민을 하게 됐다.
인공지능으로 글을 쓸 수 있지만 이 글은 수 많은 input을 기반으로 문장 또는 단어 단위로 발췌한 것이라고 동영상에 나온다. 인간보다 훨씬 많은 데이터를 저장할 수 있는 인공지능은 상당한 수준의 글을 쓸 수 있다. 문제는 ‘이 것을 창작이라고 할 수 있는가?’이다. 아무리 많은 데이터를 가지고 글을 쓰더라도 결국에는 발췌를 하여 쓰인 글은 창작된 글이라고 할 수 없기 때문이다. 하지만 인간도 수 많은 input을 통해 하나의 글을 완성한다. 직접적인 발췌가 아니더라도 자신이 가지고 있는 데이터 내에서 글을 쓴다. 이렇게 생각을 해본다면 인공지능의 창작과 인간의 창작이 크게 다르지 않을 수도 있겠다고 생각했다. 아니 오히려 더 많은 데이터를 더 빠르게 처리하여 글을 쓸 수 있는 인공지능이 글을 더 ‘잘 쓴다’고 생각할 수도 있지 않을까?
인공지능 시대에서 우리는 ‘창작’, ‘창의성’과 ‘인간’ 같은 개념들에 대해 재정의를 내려야 한다고 생각한다. 그리고 인공지능이 침범할 수 없는 인간 고유의 능력을 찾아야 할 것이다. 그러지 않는다면 인공지능과 인간을 구분 짓는 경계가 모호해질 것이며 인간 정체성을 잃어버릴 수도 있을 것이다.
인공지능은 인간 고유의 영역인 창의력, 직관력, 판단력에 침범할 수 없다는 내용의 기사를 본적이 있다. (https://news.joins.com/article/19699691) 이 기사를 보고 인공지능은 여러 면에서 인간보다 ‘똑똑’할 수는 있지만 창의성을 장착하기는 힘들 것이라 생각했다. 그러나 동영상을 보면서 창작과 창의력에 대한 고민을 하게 됐다.
인공지능으로 글을 쓸 수 있지만 이 글은 수 많은 input을 기반으로 문장 또는 단어 단위로 발췌한 것이라고 동영상에 나온다. 인간보다 훨씬 많은 데이터를 저장할 수 있는 인공지능은 상당한 수준의 글을 쓸 수 있다. 문제는 ‘이 것을 창작이라고 할 수 있는가?’이다. 아무리 많은 데이터를 가지고 글을 쓰더라도 결국에는 발췌를 하여 쓰인 글은 창작된 글이라고 할 수 없기 때문이다. 하지만 인간도 수 많은 input을 통해 하나의 글을 완성한다. 직접적인 발췌가 아니더라도 자신이 가지고 있는 데이터 내에서 글을 쓴다. 이렇게 생각을 해본다면 인공지능의 창작과 인간의 창작이 크게 다르지 않을 수도 있겠다고 생각했다. 아니 오히려 더 많은 데이터를 더 빠르게 처리하여 글을 쓸 수 있는 인공지능이 글을 더 ‘잘 쓴다’고 생각할 수도 있지 않을까?
인공지능 시대에서 우리는 ‘창작’, ‘창의성’과 ‘인간’ 같은 개념들에 대해 재정의를 내려야 한다고 생각한다. 그리고 인공지능이 침범할 수 없는 인간 고유의 능력을 찾아야 할 것이다. 그러지 않는다면 인공지능과 인간을 구분 짓는 경계가 모호해질 것이며 인간 정체성을 잃어버릴 수도 있을 것이다.
김민정2020-12-06 22:32
[002 정*준]
<인공지능이 소설을 창작할 수 있는가>
영상에서 가장 주목이 되었던 분야는 바로 인공지능 소설 공모전에 대한 이야기였다. 우리가 흔히들 가장 인간다운 영역이라고 생각하는 감성과 창의성이 극대화된 분야인 문학에서 인공지능이 성과를 거두기 시작한다는 것은, 우리가 생각하는 창의성과 감성에 대해 다시금 성찰해 볼 필요성을 제시해 준다.
영상을 보면, 현재 인공지능 문학의 수준은, 인간의 표현을 다양하게 조합하여 매끄러운 문장을 써내는 수준이며, 전체의 서사 구성까지 갖춘 하나의 완결성 있는 문학을 만들어내는 것까지는 도달하지 못한 것으로 보인다. 하지만, 한편으로는, 인공지능이 작성한 문학이 2013년 일본의 문학 공모전 1차 심사를 통과한 사례도 존재한다. 물론, 문장을 작성한다는 일은, 우리가 그간 만들어온 사회적 규칙을 토대로 진행되는 일이므로 규칙을 찾아내는 인공지능 입장에서 가능한 일이라 생각할 수 있다. 하지만 새로운 소설을 작성하는 일은 그저 여러 작문의 복합체라고 받아들이기에는 크게 다른 면모가 있다.
그저 소설이 우리가 상상치 못하던 조합을 랜덤으로 조합하여 작성해 내면, 그 소설은 창의적이라고 할 수 있을까? 단순히 다양한 요소들을 조합해 생경한 결과물을 만들어내는 일이 창의적이라면, 인공지능은 충분히 소설을 작성할 수 있다. 하지만, 우리는 그 창의적 결과물에서 창작자의 의도를 찾고 이해하는 데에 큰 의미를 부여한다. 즉, 사람이 뜻을 가지고 조합하면 창의적인 결과물이 나오지만, 인공지능이 단순히 요소들을 결합해 매끄러운 결과물을 만드는 것은 그저 임의성의 산물이라는 것이다. 그런 의미에서, 우리가 인공지능이 아무리 근사한 소설을 만들어낸다 한들, 그 의미를 인정하고 해석하려 하지 않으면 창의성이라 하기 힘들다고 생각한다.
함께 올리는 자료는, 인공지능의 창작에 대한 생각에서 확장하여, 그 창작물의 저작권에 대한 사회적 고려도 필요하다고 생각하여 관련 논의자료를 찾아보는 데에 그 의의를 두었다. (자료 주소 : https://www.wipo.int/wipo_magazine/en/2017/05/article_0003.html)
<인공지능이 소설을 창작할 수 있는가>
영상에서 가장 주목이 되었던 분야는 바로 인공지능 소설 공모전에 대한 이야기였다. 우리가 흔히들 가장 인간다운 영역이라고 생각하는 감성과 창의성이 극대화된 분야인 문학에서 인공지능이 성과를 거두기 시작한다는 것은, 우리가 생각하는 창의성과 감성에 대해 다시금 성찰해 볼 필요성을 제시해 준다.
영상을 보면, 현재 인공지능 문학의 수준은, 인간의 표현을 다양하게 조합하여 매끄러운 문장을 써내는 수준이며, 전체의 서사 구성까지 갖춘 하나의 완결성 있는 문학을 만들어내는 것까지는 도달하지 못한 것으로 보인다. 하지만, 한편으로는, 인공지능이 작성한 문학이 2013년 일본의 문학 공모전 1차 심사를 통과한 사례도 존재한다. 물론, 문장을 작성한다는 일은, 우리가 그간 만들어온 사회적 규칙을 토대로 진행되는 일이므로 규칙을 찾아내는 인공지능 입장에서 가능한 일이라 생각할 수 있다. 하지만 새로운 소설을 작성하는 일은 그저 여러 작문의 복합체라고 받아들이기에는 크게 다른 면모가 있다.
그저 소설이 우리가 상상치 못하던 조합을 랜덤으로 조합하여 작성해 내면, 그 소설은 창의적이라고 할 수 있을까? 단순히 다양한 요소들을 조합해 생경한 결과물을 만들어내는 일이 창의적이라면, 인공지능은 충분히 소설을 작성할 수 있다. 하지만, 우리는 그 창의적 결과물에서 창작자의 의도를 찾고 이해하는 데에 큰 의미를 부여한다. 즉, 사람이 뜻을 가지고 조합하면 창의적인 결과물이 나오지만, 인공지능이 단순히 요소들을 결합해 매끄러운 결과물을 만드는 것은 그저 임의성의 산물이라는 것이다. 그런 의미에서, 우리가 인공지능이 아무리 근사한 소설을 만들어낸다 한들, 그 의미를 인정하고 해석하려 하지 않으면 창의성이라 하기 힘들다고 생각한다.
함께 올리는 자료는, 인공지능의 창작에 대한 생각에서 확장하여, 그 창작물의 저작권에 대한 사회적 고려도 필요하다고 생각하여 관련 논의자료를 찾아보는 데에 그 의의를 두었다. (자료 주소 : https://www.wipo.int/wipo_magazine/en/2017/05/article_0003.html)
김민정2020-12-06 22:32
[002 이*현]
영상 자료는 소설과 뉴스 기사, 두 가지 종류의 글을 쓰는 인공지능의 능력에 대해 말하고 있다. 소설과 뉴스 기사는 다른 속성을 가진 글이라고 볼 수 있다. 소설은 문학으로 사실과는 관계없는 허구의 서사를 가지지만, 뉴스 기사는 비문학으로 전형적인 설명문이라고 할 수 있다. (물론 기자의 비평을 곁들인 뉴스 기사도 존재하긴 한다.)
특정 분야의 기술적 능력에 있어서 강점을 보이는 인공지능에게는 당연히 뉴스 기사가 좀 더 쉽게 느껴질 것이다. 더 쉬운 만큼 실제로 인공지능 기사는 꽤 그럴듯하다. 물론 우리가 보통 좋은 기사라고 느껴지도록 서론, 본론, 결론의 짜임새 있는 구성과 매끄러운 문장 연결을 갖추지 못하고 단순 사실인 문장만을 순차적으로 내뱉을지 몰라도, 어쨌든 인공지능은 사람들이 뉴스 기사라고 인지할 정도의 형식을 갖출 능력은 있다.
하지만 아직 보완할 점은 분명 존재한다. 인공지능이 뉴스 기사에서 효율적으로 사용될 수 있는 분야는 스포츠, 증시와 같이 매일매일 같은 형식의 기사에 내용만 조금씩 바뀌는 분야이다. 하지만 중요하고 큰 영향력을 가지고 있는 이슈는 이런 일상적인 정보가 아니라 매우 특수한, 일회성의 사건들이다. 천안함 사건, 숭례문 화재, 박 전 대통령 탄핵 등 나라를 뒤흔들었던 사건들은 반복적이지 않으며 뻔하지 않다. 이런 사건들에 대한 데이터는 그 전에 수집될 수 없으며, 따라서 예측에 따라 기사를 작성하는 것은 쉽지 않다.
진짜 핵심적인 뉴스 기사까지 포괄할 수 있는 인공지능 알고리즘을 위해서는 단순히 데이터 수집 후, 중요하다고 여겨지는 정보를 추려서, 이미 존재하는 형식에 추가하는 방식이 아니라, 사건 자체에 대해 데이터 수집 후, 특정되지 않은 인과관계를 발견하여 기사를 작성할 수 있는 보다 고도의 인공지능 능력이 필요할 것이다.
영상 자료는 소설과 뉴스 기사, 두 가지 종류의 글을 쓰는 인공지능의 능력에 대해 말하고 있다. 소설과 뉴스 기사는 다른 속성을 가진 글이라고 볼 수 있다. 소설은 문학으로 사실과는 관계없는 허구의 서사를 가지지만, 뉴스 기사는 비문학으로 전형적인 설명문이라고 할 수 있다. (물론 기자의 비평을 곁들인 뉴스 기사도 존재하긴 한다.)
특정 분야의 기술적 능력에 있어서 강점을 보이는 인공지능에게는 당연히 뉴스 기사가 좀 더 쉽게 느껴질 것이다. 더 쉬운 만큼 실제로 인공지능 기사는 꽤 그럴듯하다. 물론 우리가 보통 좋은 기사라고 느껴지도록 서론, 본론, 결론의 짜임새 있는 구성과 매끄러운 문장 연결을 갖추지 못하고 단순 사실인 문장만을 순차적으로 내뱉을지 몰라도, 어쨌든 인공지능은 사람들이 뉴스 기사라고 인지할 정도의 형식을 갖출 능력은 있다.
하지만 아직 보완할 점은 분명 존재한다. 인공지능이 뉴스 기사에서 효율적으로 사용될 수 있는 분야는 스포츠, 증시와 같이 매일매일 같은 형식의 기사에 내용만 조금씩 바뀌는 분야이다. 하지만 중요하고 큰 영향력을 가지고 있는 이슈는 이런 일상적인 정보가 아니라 매우 특수한, 일회성의 사건들이다. 천안함 사건, 숭례문 화재, 박 전 대통령 탄핵 등 나라를 뒤흔들었던 사건들은 반복적이지 않으며 뻔하지 않다. 이런 사건들에 대한 데이터는 그 전에 수집될 수 없으며, 따라서 예측에 따라 기사를 작성하는 것은 쉽지 않다.
진짜 핵심적인 뉴스 기사까지 포괄할 수 있는 인공지능 알고리즘을 위해서는 단순히 데이터 수집 후, 중요하다고 여겨지는 정보를 추려서, 이미 존재하는 형식에 추가하는 방식이 아니라, 사건 자체에 대해 데이터 수집 후, 특정되지 않은 인과관계를 발견하여 기사를 작성할 수 있는 보다 고도의 인공지능 능력이 필요할 것이다.
김민정2020-12-06 22:33
[002 이*현]
<인간의 고유영역이라고 생각했던 분야에 대하여>
영상자료에서는 현 인공지능의 발전분야 중에서 문학 창작과 저널리즘을 다루고 있다. 두 분야는 각각 인간 고유의 창조성과 통찰력이 필요하다는 점에서 인간 고유의 영역으로 여겨지는 분야였다. 그렇지만 현재 인공지능의 알고리즘으로도 이 인간 고유의 분야에 해당한다고 생각했던 부분에서 일부분을 대체할 수 있음이 확인됐다. 물론, 영상 속 설명에서도 알 수 있듯이, 현재 기술력으로 표현할 수 있는 건 인공지능이 학습했던 문학작품, 기사의 내용, 문장, 단어를 활용하기 때문에 인간의 작품과 비교했을 때 표현력이 조악한 수준이다. 그래서 영상 속 교수님께서는 ‘통찰력과 고도의 판단을 요하는 작업은 여전히 인간의 영역’이라고 설명하신 것 같다.
그렇다면, 현재 약 인공지능의 수준에서 인간의 고도의 판단력과 창조성이라는 지능영역은 위협대상이 아닌 것일까? 2014년에 개발된 Generative Adversarial Networks(GAN)은 딥러닝 기술 중 일종인데, 이는 약 인공지능의 수준에서도 인간의 창조성과 고도의 판단능력을 충분히 모사할 수 있음을 시사한다. 생산자와 판별자로 이루어져 있고, 생산자는 인간의 작품과 인공지능의 작품을 판별자가 구분하지 못 하도록 생산하고, 판별자는 두 작품을 구분할 수 있도록 역할 지워진다. 그래서 일반 딥러닝 기술에 비해서 큰 질적 성장이 이뤄졌다. 최근에 GAN에서 한 단계 나아간 Creative Adversarial Networks는 학습한 데이터의 내용과 형식의 그대로의 사용에서 벗어나 인공지능이 창조적으로 새로운 내용과 형식을 사용할 수 있음을 시사한다. 이를 고려해봤을 때, 이 기술이 보다 정교하게 개발된다면 창조성, 고도의 판단력도 인간 고유의 영역이라고 보기 어려워질 것 같다.
그렇다면, 여기서 생기는 질문은, 만약 일반인이 인간의 문학 작품과 인공지능의 문학작품을 구별하지 못 한다면, 우리는 인공지능이 창조성이라는 고도의 지능을 갖추었다고 말할 수 있을까? GAN과 CAN 기반 알고리즘은 결국 사용자의 명령에 기반해 적절해 보이는 답을 데이터 베이스의 처리를 통해 추출한다는 점에서 단순 모방, 재현에 불과한 것일까?
<인간의 고유영역이라고 생각했던 분야에 대하여>
영상자료에서는 현 인공지능의 발전분야 중에서 문학 창작과 저널리즘을 다루고 있다. 두 분야는 각각 인간 고유의 창조성과 통찰력이 필요하다는 점에서 인간 고유의 영역으로 여겨지는 분야였다. 그렇지만 현재 인공지능의 알고리즘으로도 이 인간 고유의 분야에 해당한다고 생각했던 부분에서 일부분을 대체할 수 있음이 확인됐다. 물론, 영상 속 설명에서도 알 수 있듯이, 현재 기술력으로 표현할 수 있는 건 인공지능이 학습했던 문학작품, 기사의 내용, 문장, 단어를 활용하기 때문에 인간의 작품과 비교했을 때 표현력이 조악한 수준이다. 그래서 영상 속 교수님께서는 ‘통찰력과 고도의 판단을 요하는 작업은 여전히 인간의 영역’이라고 설명하신 것 같다.
그렇다면, 현재 약 인공지능의 수준에서 인간의 고도의 판단력과 창조성이라는 지능영역은 위협대상이 아닌 것일까? 2014년에 개발된 Generative Adversarial Networks(GAN)은 딥러닝 기술 중 일종인데, 이는 약 인공지능의 수준에서도 인간의 창조성과 고도의 판단능력을 충분히 모사할 수 있음을 시사한다. 생산자와 판별자로 이루어져 있고, 생산자는 인간의 작품과 인공지능의 작품을 판별자가 구분하지 못 하도록 생산하고, 판별자는 두 작품을 구분할 수 있도록 역할 지워진다. 그래서 일반 딥러닝 기술에 비해서 큰 질적 성장이 이뤄졌다. 최근에 GAN에서 한 단계 나아간 Creative Adversarial Networks는 학습한 데이터의 내용과 형식의 그대로의 사용에서 벗어나 인공지능이 창조적으로 새로운 내용과 형식을 사용할 수 있음을 시사한다. 이를 고려해봤을 때, 이 기술이 보다 정교하게 개발된다면 창조성, 고도의 판단력도 인간 고유의 영역이라고 보기 어려워질 것 같다.
그렇다면, 여기서 생기는 질문은, 만약 일반인이 인간의 문학 작품과 인공지능의 문학작품을 구별하지 못 한다면, 우리는 인공지능이 창조성이라는 고도의 지능을 갖추었다고 말할 수 있을까? GAN과 CAN 기반 알고리즘은 결국 사용자의 명령에 기반해 적절해 보이는 답을 데이터 베이스의 처리를 통해 추출한다는 점에서 단순 모방, 재현에 불과한 것일까?
자료 1 YouTube <인공지능 소설사? 로봇 저널리즘?>
https://www.youtube.com/watch?v=H6nvPNkNTUQ