[특별대담] AI 시대의 교육은 어떻게 달라질까
페이지 정보
본문
- 지난주 이어 - 권태건: 이젠 교육에 관해 이야기해 보자. AI시대에 우리의 교육은 어떻게 달라질까? 과연 우리는 다음 세대에 어떤 가치를 교육하고 물려줘야 할까?
송창호: 그전에 ‘AI 최종 목표가 무엇일까’ 질문하고 싶다. 사람과 같은 범용적 사고를 하는 것일까?
류한철: 연구목표가 범용 AI는 맞다. 그러나 얼마 전 일론 머스크를 비롯해 많은 연구자가 6개월 동안 인공지능 연구를 중단하자고 제안했다. 지금 생각보다 AI 발전속도가 너무 빨라서 많은 사람이 당황하고 있다. 일단 연구자들은 AI가 자아를 갖길 원하지는 않을 것이다. 어찌됐든 AI가 잘 되게 만드는 게 목표다.
핵개발의 경우 규제를 해서 개발을 하지 말자고 하면 상호 제재가 가능하다. 하지만 AI는 그게 불가능하다. 그래서 AI가 부적절하게 사용될 경우, 예를 들어 살상 드론이나 로봇에 활용될 때, 그 결과는 인류에게 매우 부정적 영향을 미칠 수 있다. 이런 이슈들을 포함해 연구자들은 인공지능 윤리에 대해 많은 관심을 갖고 있다.
AI의 최종목표를 명확하게 단언하기는 어렵지만, 인간이 제어 가능한 범용 인공지능이 될 가능성이 높다. 물론, 이 과정에서 부정적 영향을 미리 방지하고, 윤리적인 개발이라는 방향성에 대해 연구자들이 큰 관심을 갖고 있다는 것은 확실하다.
제프리 힌튼이란 AI연구의 권위자가 있다. 영국 사람인데 영국에서 공부하고 강의하다가 미국UCSB, 카네기멜론대학교에서 AI를 연구했다. 이후 캐나다 토론토대학에 합류했다. 영국이나 미국이 아닌, 전혀 연고가 없는 캐나다로 넘어간 이유는 항만에 지뢰를 심는 등 비인간적 행위를 하는 미군으로부터 연구지원금을 받고 싶지 않았기 때문이라고 한다. 이렇게 윤리적 연구에 관심이 많은 AI의 권위자가 얼마 전 구글을 퇴사한 후, 구글 AI 연구 안정성에 의문을 제기하면서 국제적 범위의 AI 규제의 필요성을 강조했다. 현재, 많은 연구자가 AI의 위험성에 관해 우려하고 있다.
그래서 더더욱 인간의 가치와 본질에 대해 고민하는 게 중요해 보인다. AI가 발전한 미래를 정확히 상상하기는 어렵다. 저도 두려운 마음이 약간은 있다. AI의 발전 속도를 예측할 수 없어서 어디까지 발전할지 모르겠다. AI를 연구하는 사람들은 AI가 자아를 갖는 것을 원하지 않는다. 인간의 명령을 따르고, 인간이 원하는 일을 하는 것을 원한다.
교육적 관점에서 보면, 많은 경우에 틀에 박힌 일을 잘하려는 노력은 의미 없다고 본다. 인간의 유희 차원에서 익히는 것을 제외하면, 반복적인 일의 생산성을 높이고자 하는 노력은 의미 없다. AI가 대체하기 적합한 일이 될 수 있기 때문이다. 미래 사회가 어떻게 될지 예측하기 참 어렵지만, 일단은 코딩을 배우는 것이 좋다. 물론, 시간이 좀 더 지나면 말로 코딩을 할 수 있을 것이다. 지금도 말 코딩이 어느 정도 잘 되고 있다. 그럼에도 코딩을 배웠으면 좋겠다고 생각하는 것은, 체계적으로 사고하는 법을 코딩을 통해 훈련할 수 있기 때문이다.
류대균: 우리가 본질이란 말을 여러 번 했는데, 본질이란 단어가 마음에 와 닿는 면이 있다. 과거에 철학이 대세를 이뤘다. 그 후 수사학이 나왔다. 누군가 수사학을 설명하길 철학을 잘 표현하는 학문이라고 하더라. 그래서 수사학자들은 말하는 연습을 해서 화려한 언변을 구사했다. 심지어 파도를 앞에 두고 웅변하는 연습을 했다고 하더라. 그러니 얼마나 멋진 언변을 구사했을까.
그런데 흥미롭게도 훗날 철학을 죽인 것은 수사학이라고 평가한다. 너무 멋있게 표현은 했지만, 그 안에 본질적인 사고(思考)가 없었다. 그러니 멋은 있었지만, 결과적으로 일상을 지배하던 철학을 강의실에만 있는 학문으로 만들어 버린 것이다. 설교도 마찬가지다. 처음에 PPT가 나왔을 때 너무 놀라웠다. 그냥 하는 설교와 비교가 안됐다. 멋진 이미지가 눈앞에서 펼쳐지니 다들 당연히 PPT를 배워야 하는구나 생각했다.
그런데 조금이 있으니 영상이 나왔다. 압도적이었다. 영상을 배워야 한다는 분위기였다. 긴 설교를 누가 듣느냐는 것이다. 그런데 영상을 하는 사람들 사이에서도 더 깔끔한 편집이라든지 비교가 되기 시작했다. 로이드 존스는 “진짜 중요한 것이 무엇인가. 본질을 남기라”고 지적했다. 설교할 때 있어서 깊이 있는 묵상이나 사상이 중요한 것이지 그것을 표현하는 PPT나 영상은 중요한 것이 아닐 수 있다. 표현에 치우치다 보면 본질을 놓칠 수 있다.
ChatGPT가 전에는 단문으로 답했다면 이젠 세련된 문장으로 만들어주더라. 아주 중요한 기능이다. ChatGPT든 AI든 앞으로 무엇이 등장하던지 참된 본질이 담았는지 여부에서 판가름 날 것이다. AI가 설교자보다 좋은 설교문을 작성할 수도 있고 있지만, 우리가 어떤 삶을 살아야 할까, 인간의 본질은 무엇일까, 고민해야 하지 않겠나. 당장은 AI가 득세하는 것처럼 보일지라도 결국 본질로 회기(回歸)할 것이라 생각한다.
송창호: 조심스러운 전망이지만, 결국 인간의 가장 큰 소망은 나와 똑같은 존재를 만드는 것이 아닐까 생각한다. 하나님께서 인간을 만드신 것처럼 나도 나와 똑같은 존재를 만들고자 하는 것이 아니겠나. 바이오 테크놀러지도 그렇고 AI도 마찬가지다.
그래서 우리가 그렇게 하지 않고 싶다고 하지만 결국 자아를 가진, 적어도 자아를 가진 것처럼 보이는 존재를 만드는 것이 AI의 최종 목표가 아닌가 생각한다. 인간이 원하든지 원하지 않든지 우리가 영화에서 보는 것 같은 세계가 오지 않으리라 보장하지 못할 것 같다. AI가 스스로 학습하고 발전하면 얼마나 어떻게 발전할지 모르는 것 아니겠나.
어떤 로봇을 충전한다고 가정하자. 주인은 로봇이 너무 폭력적이라서 충전하고 싶지 않은데도 로봇이 스스로 충전하려고 하는 행동을 인간이 막을 수 있을까. 인간보다 더 강한 로봇을 제어할 수 있을까. 자기를 보전하기 위한 노력을 AI가 하게 된다면 사람은 AI는 자아를 가졌다고 느끼지 않겠나.
인간이 생각하는 자아의 개념과 AI가 생각하는 자아의 개념이 다를 수도 있다. 우리 인간이 감정의 알고리즘과 AI의 알고리즘이 다르지 않나. 인간의 경우 그것을 ‘영’이라고 표현하는데, 이 영이 인간다움의 표로서 강조해 교육해야 하지 않나 생각한다. 그리고 그것을 찾기 위한 노력을 우리 그리스도인이 해야 할 중요한 일이 되지 않을까. 아무리 우리 생활이 편하고 좋아도 영적인 갈급함을 느끼는 것처럼 AI가 아무리 발전해도 인간은 마지막 영적인 배고픔이 남아있는 삶을 살지 않을까. 오히려 더욱 그렇게 되지 않을까.
인간은 점점 무기력감을 느끼게 될 것 같다. 예전에 옆에 있는 인간과 경쟁했는데, 지금은 나보다 훨씬 뛰어난 존재, 그 존재가 인간도 아닌데 인간을 뛰어넘으니 무기력감을 느낄 것이다. 그러면 나는 대체 어떤 존재인가 하는 질문에 대한 답을 신앙이 줘야 할 것이다.
-
인공지능 시대, ‘목회자’는 어떤 준비가 필요할까 2024.10.24
-
인공지능 시대, ‘재림성도’는 어떤 준비가 필요할까 2024.10.24
-
[현장 인터뷰] “초기 선교사들의 희생 결코 못 잊어” 2024.11.14
-
[현장 인터뷰] 보이지 않는 곳에서 수고한 ‘돕는 손길’ 2024.11.14