[전문가칼럼] 챗GPT, 어떻게 해야 할까?

관리자
발행일 2023.04.04. 조회수 37739
칼럼

[월간경실련 2023년 3,4월호-우리들이야기(2)]

챗GPT, 어떻게 해야 할까?


박만규 아주대 불어불문학과 교수


대화형 인공지능 챗GPT 열풍이 뜨겁다. 미국 로스쿨 시험과 의사면허시험을 통과했으며, 새로 나온 GPT-4는 미국 수능 SAT 상위 7%, 미국 변호사 시험 상위 10%로 통과했다고 한다.


이에 따라 최근 우리나라에서도 챗GPT를 공부하는 많은 모임들이 생기고 있고, 사회 전체가 이에 대한 대응을 위해 몸살을 앓고 있는 실정이다. 왜 이토록 열광하는가?


어떤 것에 대해 알기 위해 지금까지는 검색엔진을 이용해 왔는데 이는 대개 키워드를 여러 번 넣어 수행해야 결과를 얻을 수 있는데 반해 챗GPT와 같은 대규모 언어모델(LLM, Large language Model)에 기반한 대화형 인공지능(conversational A.I.) 서비스의 경우 직접 하나의 질문을 던지면 해결이 되기 때문이다. 이제 정보 검색의 시대에서 지식 문의의 시대로 바뀐 것이다.


오픈AI의 챗GPT에 이어 마이크로소프트의 뉴빙(New Bing), 구글의 바드(Bard) 등 새로운 서비스가 속속 경쟁적으로 등장하고 있고 국내에서도 여러 기업이 뛰어들어 서비스를 앞두고 있다.


그런데 이들은 과연 새로운 디지털 혁명인가? 요즘 ‘혁명’이라는 말이 너무 인플레가 되어 있다. 우선 ‘4차 산업혁명’이라는 말도 우리나라와 독일 등 일부 나라에서만 쓰는 용어일 뿐이다. 게다가 요즘은 새로운 기술이 하나 나올 때마다 ‘혁명’이라는 말을 기본적으로 달고 나온다. 작년 한 때 떠들썩했던, 세상이 다 뒤집어지는 줄 알았던 ‘메타버스’(Metaverse)도 혁명이라고 했다. 혁명이 너무 흔해졌다. 거의 매년 나온다. 그래서 혁명이라고 하기엔 어려움이 따른다. 이 챗GPT도 아직 모른다.


그러나 새로운 시대를 연 것은 맞다. 대화형 AI의 커다란 진전을 보여 주었기 때문이다. 우선 기존의 모델과 달리 문맥을 고려한 자연스러운 대화가 가능하다.


그런데 여기에 이 챗GPT를 쓸 것인가 금지시킬 것인가 하는 논쟁이 뜨겁다.


우선 챗GPT가 기존 지식을 끌어 모은 것이기 때문에 기본적으로 표절이라는 문제로부터 자유로울 수 없다. 또한 공부를 통해 지식을 섭취해야 할 학생들에게는 나태함을 조장하는 수단이 된다. 이 점 때문에 뉴욕의 공립학교에서는 챗GPT 사용을 금지하는 조치를 취했다. 반면에 대학에서는 오히려 과제물을 작성할 때 챗GPT를 활용할 것을 권장하는 교수들도 많이 있다. 요컨대 챗GPT를 써서 기존의 지식 검색을 효율화하고 남는 시간에 자신만의 생각과 논리에 시간을 더 쓰라는 것이다. 계산기가 수학 교육을 방해하지 않았고, 구글 검색이 자료 검색의 수고에서 해방시켜 주었듯이, 이제 새로 태동한 이 기술을 적극적으로 활용하라는 입장이다.


그렇다면 우리는 어떻게 해야 할까? 우리는 이왕이면 적극적으로 활용하는 입장을 취하는 것이 좋겠다는 생각이다. 어차피 기술 개발과 자본 투자의 방향이 이미 이쪽으로 기울어져서 이 방향으로의 진보가 예상되기 때문이다.


사실 언어학자인 필자가 보기에 인공지능은 말이 인공지능일뿐, 현 단계에서는 ‘지능’이라고 할 수가 없다. 예전보다 똑똑해지기는 했어도, 결코 스스로 사고하는 것이 아니라, 여전히 네트워크의 가중치(weight)와 함수만이 결과치를 결정하는 알고리즘일 뿐이다. 더욱이 구사하는 언어가 근본적으로 ‘계산에 의한 확률론’에 기반하고 있기 때문에 인간의 언어 작동 방식과 전혀 다르다. 바로 이 때문에 놀라운 수행을 보여주다가도 인간이라면 결코 하지 않을 엉뚱한 실수를 하는 것이다. 또한 인간은 한두 번의 설명과 약간의 경험을 거치면 쉽게 이해할 수 있는 개와 고양이의 구분을 인공지능은 수십만 번의 데이터를 학습해야 다룰 수 있을 만큼 데이터에 지나치에 의존하고 있다. 이로 인해 엄청난 전력을 소모하고 결국 환경 파괴라는 결과까지 야기하고 있다.


그러므로 이를 ‘지능’으로 생각해서는 안 되고 ‘도구’로 생각해야 한다. 다행히 도구로서는 꽤 훌륭한 것이다. 그리고 그렇게 접근하는 순간 이것을 이용할 가치가 생기는 것이다.


대화형 AI를 잘 활용하기 위해서 유념해야 할 것은 질문을 잘해야 한다는 사실이다. 검색 엔진 사용 시에도 검색 능력이 필요하듯, 여기에서도 질문 능력이 요구된다. 요컨대 똑똑한 질문을 하는 것이 성공의 열쇠가 되는 것인데, 실제로 인공지능으로부터 높은 품질의 결과물을 얻어내기 위한 좋은 명령어(프롬프트), 즉 질문을 만들어 내는 사람(프롬프트 엔지니어)을 국내외 굴지의 IT 기업들이 채용하고 있다. 심지어 3~4억의 고액 연봉을 지급한다고 한다. 이처럼 인공지능에 대해 잘 이해하고 관련한 서비스를 잘 활용하는 능력(AI 리터러시)을 갖춘 사람과 그렇지 못한 사람의 사회·경제적 격차는 향후 크게 벌어질 것으로 예상이 된다. 이런 점에서 AI가 사람을 대체하는 것이 아니라 AI 리터러시가 있는 사람이 AI 리터러시가 없는 사람을 대체할 것이라고 하는 말이 나올 정도이다.


그런데 여기서 주의해야 할 점이 하나 있다. 대화형 AI는 올바른 정보만 제공하는 것이 아니라는 점이다. 틀린 정보도 상당히 많이 제시하고, 어투가 매우 단정적이어서 마치 올바른 지식인 것으로 오인하게 하는 경우가 많다. 예컨대 “한국 전래 동화 '콩쥐 팥쥐'는 무엇에 관한 이야기인가요?”라고 질의해 보았더니 '콩쥐 팥쥐'는 한국의 전래동화 중 하나로, 쥐 두 마리가 콩과 팥을 나누어 가지며 서로의 욕심을 버리고 협력하여 함께 살아가는 이야기라고 답하는 식이다.


이처럼 챗GPT가 제시하는 엉뚱한 대답을 ‘환각’(hallucination)이라고 하는데, 이런 답변을 유도하는 질문을 던지는 게임도 있을 정도로 이 문제는 심각하다. 인종, 종교, 젠더 문제에 관한 편향적 사고의 문제도 제기된다. 그래서 이 같은 윤리적 문제를 이유로 사용을 금지해야 한다는 주장도 나오고 있다. 할 수만 있다면 그렇게 되기를 바란다. 그러나 지금까지의 예를 보면 거대자본에 의해 움직이는 기술개발의 방향이 꺾이지는 않는다. 새로운 기술에는 언제나 이처럼 피할 수 없는 부작용이 있다. 사실 지금 우리가 이미 널리 사용하고 있는 검색엔진과 유튜브, 많은 사회관계망 서비스(SNS)에도 이미 이 같은 악들이 있다. 이런 이면은 언제나 있었고 앞으로도 있을 것이다. 그러므로 기술 자체를 금지시키는 것보다, 그 부작용들을 끊임없이 감시, 경계하고 징계하는 노력을 기울여야 할 것 같다.


지금까지 수많은 기술이 나타났지만, 그리고 나타날 때마다 인간이 밀려날 것을 우려했지만, 여전히 인간은 자신만의 할 일을 하고 있다. 새로운 기술 혁명은 기존의 일자리를 없앴지만, 항상 새로운 일자리를 창출했기 때문이다. 예컨대 자동차가 나타나서 마차는 사라지게 했지만 자동차 제조업뿐 아니라 석유산업, 금융업, 보험업 등이 나타났다. 이제 대화형 AI가 나왔으니 이로부터 새로운 산업이 파생될 것으로 전망된다. 이 산업의 부정적 측면도 많지만, 이것도 포함하여 잘 대비하면서 활용하는 것이 좋지 않을까 한다.


대화형 인공지능 서비스는 향후 제공하는 정보가 얼마나 정확하고 신뢰할 수 있는지, 그리고 편향성과 같은 윤리적 문제와 환경오염 등의 공동체 관련 이슈들을 얼마나 잘 극복할 수 있는지가 그 지속성과 발전의 관건이 될 것이며, 개인은 이러한 사항들을 염두에 두고 적응과 감시라는 두 방향의 노력을 게을리하지 않아야 할 것이다.


첨부파일

댓글 (0)