요즘 인공지능(AI) 챗GPT 열풍이 거세다. 챗GPT는 미국 AI연구소 오픈AI가 만든 챗봇이다. 지난해 12월 출시된 지 40일 만에 사용자 1000만 명을 넘어서고 두 달 만에 1억 명을 돌파했다. 오픈AI는 2015년 올트먼과 일론 머스크 등이 인류에 도움을 주는 AI를 개발하고자 만들었다. 미국에서 의사·MBA·로스쿨 시험을 모두 합격한 3관왕으로 화제의 주인공이 됐다. 챗GPT는 방대한 데이터 학습을 기반으로 새로운 콘텐츠를 생성해 마치 사람처럼 일상 언어 의사소통으로 이용자에게 맞춤형을 제공한다. 에세이는 물론, 시, 소설, 보고서, 복잡한 계산과 프로그래밍 코드까지 짜준다.

이미 인공지능(AI)이 우리 사회에 충격을 던져준 사건은 2016년 3월 이세돌 9단과 구글 AI 알파고와의 '세기의 대결'이었다. AI가 세계 최고 수준의 바둑 기사를 연달아 이기는 광경은 우리 사회가 인공지능 기술에 보다 본격적인 관심을 가지는 계기가 됐다. 알파고 이후 불과 7년 사이 AI는 우리가 상상못할 진화된 혁신의 생성형 AI로 거듭났다. 챗GPT는 인공지능이 실생활에 직접 활용될 수 있는 다양한 가능성을 보여주면서 새로운 충격을 주고 있다.

챗GPT는 웬만한 질문은 불과 몇초 사이에 작성해 준다. 장문의 답변일 경우 10초 정도이며 사람이 쓴 글과 구분하기가 어려울 정도다. 의학 학술지 관련 논문은 과학자들도 사람이 쓴 것과 구별하지 못했다. 의료, 법조 등 고도화된 전문 영역의 지식 제공은 물론 전문가가 작성한 것으로 착각할 만큼 자연스러운 문장을 제공해 놀라고 있다. 어떻게 질의하느냐에 따라 논문은 물론 문학, 철학 등 학문, 예술영역의 창의적 답변까지 생성할 수 있다. 유례없는 문명 변화를 예고하는 AI의 놀라운 진화에 세계는 경탄했다.

PC 시대를 장식했던 마이크로소프트 창업자 빌 게이츠는 독일 언론과 대담에서 “AI 발전이 현 시점에서 가장 중요한 혁신”이라며 “챗GPT 등장이 인터넷 발명만큼 중대한 사건이 될 수 있다”고 평가했다. 알파고를 개발한 구글의 이사 레이먼즈 커즈와일은 2005년 ‘특이점이 온다’는 저서에서 2045년이면 AI가 모든 인간의 지능을 합친 것보다 강력해질 것으로 예측했다.생성형 AI가 새로운 서비스와 제품의 개발을 통해 우리 사회에 큰 영향을 끼칠 것으로 예상된다. 작곡, 예술 창작 분야 등 인간과 AI가 협업해 창조적인 작업을 수행하며 생산성과 효율성을 높일 수 있다.

챗GPT와 같은 전 세계 미래 AI 서비스 시장은 머잖아 2000조원 규모에 달할 것으로 추산된다. 지금 세계는 챗GPT 열풍으로 AI 경쟁이 뜨겁다. 글로벌 빅테크 기업의 AI기술 경쟁에 가속도가 붙었다. 마이크로소프트, 구글, 중국 최대 검색 업체 바이두 등이 앞다퉈 도전장을 냈다. 네이버, 카카오 등 국내 기업들도 ‘한국판 챗GPT’ 출시를 서두르고 있다. 마이크로소프트(MS)는 챗GPT 개발사인 ‘오픈AI’에 100억 달러를 투입하기로 했다. 드디어 구글이 지난 2월 6일 챗GPT의 대항마로 새로운 챗봇인 '바드(Bard)'를 출시했다. '바드'는 시인이라는 뜻이다.

하지만 생성형 AI가 장밋빛 장점만을 가지고 있는 것은 아니다. 챗GPT가 일상적인 대화 뿐만 아니라 논문 보고서까지 만들어내면서 윤리 문제와 함께 지적재산권 침해 문제가 제기된다. 챗GPT와 같은 생성형 AI는 대량의 데이터를 기반으로 텍스트를 생성하기 때문에 이 과정에서 오류나 잘못된 정보가 포함될 가능성이 높다. 또한 데이터에 따라 결과물이 달라지는 만큼 데이터의 특성에 따라 생성된 정보에도 불명확성과 편향성이 반영될 수 있다. 이와 동시에 표절, 가짜뉴스 같은 부작용과 편향적인 데이터 학습으로 인한 성별·인종·소수자 차별 등 인권과 윤리를 침해할 가능성도 한층 심각해졌다는 것이다.

챗GPT를 개발한 오픈AI의 미라 무라티 CTO(최고기술책임자)가 챗GPT 같은 AI를 규제할 필요성을 밝히면서 AI 기술 악용에 대한 걱정을 고백했다. 무라티는 5일 시사주간지 타임 인터뷰에서 "챗GPT는 사실을 지어낼 수 있고, 나쁜 의도를 가진 이용자들에게 악용될 수 있다"면서 "AI를 규제하는 것은 지금도 이르지 않다"고 말했다. 실제 유럽연합(EU)은 AI 관련 입법에 속도를 내고 있다. 우리나라는 과학기술정보통신부가 2020년 마련한 '인공지능 윤리기준'과 이듬해 '인공지능기본법'을 국회에 발의했으나 아직 보류중이다.

또한 인간의 언어를 이해하고 특정한 문맥에서 텍스트를 생성하는 능력은 있지만, 감성적이거나 의미 있는 대화를 나누는 상호작용을 수행하기에는 아직 한계를 가지고 있다. 인간은 엄청난 정보량과 편리함과 속도를 얻었지만 깊이 읽는 사고 능력을 상실해가는 것이다. AI로 인해 ‘쓰는 인간’의 위치도 흔들리게 됐다. AI는 데이터를 잘못 학습할 경우 가짜뉴스를 무한 생산할 수 있다.

당장 학교에서는 챗GPT를 사용한 학생들의 과제를 어떻게 평가할 것인가 하는 문제에 부닥친다. 과제물에 표절 논란이 불거지고 있다. 챗GPT를 사용했음을 명시하고 사용을 허락해야 한다는 의견도 있지만, 정보의 신뢰성이 완전하지 않고 학습의 관점에서 사고력과 문제 해결 능력에 도움이 되지 않는다는 이유로 사용을 금지하는 곳도 있다. 이 때문에 뉴욕시는 학생들에게 챗GPT 사용을 금지했고, 중고교 학생들이 챗GPT를 쓰지 못하도록 접속을 차단했다. 호주 대학은 시험 문제를 풀 때 아예 컴퓨터 사용을 못하게 했다. 미국 대학들은 집에서 해 오는 리포트 숙제를 없애고 있다. 누가 썼는지 모른다는 것이다. 금지한 이유는 학업에 필요한 사고(思考)와 문제해결 능력에 미치는 부정적 영향 때문이라 한다.

세계적인 AI 전문가로 꼽히는 미국 스탠퍼드대의 크리스토퍼 매닝 교수와 첼시 핀 교수 등이 참여한 연구팀은 지난 1월 26일 '챗GPT'로 학생의 과제 대필 등 악용 논란에 인공지능이 만든 문장을 찾아내는 '디텍트GPT(DetectGPT)'기술을 공개했다. 바로 '창과 방패의 싸움'으로 'AI 잡아내는 AI'까지 등장했다.

과학 학술지 네이처는 챗GPT를 연구 논문의 저자로 인정하지 않겠다고 했다. 이를 사용하는 경우 반드시 논문에 명시해야 한다는 원칙을 제시하고 있다. AI는 논문에 책임을 질 수 없기 때문이다. 챗GPT의 활용을 무조건 막기보다 어떻게 적절히 활용하도록 할 것인지 그 원칙을 세우는 것이 중요하다. 학생들이 스스로 필요한 지식을 찾아 학습할 수 있도록 지원하는 것이 필요하다.

진화경제학의 세계적 석학인 컬럼비아대 리처드 넬슨 교수는 “혁신에서 중요한 것은 변화의 속도가 아니라 변화의 방향이다”라고 했다. 우리는 늘 혁신의 긍정적인 측면만을 강조해 왔다. 그러나 혁신에는 긍정적인 측면과 함께 부정적인 측면이 존재한다. 어느 때보다 빠르게 변화하는 기술혁신 환경하에서 변화의 방향을 적절히 설정하는 것이 매우 중요한 이유이다.

서비스가 지능화 될수록 생성형 AI는 사회 다양한 분야에 변화를 일으키게 될 것으로 예상된다. 이러다 전문직 일자리까지 빼앗아가는 건 아닌가 하는 우려가 많다. 생성형 AI 활용이 확대되면서 자동화가 이루어질 경우, 작가·기자·번역가·교사·변호사 음성 배우, 일러스트레이터 등 AI 기술에 대체되어 일부 직업이 사라질 가능성이 높다. 그러나 기자 경우는 사회현상을 분석하고 비판하고 예측할 수 있는 창의적 기획 기사 작성 능력은 아직 AI가 쉽게 따라오기 힘든다. 챗GPT에 “인간의 일자리를 빠르게 빼앗지 않을까”라고 질문 했더니 “챗GPT는 특정 과업을 자동화하도록 설계돼 있다. 오히려 인간의 노동 시간을 줄여 인간을 노동에서 해방해 줄 수 있다. 그만큼 인간은 더 고도화된 일을 하면 된다”는 그럴싸한 대답을 했다.

그러나 대화형 AI 시대에 상당수 직업은 대체나 소멸을 피할 수 없다. 가장 위협받는 직종은  소위 일반 행정직을 포함해서 정부나 공공기관의 민원 상담 업무에 챗GPT가 해당 업무 인력의 감축으로 이어질 수 있다. 높은 교육수준을 요구했던 직종도 피해갈 순 없다. 결국 "같은 정보량을 생산하는 데 있어 지금보다 적은 인력이 필요하며, 노동시장에 큰 변화를 가져올 것"이라는 게 브루킹스 보고서의 전망이다.

인공지능 기술이 반드시 필요하고, 유용한 기술임에는 두말할 나위가 없지만, 인공지능 기술 혁신이 활발한 지금 혁신이 가져올 긍정적 파급효과 외에도 부정적 파급효과를 깊이 고민해 야 한다. 기술의 본질을 이해하지 못한 상태로 인공지능에 대한 지나친 기대는 주의해야 한다. 결국 시민이 챗GPT를 이용하며 어떤 질문을 하느냐, 얼마나 좋은 질문을 하느냐가 중요하다. 질문의 미묘한 차이에 따라 답변이 달라지기 때문이다. 인간과 AI의 합리적인 공생 방안이 무엇인가를 고민해야 할 때다. 예측할 수 없는 미래를 대비하기에는 준비해야 할 과제가 많다.

MIT-IBM 왓슨 AI 연구소의 IBM 측 책임자인 콕스 소장은 “챗GPT는 결정을 돕는 도구일 뿐 책임은 사람이 지는 것"이라 했다. 우선 챗GPT라는 도구의 본질과 한계를 먼저 체득해야 한다. 막연한 경계심보다 신기술에 대한 이해와 적응으로 부작용을 막고, 인간이 지닌 고유한 사유(思惟) 통찰과 지혜를 더욱 승화시키는 도구로 활용해야 한다. 어디까지나 챗GPT는 인간이 유용하게 사용할 도구이며 이를 선택·활용·결정하는 책임은 인간이 져야 한다.

경희대 언론정보학부 교수, 경남대 석좌교수, YTN 매체비평 고정 출연, 방송통신심의위원회 연예오락방송 특별 위원장, 방송위원회(보도교양/연예오락)심의 위원장, 언론중재위원회 위원, 한국방송예술교육진흥원 원장, 방송통신연구원 부원장, KBS 예능국장, TV제작국장, 총국장, 정책실장, 편성실장, 중앙일보·동양방송(TBC) TV제작부 차장

SNS 기사보내기
뉴스프리존을 응원해주세요.

이념과 진영에서 벗어나 우리의 문제들에 대해 사실에 입각한 해법을 찾겠습니다.
더 나은 세상을 함께 만들어가요.

정기후원 하기
기사제보
저작권자 © 뉴스프리존 무단전재 및 재배포 금지