[※ 편집자 주 = 한국국제교류재단(KF)의 지난해 발표에 따르면 세계 한류 팬은 약 2억2천5백만명에 육박한다고 합니다.
또한 시간과 공간의 제약을 초월해 지구 반대편과 동시에 소통하는 '디지털 실크로드' 시대도 열리고 있습니다.
바야흐로 '한류 4.0'의 시대입니다.
연합뉴스 동포·다문화부 K컬처팀은 독자 여러분께 새로운 시선의 한국 문화와 K컬처를 바라보는 데 도움이 되고자 전문가 칼럼 시리즈를 준비했습니다.
시리즈는 매주 게재하며 K컬처팀 영문 한류 뉴스 사이트 K바이브에서 영문으로도 보실 수 있습니다.]
챗GPT와 개발자의 관계 풍자 만평 출처 : 페이스북 캡처
필자는 최근의 한 소셜미디어를 통해 접했던 이 그림을 보고 웃음과 함께 많은 생각이 들었다.
이 그림이 웃음을 자아내는 이유는 표면적으로 AI와 프로그래머의 의존 관계를 풍자했기 때문이다.
이 이미지가 전달하는 더 깊은 메시지는 'AI와 인간은 서로에게 의존하고 있다'는 사실이다.
줄을 끊으면 프로그래머가 떨어지는 것처럼 보이지만, AI인 챗GPT 역시 홀로 절벽에 매달려 있을 수 없게 된다.
둘은 운명을 함께 하는 관계다.
이 이미지는 우리가 직면한 AI 시대의 근본적인 도전을 상징한다.
AI는 인간이 만든 데이터를 기반으로 학습하고 성장한다.
만약 인간이 콘텐츠 생산의 주체로서 책임을 방기하고 AI에게 모든 것을 맡긴다면 어떻게 될까? AI는 더 이상 양질의 학습 데이터를 얻지 못하게 된다.
또한 인간은 정보의 진정성을 잃게 된다.
결국 둘 다 낭떠러지로 떨어지는 셈이다.
AI 시대에 인간 창작자의 역할이 더욱 중요해지는 이유가 바로 여기에 있다.
따라서 창작자는 AI의 편리함을 누리면서도 인간만이 만들 수 있는 진정성 있는 콘텐츠를 계속해서 생산해야 한다.
그래야만 AI도 제대로 학습하고 이용자도 믿을 수 있는 정보를 얻을 수 있다.
◇ 변화하는 검색의 패러다임 인터넷 검색의 방식이 빠르게 변화하고 있다.
불과 몇 년 전까지만 해도 검색은 키워드를 입력하고 여러 웹페이지 중에서 원하는 정보를 직접 찾아내는 과정이었다.
이제 써치 GPT(Search GPT), 퍼플렉시티(Perplexity)와 같은 AI 기반 검색 엔진은 이 모든 과정을 대신 수행하면서 '완성된 답변'을 제공한다.
이런 변화는 분명 현대인의 삶을 편리하게 만들었다.
더 이상 여러 웹페이지를 오가며 정보를 비교할 필요가 없어졌다.
하지만 편리함 뒤에는 새로운 위험이 숨어 있다.
정보의 출처와 신뢰성의 문제다.
◇ 정보의 자기 순환, 새로운 디지털 위험 현재 AI는 인간이 생산한 콘텐츠를 학습한 뒤 정보를 제공한다.
뉴스 기사, 블로그, 학술 논문 등 다양한 텍스트를 분석해 가장 적절한 답을 검색하고 생성하는 방식이다.
그런데 만약 AI가 생성한 콘텐츠가 다시 인터넷에 게시되고, 그것이 다른 AI의 학습 데이터가 된다면 어떻게 될까? 이것이 바로 '정보의 자기 순환'(Self-Referencing) 문제다.
AI가 AI를 학습하게 되는 순환 구조가 형성되면서 정보의 원천이 모호해지는 현상이 발생한다.
특히 AI는 여러 출처에서 반복적으로 등장하는 정보를 '신뢰할 만한 것'으로 간주하는 경향이 있는데, 이는 심각한 문제로 이어질 수 있다.
A라는 AI가 특정 주제에 대해 약간의 오류가 있는 콘텐츠를 생성했다고 가정해 보자.
이 콘텐츠가 여러 웹사이트에 게시되면, B, C, D라는 다른 AI는 이 정보가 여러 출처에서 확인된다는 이유로 이를 '사실'로 인정할 가능성이 높다.
결국 오류가 있는 정보가 마치 검증된 사실처럼 확산하는 것이다.
◇ 디지털 정보의 근원적 위기 AI 시대에 필요한 것은 단순한 디지털 활용 능력을 넘어선 '디지털 정보 리터러시'다.
여기서 더 심각한 문제가 있다.
정보의 출처를 확인하는 것만으로는 충분하지 않게 된 것이다.
많은 이는 지금까지 검증할 수 있는 출처에서 나온 정보라면 그 내용을 어느 정도 신뢰할 수 있다고 생각해왔다.
하지만 AI 시대에는 출처 자체가 이미 AI에 의해 생성된 콘텐츠에 기반을 두고 있을 수 있다.
즉, 그동안 신뢰하던 뉴스 기사, 학술 자료, 전문가 블로그도 AI가 생성한 정보를 바탕으로 작성됐을 가능성이 있다는 것이다.
마치 '거울이 거울을 비추는' 무한 반사와 같은 상황을 만들어낸다.
출처를 아무리 꼼꼼히 확인해도, 그 출처의 궁극적 작성 주체가 AI라면 결국 정보의 진위를 판단하기 어려워진다.
이 점이 바로 필자가 여러 강연에서 파워 블로거나 인터넷 매체 종사자에게 강조해온 가장 우려스러운 부분이다.
◇ 정보 생산자의 윤리적 책임 이 문제의 해결은 정보 소비자의 주의만으로는 불가능하다.
가장 중요한 것은 강한 영향력을 가진 정보 생산자와 전문가의 윤리적 책임이다.
AI가 생성한 콘텐츠를 교차 확인 없이 사용하는 데 그치지 않고 소극적이거나 피상적 검증만 거친 채로 콘텐츠가 그대로 발행되기도 한다는 점이다.
'검증했다'고 말하지만, 사실은 맞춤법 정도만 확인하고 내용의 정확성이나 출처는 제대로 검토하지 않는 경우도 있다.
또는 표현만 약간 바꾸고 AI가 제시한 주장이나 데이터는 그대로 수용하는 경우도 흔하다.
이런 미미한 수준의 검증은 모두가 예상하다시피 문제 해결에 거의 도움이 되지 않는다.
정보의 자기 순환 문제를 막기 위해서는 정보 생산자가 크게는 다음의 두 가지 원칙을 지켜야 한다.
가능한 한 직접 콘텐츠를 작성해야 한다.
그리고, AI의 도움을 받더라도 토씨 하나까지 세밀하게 검증하고, 모든 주장과 데이터를 스스로 판단과 비교 검증하는 것이다.
단순한 감수가 아니라 거의 처음부터 다시 쓰는 수준의 철저한 검증을 의미한다.
따라서 모든 정보 생산자는 AI 생성 콘텐츠를 기반으로 한 작업물을 자신의 이름으로 출판하거나 게시할 때 철저한 검증과 재작성을 거쳐야 한다.
그런 것이 아니더라도 AI가 검색할 수 있는 블로그나 SNS라면 역시나 주의해야 할 일인 것이다.
특히 인터넷 언론사나 학술 기관, 영향력 있는 미디어 플랫폼은 AI 생성 콘텐츠가 제대로 검증되지 않은 채 게재되는 것을 방지하는 강력한 내부 정책을 수립해야 한다.
AI와 인간이 공존하는 미래는 이미 시작했다.
이 시대에 가장 중요한 것은 정보의 자기 순환 고리를 끊는 일이다.
AI 기술의 발전 방향을 조정하는 문제가 아니라 정보 생산자로서 인간의 책임 있는 행동에 달려 있다.
AI가 생성한 콘텐츠가 공식적인 정보원으로 둔갑하는 것을 막기 위해 언론인, 학자, 파워 블로거, 기업 커뮤니케이션 담당자 등 모든 정보 생산자는 본인 스스로가 직접 작성하거나 아니면 AI의 도움을 받더라도 모든 문장, 주장, 데이터를 철저히 검증하고 확인하는 노력이 필요하다.
이는 정보 생태계의 건강성을 유지하기 위한 가장 기본적인 책무다.
AI 개발 기업은 자사의 AI가 학습하는 데이터에서 AI 생성 콘텐츠를 식별하고 필터링하는 기술을 발전시켜야 한다.
더 중요한 것은 정보 플랫폼과 소셜 미디어 기업이 AI 생성 콘텐츠를 명확히 표시하고, 이를 기반으로 한 2차 창작물까지 추적할 수 있는 시스템의 구축이다.
사용자 또한 정보를 접할 때 그것이 인간이 직접 작성한 것인지 AI가 생성한 것인지 구분하려는 노력을 게을리하지 말아야 한다.
사실상 이러한 노력은 어디까지나 보조적인 방어막일 뿐 근본적인 해결책은 정보 생산자가 자발적인 노력으로 콘텐츠를 생산하는 데 있다.
영화 '매트릭스'의 모피어스가 말했듯이 "믿는 것과 아는 것은 다르다".
AI 시대에 단순히 정보를 소비하는 것이 아니라 정보를 생산하고 유통하는 방식까지 책임져야 한다.
AI 생성 콘텐츠가 인간이 만든 콘텐츠로 위장해 유통되고 그것이 다시 AI의 학습 데이터가 되는 악순환을 끊어내는 것이 가장 시급한 과제다.
그렇지 않으면 머지않아 인간의 지식과 AI의 지식을 구분할 수 없는 정보의 카오스 속에 살게 될 것이다.
그 속에서 진실과 허구의 경계는 점점 흐려지고, 결국 정보의 근원을 영원히 잃어버릴지도 모른다.
이것이 바로 AI 시대에 모두가 직면한 가장 큰 도전이며 정보 생산자로서 반드시 인식해야 할 책임이다.