닫기

[박재형 칼럼] 선거의 해, AI 기술이 미칠 영향은?

기사듣기 기사듣기중지

공유하기

닫기

  • 카카오톡

  • 페이스북

  • 트위터 엑스

URL 복사

https://atoo4u.asiatoday.co.kr/kn/view.php?key=20240219010008927

글자크기

닫기

 

승인 : 2024. 02. 19. 18:01

2024011101001298500072071
박재형 재미 정치학자
소셜 미디어 페이스북의 모기업 메타(Meta)가 자사 플랫폼에서 인공지능(AI)으로 생성한 이미지에 이를 식별할 수 있는 꼬리표(label)를 붙이기로 했다. 이 회사는 자체 개발한 메타데이터 식별 도구를 이용해 챗GPT 개발사 오픈AI 등 다른 회사의 AI로 생성한 이미지를 이용자들이 구분하도록 할 방침이다. 메타는 이 정책을 미국 등 세계적으로 중요한 선거들이 치러지는 동안 유지하겠다고 밝혔다.

11월 미국 대통령 선거, 그보다 앞서 4월 한국 국회의원 총선거 등 역사적인 선거가 치러지는 올해 AI, 특히 챗GPT와 같은 생성형 AI(Generative AI) 기술은 새로운 도전이 되고 있다. 생성형 AI는 이용자의 요구에 따라 사실적인 이미지, 동영상, 오디오 또는 텍스트를 생성할 수 있다. 선거가 가까워지는 시점에서 잠재적 활용 가능성을 고려할 때, 이 기술은 큰 주목을 받는다.

2024년에는 그 어느 때보다 많은 국가에서 선거가 치러진다. 전 세계 인구의 41%, 전 세계 GDP의 42% 이상을 차지하는 국가들이 중요한 선거를 앞두고 있다. 과거 사례들과 마찬가지로 올해도 온라인 생태계가 선거 과정과 결과에 상당한 영향을 미칠 것으로 예상된다. 그리고 여기에 새로운 기술 발전이 더해지며 선거 양상의 변화 가능성에 세계가 긴장하고 있다.

생성형 AI 기술은 거의 10년 동안 급속히 발전해 왔다. 특히 2022년 11월 챗GPT가 출시된 이후, 이러한 유형의 콘텐츠가 허위 정보 생산을 가속해 2024년 선거의 해를 '정보의 악몽'으로 만들 수 있다는 우려가 계속 제기된다. 생성형 AI 출시 후 1년여가 지나는 동안 초기의 엄청난 열광에 비하면 세상의 정보 환경은 크게 변화하지 못했다. 오히려 새로운 기술은 긍정적 발전을 이루기보다 민주적 담론과 선거의 공정성을 훼손하는 데 이미 사용되고 있다.
선거를 앞두고 이러한 기술에 주목하는 이유는 선거와 관련해 생성한 콘텐츠가 미칠 영향 때문이다. 이러한 콘텐츠는 선거 막판 유권자의 투표권 행사를 방해하려는 시도를 조장하거나 반박할 기회가 없는 상황에서 특정 후보에 대한 허위 정보를 제작, 무제한 유포할 가능성이 상당하다. 특히 이렇게 유포된 정보가 선거 후 허위로 드러나도 선거 결과를 바꿀 방법은 사실상 없다.

생성형 AI에 의한 콘텐츠는 정치 이슈에 대한 합의 조작, 정부 대응력 약화, 여론 혼란과 분열, 유권자 현혹, 선거에 대한 신뢰 약화 등을 전보다 더 쉽게, 더 적은 비용으로 가능하게 한다. 이러한 시도는 새로운 것이 아니며 이전부터 계속된 문제들이다. 그러나 새로운 기술은 이전과 비교할 수 없는 양과 질의 콘텐츠로 민주적 담론을 훼손할 수 있는 잠재력이 있다.

이러한 맥락에서 생성형 AI 콘텐츠는 허위 정보의 확산을 촉진하는 증폭기가 될 수 있다. 이전에는 여러 행위자 또는 특정 집단 구성원들의 조율이 필요했다. 재활용 사진을 사용하거나 문법적으로 부정확하고 어색한 메시지를 사용하기 때문에 어느 정도 구별 가능했다. 하지만 이제는 클릭 몇 번으로 과거와 같은 오류 없이 차별화된 콘텐츠를 대량으로 제작할 수 있다.

딥페이크와 음성 복제는 이미 선거에 출마하는 후보자를 모방하는 데 이용되고 있다. 가장 최근의 대표적 사례로, 미국 뉴햄프셔 예비선거를 앞두고 조 바이든 대통령을 사칭한 AI 생성 로보콜이 민주당원들의 투표를 방해한 사건이 발생했다. 앞으로 이러한 전술은 유권자의 동력을 떨어뜨리거나 속이는 데 더 효과적으로 악용될 수 있다. 또한 여론을 흔들고 정치적 분열을 악화시키는 데도 동원 가능하다. 이러한 시도를 국가적 차원에서는 어느 정도 발견할 수 있지만, 자원과 관심이 제한된 지방자치단체 및 기타 지역 선거에서는 대응이 어려울 수 있다.

악의적인 행위자는 생성된 이미지로 가짜 계정을 통해 영향력 행사 및 조직적인 불법 행동을 더욱 그럴듯하게 만들 수 있다. 과거에는 다른 소셜 미디어 사용자로부터 가져온 이미지를 재활용해 프로필을 만들었지만, 이제는 이러한 캠페인을 더욱 신뢰성 있게 보이도록 대량의 가짜 프로필을 쉽게 만들 수 있다. 자동화된 프로세스는 이러한 가짜 프로필을 이전보다 더 빠르게 확산시킬 수 있다.

소셜 미디어나 웹사이트를 통해 공유되는 대량의 고유한 텍스트를 사용해 두드러지는 문법 오류와 오용된 전문 용어 없이도 공감대를 형성하거나 설득력 있는 이야기를 만들어낼 수 있다. 이러한 유형의 콘텐츠는 영어뿐 아니라 한국어 등 특정 언어로 된 선거 관련 허위 정보를 무수히 생산할 수 있다. 특히 이러한 정보는 콘텐츠의 신선도에 의존하는 검색 알고리즘에서 다른 정보들을 압도할 잠재력이 있다. 이미 업무가 과중한 선거 담당 공무원에게 이를 찾아내기 위한 시간 집약적인 작업은 가뜩이나 어려운 업무를 더욱 복잡하게 만들 수 있다.

이처럼 AI가 생성 콘텐츠로 인한 문제를 해결하려면 정부부터 AI 기업, 소셜 미디어 플랫폼, 이용자에 이르기까지 다양한 주체들의 협력이 필수적이다. 문제 콘텐츠의 개발, 배포 및 탐지를 목표로 하는 협력은 선거 기간 동안 AI가 생성한 정보에 의한 문제를 완화하는 데 도움이 될 것이다. 이러한 조치로 문제가 완전히 해결되지는 않겠지만, 중요한 선거 기간 동안 다루기 어려워 보이는 문제를 해결하기 위한 긍정적인 조치가 될 수 있다.

정책 결정자, 기술 기업, 연구자들이 AI로 생성된 콘텐츠의 악의적 활용에 대해 지속적으로 연구하고 있는 가운데, 선거에 미치는 잠재적인 긍정적 영향을 강조하는 것 또한 중요하다. 예를 들어, AI 도구는 미국에서 후보자가 특정 언어로 새로운 유권자에게 다가가거나 중요한 캠페인 및 선거 관련 정보를 다른 언어로 번역하는 데 도움이 된다. 이는 허위 정보가 넘쳐나는 온라인 환경에서 양질의 콘텐츠 및 데이터 공백을 메울 수 있다.

또한 생산성 측면에서 생성형 AI의 이점을 고려할 때 이러한 도구는 자원이 부족한 선거 캠페인의 경쟁력을 유지하는 데에도 도움이 될 수 있다. 따라서 생성형 AI 콘텐츠와 관련된 문제 해결을 위한 정책과 접근 방식의 변화는 생성형 AI의 사용 여부가 아닌 이러한 결과물의 폐해에 초점을 맞추는 것이 우선이어야 한다.

박재형 재미 정치학자

※본란의 칼럼은 본지 견해와 다를 수 있습니다.

ⓒ 아시아투데이, 무단전재 및 재배포 금지

기사제보 후원하기