공공정책 위키(Public Policy Wiki)에 오신 것을 환영합니다


공공정책 위키 시작하기

AI기반 가짜뉴스 자동감지 시스템

Public Policy Wiki
둘러보기로 이동 검색으로 이동
가짜뉴스
(1) 가짜뉴스의 정의
어떠한 의도를 가지고 거짓 정보를 사실인 것처럼 포장하거나 아예 없었던 일을 언론사 기사처럼 만들어 유포하는 것으로, '페이크 뉴스(Fake News)'라고도 한다. 2010년대 이후로 인터넷이 발달하고 사회관계망 서비스가 급속히 확산되면서 언론사가 아닌 개인들이 사실이 아닌 내용을 진짜 뉴스처럼 퍼뜨리는 사태가 많이 일어나면서, 가짜뉴스가 사회 문제로 대두되고 있다. 특히 가짜뉴스의 광범위한 확산으로 여론을 호도하거나 선거에 영향을 미친다는 논란이 제기되면서 전 세계에서 가짜뉴스를 타파하려는 움직임이 거세지고 있다.

가짜뉴스는 힐러리 클린턴과 도널드 트럼프가 맞붙었던 2016년 미국의 대통령 선거를 기점으로 크게 확산됐다는 시각이 지배적이다. 우리나라에서는 가짜뉴스가 온라인 커뮤니티를 중심으로 생성돼 소셜네트워크서비스(SNS)나 포털사이트 등을 통해 광범위하게 확산되는 경향을 보이고 있다. 예컨대 2016~2017년 박근혜 전 대통령 탄핵 국면에서 가짜뉴스가 일부 보수단체 등을 중심으로 대거 생성돼 SNS 등을 통해 유포되면서 큰 논란이 일기도 했다.

(2) ‘21세기형 가짜뉴스’의 특징
그 논란의 중심에 글로벌 IT기업이 있다는 점이다. 가짜뉴스는 더 이상 동요나 입소문을 통해 퍼지지 않는다. 누구나 쉽게 이용하는 미디어 플랫폼에 ‘정식 기사’의 얼굴을 하고 나타난다. 감쪽같이 변장한 가짜뉴스들은 사람들의 입맛에만 맞으면 쉽게 유통·확산된다. 대중이 뉴스를 접하는 채널이 전통적 미디어인 신문·방송에서 포털, 소셜네트워크 서비스(SNS) 등 디지털 미디어 플랫폼으로 옮겨가면서다. 구글, 페이스북과 같은 IT 기업들은 ‘디지털 뉴스 중개자’로 부상하는 동시에 가짜뉴스의 온상지가 됐다. ‘프란치스코 교황이 도널드 트럼프 지지를 선언했다’는 가짜뉴스가 지난 미 대선 기간 중 페이스북에서 가장 많이 공유된 소식이라는 사실은 이를 잘 보여준다.
AI 기반 자동감지 시스템
- 인공지능 기반 탐지기법은 데이터를 기반으로 학습된 모델을 이용하여 가짜여부를 판별한다. 이 기법은 머신러닝 기반 자연어 처리로 분류된다. 해외에서는 이 기법들 중 하나인 신경망 모델이나 경정 트리 등을 사용하여 80% 이상의 정확도를 도출해낸 결과가 있다.
정책

(1) 2023년 5월 문화체육관광부, 언론진흥재단에 「가짜뉴스 신고․상담센터」설치․운영 문체부는 5월 초 한국언론진흥재단 내에 「가짜뉴스 신고·상담센터」를 설치해, 가짜뉴스로 인한 국민 피해 신고를 접수받고 구제 절차에 대한 상담을 제공할 계획이다. 보다 정밀하고 입체적인 팩트체크를 통해 가짜뉴스를 유형화하고 관련 데이터를 체계적으로 수집·공개한다. 언론중재위에도 가짜뉴스 사례를 전달한다. 피해구제 사례집, 대응 매뉴얼도 발간해 국민에게 실질적으로 필요한 정보를 보급할 계획이다. (2) 2023년 ‘AI 허위뉴스’ 확산 막는 검증시스템 구축을 위한 노력 노력 정부가 국민 일상생활과 밀접한 분야에 인공지능(AI) 기술을 대거 적용하는 동시에 허위 조작 정보 확산 등 생성형 AI 서비스의 부작용을 막기 위한 시스템 구축에 나선다. 이 같은 AI 활성화 및 신뢰성 강화를 위한 사업에 내년에만 9090억 원의 예산이 투입된다. 과학기술정보통신부는 13일 서울 청와대 영빈관에서 열린 제20차 비상경제민생회의 겸 ‘대한민국 초거대 AI 도약 회의’에서 윤석열 대통령에게 이 같은 추진전략을 보고했다. 이날 회의엔 초거대 AI 기술을 개발하고 있는 LG, KT, SK텔레콤, 네이버, 카카오 등 8개 기업 관계자도 참석했다. 윤 대통령은 “정부 지원은 기업의 과감한 투자와 도전에 마중물이 될 것”이라며 “궁극적으로는 민간을 통해 초거대 AI 경쟁력이 좌우될 수 있다”고 말했다. 윤 대통령은 이어 “가짜뉴스가 AI와 디지털을 이용해 빛보다 더 빠른 속도로 확산되면서 자유민주주의와 시장경제를 훼손하고, 우리의 미래와 미래세대를 망칠 수 있다”며 “인류 전체의 후생을 극대화하는 방안에 입각해 AI 질서 규범이 만들어져야 한다”고 강조했다. 과기정통부는 생성형 AI 기반 서비스로 발생할 수 있는 위험 요인을 제거하기 위해 연내 검·인증 체계를 마련할 예정이다. 내년에는 고위험 영역인 에너지, 교통, 원자력, 생체정보 등의 사업에 대해서는 제3의 기관을 통한 신뢰성 검·인증 실시를 의무화하기로 했다. 또 AI의 편향성이나 할루시네이션(환각 작용), 비윤리·유해성 표현 등의 논란을 기술적으로 예방하기 위한 연구개발(R&D) 투자에도 나선다. 이종호 과기정통부 장관은 “AI의 윤리와 신뢰성 강화를 위한 디지털 권리장전 수립을 통해 새로운 규범과 질서를 전 세계적으로 주도하겠다”고 말했다. 과기정통부는 이와 함께 일상과 산업 현장, 공공행정 등 사회 전반에 AI 기술이 녹아들도록 한다는 방침이다. 현재 산불 발생 위험이 높은 4개 기초자치단체에만 설치된 실시간 AI 기반 산불 감시 시스템을 2025년까지 50개로 늘린다. 하천 주변과 통제소 등 전국 223개 지점에 AI 기술을 적용한 자동 홍수 예보 플랫폼을 구축할 계획이다. 복지 분야에선 65세 이상 고령층을 대상으로 AI 기반 무인 반려동물 로봇을 개발해 보급하는 방안이 추진된다. 전국 박물관과 미술관에는 AI 큐레이터 로봇도 도입할 계획이다.

추진배경
2010년대 이후 페이스북, 트위터와 같은 SNS가 급속도로 확산되며 거짓 정보를 언론으로 위장한 형태인 가짜뉴스가 유포되기 시작했다. 그리고 이는 2016년 미국 45대 대선 과정에 큰 영향을 미치며 뜨거운 화두로 떠올랐다.

이탈리아에 기반을 둔 엔지니어링그룹의 응용 연구 책임자 프란체스코 누치(Francesco Nucci)박사는“AI는 많은 윤리적 문제를 안고 있지만, 때론 해결책이 될 수 있다”라고 강조했다. 실제로, 그는 언론인과 사실 확인 담당자가 가짜 뉴스를 감지하고 대응할 수 있는 AI 소프트웨어 ‘판당고(Fandango)’ 프로젝트의 수석 연구원이다. 그는 또 AI를 사용해 가짜 뉴스 탐지에 대한 비정형적인 접근 방식을 취하는 굿뉴스(GoodNews)라는 프로젝트도 이끌고 있다. 누치는 “가짜 뉴스는 반드시 알고리즘만의 문제가 아니다.”며, “사람들이 기존의 미디어에 대해 신뢰하지 않기 때문에 가짜 뉴스 문제는 기술을 통해서만 완화될 수 있는 것이 아니다.”고 지적했다. 링컨 연구소 AI 소프트웨어 그룹의‘스티븐 스미스(Stephen Smith)’ 박사는“소셜 미디어를 통한 허위 정보의 확산은 음모 이론을 강화해서 불화를 조장하는 능력을 갖추고 있다.”며, “리오 프로그램은 이를 막기 위해 공개 머신 러닝(ML), 인터페이스(API), 연구실 자체 ML 알고리즘 등을 사용했다.”고 설명했다. 정부가 가짜뉴스를 사회 갈등과 반목을 조장하는 ‘악성 정보 전염병’으로 규정하고, 기존의 “가짜뉴스 퇴치 TF” 기능을 전면 강화하고 ‘AI 가짜뉴스 감지시스템’도 개발하기로 했다. 이와 관련 박보균 문체부 장관은 20일 “가짜뉴스’ 우리 사회의 갈등과 반목을 조장하고 신뢰를 파괴하는 악성 정보 전염병”이며, 가짜‧거짓뉴스의 전염력과 전파력은 의학적인 전염병보다 속도가 빠르며, 변종과 재가공 형태도 교묘하고 집요하다고 지적했다. 그러면서 “가짜뉴스 전염병의 침투 효과가 매우 강력해서 우리 사회의 자유롭고 건강한 정보 생산유통시장을 교란하고 질서를 망가뜨리고 있다”며 “문체부는 이런 가짜뉴스 악성 전염병의 지속적이고 종합적인 퇴치를 위해 부처 내 관련 TF팀의 기능과 역할을 전면 강화‧가동 중이다.”고 밝혔다. 이와 관련해 문체부는 정밀․입체적인 팩트체크를 가짜뉴스 퇴치의 출발점으로 삼고, ‘악성 정보 전염병’인 가짜뉴스 퇴치 대책을 진행한다.

연구동향
- 서울대저널리즘스쿨·싱크탱크 준비위원회와 협의, 'AI 가짜뉴스 감지시스템' 개발

빅데이터 기반기술, AI기술 등 다양한 기술을 활용하여 가짜뉴스, 가짜동영상 등을 과학적으로 필터링하여 저널리즘 생태계가 건강하게 발전해 나갈 수 있도록 서울대저널리즘스쿨·싱크탱크 준비위원회와 협의, “AI 가짜뉴스 감지시스템” 개발도 지원한다. 또한 아카이브 운영을 통해 이용자의 참여, 자발적인 팩트체크를 해나갈 수 있는 여건을 조성한다. - 지난 17일 자, 엔지니어링 전문 매체 ‘크리에이트 디지털’에 따르면, MIT 링컨 연구소가 구축한 리오(RIO,The Reconnaissance of Influence Operations) 소프트웨어가 소셜 미디어상의 가짜 뉴스를 탐색한다는 보도가 나왔다. - 링컨 연구소의 소프트웨어 엔지니어들이 만든 이 AI 인플루언스 정찰 시스템은 소셜 네트워크를 통해 잘못된 허위 정보를 퍼뜨리는 소셜 미디어 계정을 자동으로 감지하고, 분석하는데 뛰어난 결과를 가져다준 것으로 알려졌다. - 리오 프로그램은 자연어 처리(NLP), 머신러닝(ML), 그래프 분석 및 새로운 네트워크 인과 추론을 통합해 잠재적 인플루언스 운영 정보를 식별한 다음에 행동과 내용을 기반으로 계정을 분류, 특정 내러티브를 확산하는 인플루언스 계정을 추정한다는 것이다. - 이런 과정을 거쳐서 허위 정보를 96% 정밀도로 탐지할 수 있으며, 특정 선전 이야기를 확산시키는 인플루언스 운영 계정의 영향을 정량화해 그들의 선전 콘텐츠를 경고할 수 있다는 것이 연구소의 설명이다. -이를 통해 리오 프로그램은 지난 2017년 프랑스 대통령 선거부터 이번 코로나 사태의 가짜 뉴스 확산에 이르기까지 다양한 캠페인에서 활동하는 적대적인 계정을 탐지해냈다. 이런 공로로 리오 프로그램은 ‘2020 R&D 100개 부문’수상자에 포함된 8개의 링컨 연구소 기술 중의 하나로 선정됐다. - ‘에리카 맥킨(Erika Mackin)’박사는 소셜 네트워크상의 계정이 외국 미디어와 상호 작용하는지를 조사하는 리오 프로그램에 새로운 머신러닝 접근 방식을 적용, 이러한 계정들을 분류하는 데 도움을 주었다. - 한 개발자가 챗GPT와 같은 오픈AI 기반 기술을 사용해 AI 허위 정보 기계(disinformation

  machine)를 만들었다. 

카운터클라우드(CounterCloud)라는 이름의 이 프로젝트는 제작 과정 총 2개월이 걸렸으며 운영 비용은 한 달 400달러(약 52만원) 미만이다. 이는 대규모 허위 광고에 필요한 비용 효율성 및 간편성을 보여준다고 3일(현지시간) IT매체 비즈니스인사이더가 전했다. 자신을 사이버 보안 전문가라고 소개한 네아 포(Nea Paw)라는 카운터클라우드 제작자는 유튜브에서 이 프로젝트의 개발 이유와 방법을 설명했다.

네아 포는 "AI 허위 정보가 실제 세계에서 작동하는 것을 보고 싶었다"며 "대규모 언어 모델의 강력한 언어 능력은 가짜 뉴스 기사를 읽고 쓰는 완벽히 적합하다"고 전했다. 
프로그램 개발을 위해 네아 포는 먼저 챗GPT에 기사를 입력하고 반대되는 기사를 작성할 것을 지시하는 프롬프트(지시어)를 작성하는 것부터 시작했다고 한다. 그러면 챗GPT는 동일한 기사에 대해 다양한 스타일과 관점으로 작성된 다양한 예를 제공한다. 
그 다음 AI가 가장 관련성이 높은 콘텐츠에만 응답하도록 게이트키퍼 모듈을 추가하고, AI가 생성한 가짜 기사와 사진을 읽는 뉴스리더의 오디오 클립을 추가해 신뢰도를 높였다. 또 일부 기사 아래에 가짜 언론인 프로필과 댓글도 추가했다.
이러한 방식으로 네아 포는 90%의 설득력 있는 콘텐츠를 생성하는 완전히 자율적인 AI 기반 시스템을 두 달 만에 개발하는 데 성공했다. 
네아 포는 아직 인터넷에 이 모델을 배포하지 않았는데, 최종적인 결과가 불확실하기 때문이라고 설명했다. 그러나 카운터클라우드 프로그램을 공개해 이러한 시스템의 내부 작동 방식에 대해 알리는 것은 더욱 긍정적인 결과를 가져올 것이라고 덧붙였다. 

-미시간 주립대 뉴스 ‘더 컨버세이션(TheConversation)’은 ‘인공 지능이 가짜 뉴스를 탐지하고 생성하는 방법’이란 제하의 기사에서 AI는 온라인 선전을 발견하는 데 유용한 도구지만, 오해의 소지가 있는 자료를 만드는 데도 놀랄 만큼 능숙하다고 분석했다. 실제로, 연구자들은 온라인 가짜 뉴스가 실제 뉴스보다 훨씬 더 빠르게 널리 퍼지며, 오는 2022년까지 선진국에선 실제 뉴스보다 더 많은 가짜 뉴스를 접하게 되리라 전망하기도 했다. 지난 2019년 2월 15일 자, 블룸버그 통신은 오픈 AI가 놀랍도록 설득력이 있는 가짜 뉴스 알고리즘을 만든 반면에 대다수의 사람은 가짜 뉴스와 진짜 뉴스를 구별하지 못하는 것으로 나타났다고 보도했다. 같은 해 7월 12일 자, 기사에서 미국의 경제 전문 매체 CNBC도 AI가 생산하는 가짜 뉴스의 위험성을 경고한 바 있다. 즉, AI의 머신러닝이‘딥페이크(deepfake)’영상을 빠르게 발전시키는 가운데 그 기술을 개발한 연구원들 자신도 실제와 조작된 내용을 구별하지 못했다고 전했다.

참고문헌

[네이버 지식백과] 가짜뉴스 [Fake News] - 뉴스의 얼굴을 한 마타도어 (용어로 보는 IT, 권도연) [한국지방정부신문] [문체부] ‘가짜뉴스’ 퇴치 위해 ‘AI 가짜뉴스 감지시스템’ 개발한다 [네이버 지식백과] 가짜뉴스 (시사상식사전, pmg 지식엔진연구소) [AI타임스] AI가 만든 가짜 뉴스, AI가 잡는다...정책 변화 등 인간적인 노력도 필요 “딥러닝 기법을 이용한 가짜뉴스 탐지”- 한국정보처리학회 2018년도 춘계학술발표대회(2018) pp.384 - 387 이동호(성균관대학교 컴퓨터교육과), 이정훈(경기대학교 통계학과, 김유리(한성대학교 산업경영공학과), 김형준(연세대학교 경영학과), 박승면(주식회사 SV), 양유준(가천대학교 소프트웨어학과), 신웅비(태릉고등학교) [디지털투데이] AI로 '가짜 뉴스' 만드는 프로그램 공개…저비용·고효율 [동아일보] ‘AI 허위뉴스’ 확산 막는 검증시스템 구축 나선다