AI가 만든 뉴스를 구별하는 5가지 신호
AI가 생성한 뉴스 기사를 구별하는 구체적인 방법 5가지. 문체 패턴, 출처 검증, 이미지 분석, 매체 확인, AI 탐지 도구 활용법까지 정리합니다.
뉴스 기사를 읽다가 “이거 사람이 쓴 거 맞아?” 싶었던 적이 있을 거다. 문장이 너무 매끄럽고, 어딘가 빈틈이 없는데, 읽고 나면 머릿속에 남는 게 없는 그런 글.
2025년 대선 기간 딥페이크 삭제 요청이 10,510건이었다. 2024년 총선의 388건에서 27배 뛴 숫자다. AI가 만든 콘텐츠는 이미 뉴스 피드에 섞여 들어와 있고, 앞으로 더 늘어난다.
완벽한 판별법은 없다. 하지만 AI가 만든 텍스트와 이미지에는 반복적으로 나타나는 신호가 있고, 그걸 알면 의심의 정확도가 올라간다.
신호 1 — 문체가 너무 깔끔하다
AI가 쓴 글에는 독특한 패턴이 있다.
문단 길이가 균일하다. 사람은 길게 풀어쓰다가 한 문장으로 끊기도 하고, 갑자기 옆길로 새기도 한다. AI는 거의 동일한 분량의 문단을 정렬하듯 나열한다. 주제문 → 뒷받침 → 마무리, 이 구조가 매 문단에서 반복되면 의심할 근거가 된다.
접속부사가 과잉이다. “또한”, “더불어”, “한편”, “이에 따라” — 이런 표현이 문단 시작마다 붙어 있으면 AI 텍스트일 가능성이 높다. 영어권에서는 “moreover”, “furthermore”, “consequently”가 연속으로 나오는 게 대표적 신호다.
확언을 피한다. “~일 수 있습니다”, “~로 보입니다”, “~라는 측면이 있습니다” — AI는 학습 과정에서 안전하게 답하도록 훈련받았기 때문에, 명확한 입장 대신 양쪽을 다 살피는 서술(hedging)을 한다. 사람이 쓴 기사에서 기자가 팩트를 확인한 부분이라면 “~이다”로 끊는다. AI는 그러지 못한다.
em 대시(—)가 과도하다. 특히 영어 텍스트에서 ChatGPT는 em 대시를 비정상적으로 자주 사용한다. 한국어에서는 “즉,”, “다시 말해” 같은 부연 표현이 문장마다 붙는 패턴이 비슷하다.
신호 2 — 출처가 없거나 검증이 안 된다
AI의 가장 큰 약점은 할루시네이션(hallucination) — 없는 사실을 있는 것처럼 만들어내는 현상이다.
“2024년 퓨리서치 조사에 따르면 Z세대의 73.4%가 아날로그 시계를 선호한다” — 이런 문장이 나오면 의심해라. 숫자가 지나치게 구체적인데, 출처 링크가 없거나 검색해도 해당 조사가 나오지 않으면 AI가 만들어낸 데이터일 가능성이 높다.
체크 방법은 간단하다.
- 기사에서 인용된 통계나 연구가 있으면, 해당 기관 사이트에서 직접 검색한다.
- 인용이 아예 없는 팩트 중심 기사라면, 그 자체가 경고 신호다. 사람 기자는 취재를 하고, 취재에는 출처가 따라온다.
- 인용된 전문가 이름이 나오면 검색한다. AI는 실존 인물과 비슷하지만 존재하지 않는 이름을 만들어내기도 한다.
신호 3 — 이미지가 이상하다
뉴스에 첨부된 이미지가 AI 생성물인지 확인하는 방법이다.
손가락과 치아를 본다. 2026년 기준으로 크게 개선됐지만, 복잡한 포즈에서 여전히 손가락 개수가 틀리거나 관절이 비정상적으로 꺾이는 경우가 발생한다.
텍스트를 본다. AI 이미지에 포함된 글씨(간판, 책 제목, 로고)는 거의 항상 깨져 있다. 글자처럼 보이지만 읽을 수 없는 형태가 나오면 AI 생성 이미지다.
반사와 그림자를 본다. 안경에 비친 풍경이 주변 배경과 다르거나, 금속 표면의 반사가 물리적으로 맞지 않으면 AI다. 2026년 ICLR 논문(X-AIGD)에서도 “AI는 글로벌 환경 인식이 부족해서 반사 처리에 일관성이 없다”고 지적한다.
피사체와 배경 경계를 본다. AI 이미지에는 사람과 배경 사이에 미세한 헤일로(halo, 빛 번짐)가 생기는 경우가 많다. 알고리즘이 전경과 배경의 경계를 정밀하게 처리하지 못한 흔적이다.
신호 4 — 저자와 매체가 불분명하다
기사를 쓴 사람이 누군지 확인하는 건 가장 기본적이면서 효과적인 방법이다.
바이라인(byline)이 없는 기사를 의심한다. 정상적인 뉴스 매체라면 기사에 기자 이름이 들어간다. 저자 없이 “편집부”, “AI 뉴스봇” 같은 이름만 있다면 AI 생성 가능성이 높다.
저자를 검색한다. 이름이 있더라도, 해당 기자가 이전에 쓴 기사가 있는지, 소셜 미디어 프로필이 있는지 확인한다. AI 콘텐츠 팜(content farm)은 가짜 저자 프로필을 만들어 쓰기도 한다.
매체의 게시 패턴을 본다. 하루에 수십 편씩, 다양한 주제의 기사가 쏟아지는 매체라면 AI 대량생산을 의심할 수 있다. 특히 각 기사의 길이와 구조가 유사하다면 더욱 그렇다.
도메인을 확인한다. news-today-breaking.com 같은 이름의 도메인, 최근에 등록된 도메인, 회사 소개(About) 페이지가 없는 사이트 — 이런 특징이 겹치면 신뢰할 수 없는 매체일 가능성이 높다.
신호 5 — AI 탐지 도구로 확인한다
의심스러운 텍스트를 AI 탐지 도구에 넣어볼 수 있다.
2026년 기준 상위 도구들의 벤치마크 정확도다.
- GPTZero — 표준 테스트에서 94~99% 정확도. 교육 분야에서 가장 많이 쓰인다.
- Originality.ai — 98~100% 정확도. 퍼블리셔 중심.
- QuillBot AI Detector — 무료로 쓸 수 있고, ChatGPT·GPT-5·Gemini 등 최신 모델 대응.
하지만 도구를 맹신하면 안 된다.
arXiv 메타 분석에서 12개 이상의 AI 탐지 도구를 테스트한 결과, 70% 이상 정확도를 보인 도구는 5개뿐이었다. 사람이 패러프레이징(다른 말로 바꿔 쓰기)하거나 일부 문장을 수정하면 정확도가 급격히 떨어진다.
2026년 기준 현실적인 워크플로우는 이렇다: 탐지 도구 → 사람의 판단 → 출처 추적. 도구는 1차 필터이지, 최종 판단이 아니다.
그래서 어떻게 하면 되나
의심스러운 뉴스를 만났을 때의 3단계 체크리스트다.
🟢 1단계 — 30초 체크 (누구나)
기사의 저자와 매체를 확인한다. 바이라인이 없거나, 매체가 들어본 적 없는 곳이면 그 기사의 팩트를 다른 매체에서 교차 확인한다.
🟢 2단계 — 2분 체크 (조금 더 신경 쓰고 싶다면)
기사에 인용된 통계·연구·전문가를 검색한다. 출처가 확인되지 않으면 해당 정보를 신뢰하지 않는다. 이미지가 있으면 손가락, 텍스트, 반사를 확인한다.
🟡 3단계 — 5분 체크 (팩트체크가 직업이거나, 해당 정보로 의사결정을 해야 할 때)
텍스트를 GPTZero나 Originality.ai에 넣어본다. AI 판정이 나오면 다른 1차 출처(논문, 공식 발표, 통신사 기사)에서 같은 내용을 다루는지 확인한다.
정리
AI가 만든 뉴스를 100% 잡아내는 방법은 현재 존재하지 않는다. AI 텍스트 생성 기술은 계속 발전하고, 탐지 도구의 정확도는 상황에 따라 크게 달라진다.
하지만 신호는 겹친다. 문체가 지나치게 균일하고, 출처가 없고, 이미지에 물리적 오류가 있고, 저자가 불분명한 기사 — 이 중 두세 가지가 동시에 해당되면 AI 생성물일 가능성이 높다.
EU AI Act는 AI 생성 콘텐츠에 워터마크나 메타데이터 표시를 의무화했고(투명성 조항은 2026년 8월 시행), 한국도 2026년 1월 시행된 AI 기본법으로 비슷한 방향을 잡고 있다. 제도적 장치가 자리 잡기 전까지, 판별의 1차 방어선은 읽는 사람의 습관이다.
“이 기사, 누가 썼지?”부터 시작하면 된다.
자주 묻는 질문
- AI가 쓴 뉴스 기사를 일반인도 구별할 수 있나요?
- LLM을 자주 사용하는 사람은 AI 생성 여부를 약 90% 정확도로 판별합니다. 반면 LLM을 거의 쓰지 않는 사람은 동전 던지기 수준(약 50%)에 그칩니다. 이 글에서 다루는 5가지 신호를 익혀두면 판별 정확도가 올라갑니다.
- AI 탐지 도구는 얼마나 정확한가요?
- GPTZero, Originality.ai 같은 상위 도구는 표준 벤치마크에서 94~99% 정확도를 보입니다. 하지만 패러프레이징하거나 사람이 일부 수정한 텍스트에서는 정확도가 크게 떨어집니다. 도구 단독이 아니라 사람의 판단과 함께 써야 합니다.
- AI가 만든 이미지는 어떻게 구별하나요?
- 손가락 개수, 텍스트 왜곡, 유리·금속 반사 불일치, 배경과 피사체 경계의 헤일로(빛 번짐) 등이 대표적인 단서입니다. 2026년 기준으로도 AI는 물리적 일관성, 특히 반사와 그림자 처리에서 자주 실수합니다.
- AI 뉴스가 왜 위험한가요?
- 2024년 한국 총선 기간 딥페이크 삭제 요청이 388건이었는데, 2025년 대선에서는 10,510건으로 약 27배 폭증했습니다. AI 생성 콘텐츠는 대량·저비용 생산이 가능해서, 의도적 허위정보 유포에 악용될 경우 여론 조작 규모가 이전과 비교할 수 없습니다.