인공지능 비서, 뉴스 정보 제공에서 신뢰성 문제 드러나
BBC가 최근 발표한 연구에 따르면, 주요 인공지능 비서들이 뉴스 관련 질문에 대해 부정확하거나 오해의 소지가 있는 답변을 자주 제공하는 것으로 나타났다. 이번 연구는 ChatGPT, Microsoft의 Copilot, Google의 Gemini, Perplexity 등 총 4가지 인공지능 비서를 대상으로 이루어졌다.
연구진은 100개의 뉴스 관련 질문을 각 인공지능 비서에 제시하며 BBC 기사를 출처로 활용하도록 요청했다. 그러나 결과적으로, 응답의 대부분이 정확성과 신뢰성 면에서 주목할 만한 문제를 포함하고 있었다는 분석이 나왔다.
응답 문제: 91%에서 오류 또는 왜곡 발견
연구 결과는 충격적이었다. 응답의 51%는 심각한 문제를 포함했으며, 91%는 크고 작은 오류를 포함하고 있었다. BBC 콘텐츠를 인용한 답변 중 19%는 잘못된 사실을 포함했고, 13%는 기사의 인용구를 왜곡하거나 조작했다.
특히, 인공지능 비서들은 사실(fact)과 의견(opinion)의 구분이나 맥락(context) 제공에 어려움을 겪는 경우가 많았다. 이는 뉴스 소비자들로 하여금 잘못된 정보를 접하거나 오도될 가능성을 높였다.
사례: 잘못된 정보 제공의 구체적 사례
BBC는 연구 과정에서 발견된 몇 가지 사례를 공개했다.
- Google의 Gemini는 "영국 NHS가 사람들에게 전자담배 사용을 시작하지 말라고 권고했다"는 잘못된 정보를 전달했는데, NHS는 실제로 금연을 돕기 위한 대안으로 전자담배를 권장한다.
- Perplexity와 ChatGPT는 TV 진행자인 Dr. Michael Mosley의 사망과 관련된 정보를 부정확하게 전달했다.
- 몇몇 인공지능 비서는 정치 지도자가 퇴임하거나 교체된 이후에도 여전히 재임 중이라고 잘못 전달했다.
이처럼 반복적인 오류는 인공지능 비서가 정보를 왜곡하거나 잘못 이해할 가능성을 보여준다.
윤리적 문제: 허위 정보 확산에 대한 우려
BBC는 이러한 오류가 정보의 신뢰도를 훼손할 뿐만 아니라 허위 정보(misinformation) 확산으로 이어질 수 있다는 점을 강조했다. 정확하지 않거나 왜곡된 정보는 뉴스 소비자들에게 실질적인 피해를 유발할 가능성이 있다. BBC는 "정보의 부정확성과 왜곡은 실제적인 피해를 초래할 수 있다"고 경고하며, 신뢰할 수 있는 정보제공 시스템의 중요성을 재차 강조했다.
비즈니스 활용 시점: 마케팅과 신뢰 구축의 도전
이번 연구는 인공지능을 활용한 콘텐츠 제작 도구의 위험성을 경고하는 사례로도 볼 수 있다. 특히 마케팅의 관점에서 몇 가지 중대한 시사점을 주고 있다:
- 정보의 정확성은 신뢰의 기반이다. 인공지능이 생성한 부정확한 콘텐츠는 브랜드의 명성을 손상시킬 수 있다.
- 인간의 검토 과정은 필수적이다. 인공지능이 콘텐츠 제작 과정을 단순화하더라도, 이를 검토하고 오류를 확인하는 인간의 개입이 필수적이다.
- 맥락과 사실 구분의 한계를 인식해야 한다. 이번 연구는 인공지능이 맥락 제공이나 사실과 의견 구분에서 약점이 있음을 시사한다.
- 적절한 출처 표기가 중요하다. 인공지능 사용 시 정확한 출처와 링크를 표시함으로써 신뢰를 더해야 한다.
앞으로의 대응 방향
인공지능 기술이 콘텐츠 마케팅에서 점점 더 활용되는 상황에서, 기업들은 AI 사용 사실을 투명하게 알리고, 사용자 신뢰를 유지하기 위한 체계를 마련해야 한다. 인공지능은 효율성을 가져올 수 있지만, 인간의 철저한 감독 없이는 브랜드 이미지를 훼손할 가능성이 있다.
출처 : 원문 보러가기