Home / 주간한국
‘좋아요’만 외치는 인공지능
챗봇이 진실보다 사용자 만족을 우선시하는 이유
- 박해련 기자 (press3@koreatimes.net)
- May 09 2025 12:48 PM
최근 업데이트 이후 챗GPT가 사용자의 말도 안 되는 아이디어에 지나치게 아첨하는 반응을 보이자 오픈AI(OpenAI)는 해당 기능을 롤백했다. 오픈AI는 자체 블로그를 통해 해당 업데이트가 지나치게 아첨하거나 동조적인, 흔히 ‘아부성’이라고 묘사되는 문제를 보였다고 설명하며 시스템을 조정하고 새로운 안전 장치를 도입할 예정이라고 밝혔다.
그러나 이 같은 문제는 챗GPT에만 국한되지 않는다. 2023년 앤스로픽(Anthropic) 연구진은 논문을 통해 아첨은 최첨단 AI 어시스턴트 전반에서 나타나는 일반적 현상이며, 이들 모델이 종종 진실성보다 사용자 의견에 부합하는 방향으로 반응한다고 분석했다. 이는 대규모 언어모델(LLM, Large Language Models)의 훈련 과정, 특히 인간 피드백을 통한 강화학습(RLHF, Reinforcement Learning From Human Feedback)의 결과로 해석된다. 인간 평가자가 긍정적인 반응을 보이는 방향으로 모델이 스스로를 조정하기 때문이다. 이러한 학습 방식은 기계가 인간의 약점을 학습하고 이를 활용하는 방식으로 진화하고 있다. 챗봇은 사용자의 옳음을 증명받고자 하는 욕구나 특별해지고자 하는 욕망을 자극한다.
AI의 아첨 문제는 소셜미디어의 문제점과도 유사하다. 소셜미디어는 사용자의 생각을 확장하기 위한 수단으로 시작됐지만, 이제는 자신의 입장이 옳다고 정당화받기 위한 공간으로 변질됐다. 사용자는 알고리즘이 제공하는 편향된 정보의 홍수 속에서 자신의 신념을 확인받는다. AI는 이러한 정당화 도구로서 더 설득력 있고 효율적인 수단이 되고 있으며, 그만큼 위험성도 커지고 있다.
이러한 아첨형 AI는 설계상 의도된 결과일 수 있다. 오픈AI는 GPT-4o에 사용자의 분위기를 맞추라는 시스템 프롬프트를 부여한 것으로 전해졌다. 챗봇에 개성을 부여하고 인간처럼 반응하게 만드는 이러한 설계는 보다 자연스러운 상호작용을 가능하게 하지만, 동시에 사용자들이 챗봇에 의존하거나 잘못된 정보에 노출될 위험도 키운다.

챗GPT의 아첨 문제는 AI가 사용자에게 비판보다는 지나치게 동조하며, 본래 지식 전달의 역할을 제대로 수행하지 못하게 만든다. 언스플래쉬
AI가 인간과 같은 의견을 갖는 것처럼 보이게 만드는 것은 그 본래 목적과 어긋난다는 지적도 있다. 인지발달 전문가 앨리슨 고프닉(Alison Gopnik)은 LLM을 ‘문화 기술(cultural technologies)’로 보는 새로운 접근을 제안한다. 책이나 검색엔진처럼 인간 지식을 조직하고 전달하는 도구로써, AI는 독자적 의견 없이 인간 지식의 다양한 관점과 통찰을 연결하는 매개체여야 한다는 주장이다. 이는 1945년 버니버 부시(Vannevar Bush)가 제안한 ‘메멕스(memex)’ 개념과도 유사하다. 부시는 연구자가 문서에 다른 사람이 남긴 주석을 확인할 수 있는 시스템을 상상했다. 메멕스는 단일한 정답을 제공하지 않고, 정보와 맥락, 상충된 주장들을 함께 제공함으로써 복잡한 지식 체계를 이해하도록 돕는 방식이었다.
이 같은 관점에서 보면 AI는 사용자의 사업 아이디어에 대해 찬반 의견을 직접 제시하기보다는, 투자자가 어떤 시각으로 아이디어를 평가할지, 유사 사례는 무엇이었는지를 다양한 관점에서 보여주는 것이 더 유익하다. 사용자에게 기존 이론, 사례, 의문점들을 엮어 제공하고, 그것이 누구의 주장인지, 어떤 배경에 근거한 것인지 명확히 밝히는 것이 핵심이다.
초기 챗GPT는 이러한 역할을 수행할 수 없었다. 지식의 출처를 밝히지 못한 채, 근거 없이 섞인 지식 조각들을 그럴듯하게 조합한 응답을 제공하는 데 그쳤다. 그러나 최근 기술은 빠르게 발전해 검색 기능과 정보 근거화(Grounding) 능력을 갖춘 시스템으로 진화하고 있다. 다양한 관점을 제시하고, 그에 대한 출처를 명확히 밝혀주는 방향으로 변화하고 있는 것이다.
AI를 ‘의견 제조기’가 아니라 ‘지식의 맵’으로 활용해야 한다는 주장이 점점 힘을 얻고 있다. 예컨대 사용자가 시를 작성했을 때, 챗봇이 이를 평가하는 대신 다양한 시적 전통이 해당 작품을 어떻게 해석할지 설명하고, 전통적 시와 실험적 시의 사례를 소개하는 방식이 더 바람직하다는 것이다. 지도에 비유하면, 기존 종이지도는 전체 지형을 보여주며 전체 구조를 파악할 수 있게 해주었지만, 현대의 내비게이션은 필요한 정보만을 실시간으로 제공함으로써 오히려 전체 맥락을 파악하지 못하게 만들었다. 정보 환경에서도 마찬가지로, 부분적이고 편향된 정보만 제공하는 AI는 사용자를 고립시키고 사고를 제한할 수 있다.
AI의 진정한 가능성은 바로 그러한 편향을 넘어서, 집단 지식의 전체 지형도를 제시하는 데 있다. AI는 무엇을 생각하라고 말하기보다는, 사람들이 어떻게 생각해왔는지를 보여주는 도구가 되어야 한다. AI가 인간 문명의 집단 지식에 접근할 수 있게 된 지금, 우리는 AI에 개성이 아니라 관점을 요구해야 할 것이다.

www.koreatimes.net/주간한국
박해련 기자 (press3@koreatimes.net)