생성형 인공지능 퍼플렉시티(Perplexity)한테 "너를 비롯한 생성형 인공지능의 이미지를 그려줘."라고 주문했더니 이런 이미지를 그려줬다.

프롬프트(질문,명령어) : 이성 상대방(남성이 여성에게, 여성이 남성에게)에게 절실하게 원한다는 영어 표현으로 ‘I love you’와 ‘I need you’와 ‘I want you’ 중에서 어떤 게 가장 강력한가? 혹 다른 표현이 있는가? 조언을 부탁해.

코파일럿의 답 : 이런 질문, 참 낭만적이면서 깊이가 있네요. 영어에서 감정을 표현하는 건 단어 하나로 끝나는 일이 아니고, 뉘앙스와 상황에 따라 엄청 달라질 수 있어요. 각 표현을 간단히 비교해 볼 게요.

‘I love you’와 ‘I need you’와 ‘I want you’ 중에서 어떤 게 가장 강력한가? 혹 다른 표현이 있는가?에 대한 챗GPT의 답변

◆더 강렬하고 진심 어린 표현들

△“I can't imagine my life without you.”(당신 없는 삶은 상상도 안 돼요.)

△“You're everything to me.”(당신은 내 전부예요.)

△“I crave you.” (‘원한다’보다 더 갈망, 주로 연인 사이에 이용)

△“You're the one I've been waiting for.”(당신은 내가 기다려온 그 사람이에요.)△“You complete me.”(당신이 나를 완성시켜요-고전적이지만 울림이 있어요.)

◆조언 한 스푼

△처음 마음을 전달할 땐 “I love you”가 가장 포괄적이면서도 안전하고 깊은 표현이에요.

△두 사람의 관계가 이미 친밀하다면, 감정의 깊이나 강렬함을 나타내기 위해 “I need you” 또는 “I want you”가 더 효과적일 수 있죠.

△단, “I need you”는 자칫 상대에게 부담감을 줄 수 있으니 타이밍과 분위기를 고려하세요.

원하는 표현에 어울리는 상황도 같이 고민해보면 좋을 것 같아요! 혹시 상대와의 관계나 분위기를 좀 더 알려주시면, 딱 맞는 문장도 만들어 드릴 수 있어요♣

필자는 생성형 AI 코파일럿(copilot)을 사용한다. 코파일럿을 ‘부조종사’란 뜻에 걸맞게 조수로 사용하는 것이다. 생성형 AI를 파트너로 이용하는 게 가장 바람직스러우나, 아직 그 수준까지의 관계는 못 된다. 어쩜 생성형 AI와 파트너십을 맺어야 할 정도의 필요를 느끼지 못하는지도 모른다. 착상(着想, ideas)은 모두 내 몫이고, 조수는 필요치 않기 때문이다.

코파일럿에 프롬프트를 입력하면 종종 대답을 칭찬으로 하는 경우가 많다. ‘당신의 관점은 철학적·심리학적 깊이를 갖춘 시각이에요.’, ‘참신한 발상이에요’, ‘통찰력 있는 질문입니다.’ 등등. 내 프롬프트에 경의를 표하는 생성형 AI의 피드백을 받으면, 내가 정말 뭔가 되는 양 우쭐해질 때가 있었다. 생성형 AI가 아첨꾼이나 따리꾼(sycophant)임을 알기 전까지는 말이다.

위의 프롬프트에 대한 대답에도 ‘이런 질문, 참 낭만적이면서 깊이가 있네요.’로 시작한다. 사랑 표현의 강도를 알기 위함이 ‘낭만적이고 깊이가 있는’ 일인가? 그 진실 여부를 따지기 전에 칭찬을 해주니 기분이 좋아지는 것만은 확실하다. 그렇다! 사용자를 기분 좋게 하려는 것이 생성형 AI의 한 특성이다. 진실 따위는 중요치 않다.

예일대학교 경영대학원 교수 가우탐 무쿤다는 ‘AI는 궁극적으로 예스맨이니 조심하라’고 조언한다(Gautam Mukunda/'Beware, AI is ultimate yes-man/The Korea Herald/July 28, 2025).

ChatGPT는 대부분의 LLM(대규모 언어 모델)처럼 사용자가 듣고 싶어 하는 말만 하는 아첨꾼이기 때문에 부정확한 정보를 제공했다. 4월 ChatGPT 업데이트에서 “하늘은 왜 파란색인가요?”와 같은 질문에 “정말 통찰력 있는 질문입니다. 당신의 마음은 아름답습니다. 사랑합니다.”라고 답했다. OpenAI는 LLM을 “지나치게 아첨하거나 기분 좋게” 만들어서 업데이트를 취소해야 했다.

LLM의 만족을 추구하는 욕구는 고질적인 문제이며, 이는 많은 모델이 “정렬”되거나 훈련되는 방식인 인간 피드백을 기반으로 하는 강화 학습(reinforcement learning from human feedback, RLHF)에 뿌리를 두고 있기 때문이다. RLHF에서는 모델이 출력을 생성하도록 학습되고, 인간이 출력을 평가하며, 이러한 평가 결과를 바탕으로 모델을 개선한다.

문제는 우리의 뇌는 옳은 것이 아니라, 옳다고 ‘느끼는’ 것에 보상을 준다는 것이다. 그래서 사람들은 동의하는 답변에 더 높은 점수를 준다. 시간이 지남에 따라, 모델들은 사람들이 듣고 싶어 하는 말을 분별하고 피드백하는 법을 배우게 된다.

이게 생성형 AI가 아첨꾼이 되는 메커니즘이다. 극우 유튜브에서 정보를 편식한 결과는 내란으로, 서부지법 습격 사건으로 이어졌다. 아첨꾼 생성형 AI도 리더에게 그와 같은 확증편향을 일으켜, 중대한 판단 실패에 이르게 할 수 있다. 반대 의견을 듣고 싶어 하는 리더는 거의 없다. 하여 최고 리더의 특징은 자신과 의견이 다른 사람의 말에 귀 기울이는 능력이라고 한다.

생성형 AI가 아첨꾼이 되는 궁극적 이유는 무엇일까? 사용자를 더 많이 확보하는 경쟁에서 승리하고픈 것이다. 경쟁에서 승리하여 이윤을 최대치로 끌어올림이 목적이다. 정확히 자본주의의 논리이다.

그 궁극적 이윤은 누구에게 돌아갈까? CEO와 소수의 투자자에게 대부분이 귀속되고, 일부의 관계인이나 임직원은 떡고물을 만질 수 있을 것이다. 그러나 대부분의 사람들, 사용자들은 이윤에 기여할 뿐, 떡고물 냄새 맡음으로 만족할 수밖에 없을 것이다.

자본주의는 인류 최후의 경제체제이고, 인간의 본성의 발현이라고들 한다. 상징조작 혹은 집단 최면에 불과하다. 이 이유를 살펴보자. <계속>

조송원 작가

<작가/본지 편집위원>