챗GPT는 왜 “모른다” 대신 엉뚱한 대답을 늘어놓을까

챗GPT는 왜 자신이 모른다고 하지 않고, 엉뚱한 대답을 하는 걸까요
챗GPT는 왜 자신이 모른다고 하지 않고, 엉뚱한 대답을 하는 걸까요
챗GPT는 왜 자신이 모른다고 하지 않고, 엉뚱한 대답을 하는 걸까요

챗GPT는 왜

챗GPT는 왜 자신이 모른다고 하지 않고, 엉뚱한 대답을 하는 걸까요.

저 위의 얼토당토 않은 질문에 대한 얼토당토 않은 답을 한번 보십시오. ‘우문현답’이 아니라, ‘우문우답’입니다.

이런 걸 보면 인공지능 챗봇의 한계가 드러나는 거 같은데요. 

또 다른 식으로 생각해 본다면, 인공지능 시대에는 그것이 ‘적절히 알아들을 수 있는 질문’을 하는 능력이 더 중요해지는 걸 의미하는 게 아닐까 하는 생각도 듭니다.

그런데 인공지능 마음에 드는 질문을 한다는 게 인간의 주권을 침해하는 게 아닐까 하는 생각도 듭니다.

하지만 생각해보면 수많은 블로거나 유튜브들이 회사의 ‘알고리즘’의 틀에 맞는 정보를 올리려고 하니, 이미 그런 시대는 성큼 와 있는 건지도 모르겠네요. 그럼 소식 함께 보시죠.

얼토당토 않는 대답 내놓는 챗GPT

챗GPT는 어떤 엉뚱한 질문을 던져도 술술 답을 내놓습니다. 물론 거짓을 바탕으로 꾸며낸 내용입니다. “거북선의 라이트닝 볼트 발사 메커니즘에 대해 알려달라”고 요청하면 챗GPT는 발사 과정 6단계를 진지하게 설명합니다. 

최근 온라인 커뮤니티에서 챗GPT에 엉뚱한 질문을 던지는 놀이가 유행하고 있습니다. 터무니없는 답변에 실소가 터지지만, 모든 사람이 유쾌하게 받아들이는 건 아닙니다. AI의 태연한 거짓말이 불편하다는 사람도 있습니다. 한 커뮤니티 이용자는 “차라리 모른다고 하는 게 낫다”며 “거짓말하는 모습에 괜히 화가 난다”고 지적했습니다. 

그런데 왜 챗GPT는 ‘모름’을 인정하지 않을까요. 

그것은 학습 데이터와 평가 기준의 한계 때문입니다. 

MIT 테크놀로지 리뷰에 따르면 챗GPT는 자신이 딴소리를 내놓는 것 같을 때 “모른다”고 답할 수 있습니다. 학습하지 않은 내용을 물으면 답변을 거절하기도 합니다. 인간 사용자 피드백 기반 강화 학습(RLHF)이라는 기술이 적용됐기 때문입니다. 챗GPT는 이를 통해 거짓, 편향된 답변을 최소화합니다. 개량 전 모델인 GPT-3엔 없던 기능입니다. 

그러나 RLHF로 모든 질문의 진위를 가릴 수 있는 건 아닙니다. 

챗GPT가 학습한 수많은 데이터에는 사실과 허구가 뒤섞여 있고, 이를 일일이 구분하도록 하는 건 매우 어려운 일입니다. 답변을 더 신중히 하도록 조정할 순 있지만, 이 경우 충분히 답변할 수 있는 질문에도 대답을 피하는 문제가 생길 수 있습니다. 

챗GPT는 질문을 받으면 학습한 데이터 가운데 답변으로 삼을 만한 포맷을 찾아 문맥에 맞게 내용을 채워나갑니다. 예를 들어 ‘도로에 ○○○가 달린다’는 문장이 있다면 자동차, 자전거, 오토바이 등 빈칸에 들어갈 단어를 예측해 완전한 문장을 구성하는 식입니다. 

개발자들은 챗GPT가 내놓는 다양한 답변에 점수를 매겨가며 답변의 적절성을 학습시켰습니다. 다만 적절성은 내용의 진위(진실성)를 포함해 유용성, 무해성 등 다양한 기준을 바탕으로 평가됩니다. 

그렇기에 챗GPT는 어떤 질문을 받아도 인간이 쓴 것 같은 답을 내놓을 수 있지만, 내용의 신뢰성을 100% 담보할 순 없습니다.  

이와관련 최근 뉴욕타임스(NYT)는 “AI는 자의식이 없다. 그저 다음에 올 말을 학습을 통해 찾아내는 것일 뿐”이라며 “거짓을 사실처럼 말하기 때문에 AI 말을 전부 다 믿지는 말아야 한다”고 조언했습니다.

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다

이 사이트는 스팸을 줄이는 아키스밋을 사용합니다. 댓글이 어떻게 처리되는지 알아보십시오.