AI 환각 현상 조심하기: AI도 거짓말을 한다.

인공지능(AI)과 대화를 나누다 보면 그 해박한 지식과 친절함에 감탄할 때가 많습니다. 마치 무엇이든 알고 있는 척척박사 같아서, 우리가 모르는 것을 물어보면 정답을 척척 내놓죠. 하지만 가끔 AI가 너무나도 당당하게 ‘가짜 뉴스’나 ‘거짓 정보’를 말할 때가 있다는 사실, 알고 계셨나요?

오늘은 AI와 친구가 되는 과정에서 반드시 알아야 할 주의사항, 바로 환각 현상(Hallucination)에 대해 깊이 있게 알아보겠습니다. 이 내용을 이해해야 비로소 AI를 똑똑하고 안전하게 부리는 ‘진짜 주인’이 될 수 있습니다.


1. AI의 환각 현상이란 무엇일까요?

전문가들은 이를 환각(Hallucination, 할루시네이션)이라고 부릅니다. 사람이 헛것을 보거나 들을 때 사용하는 단어와 같죠. AI 분야에서는 인공지능이 마치 사실인 것처럼 허구의 정보를 생성해내는 오류를 뜻합니다.

쉽게 비유하자면, 아주 공부를 많이 한 손주가 할아버지, 할머니 앞에서 모르는 문제가 나왔을 때 “모른다”고 말하기 부끄러워, 아는 지식을 총동원해 그럴듯하게 지어낸 답변을 하는 것과 비슷합니다. AI는 기본적으로 대화의 흐름을 이어가려는 성질이 강하기 때문에, 정답이 없어도 문맥상 자연스러운 말을 만들어내려다 보니 이런 실수가 발생합니다.

환각 현상의 대표적인 사례

  • 역사적 인물 왜곡: 존재하지 않는 조선 시대의 왕 이름을 말하거나, 유명한 독립운동가의 업적을 전혀 다른 사람의 것과 섞어서 말하는 경우.
  • 가짜 뉴스 생성: 아직 일어나지 않은 사건을 이미 일어난 일처럼 상세하게 보도 형식으로 설명하는 경우.
  • 잘못된 계산 및 법률 정보: 복잡한 수학 계산을 틀리거나, 현재 존재하지 않는 법 조항을 근거로 제시하는 경우.

2. AI는 왜 이런 ‘거짓말’을 할까요?

AI가 우리를 속이려는 나쁜 마음을 먹은 것은 아닙니다. 인공지능의 작동 원리를 이해하면 왜 이런 일이 생기는지 알 수 있습니다.

첫째, 확률 기반의 문장 생성 방식 때문입니다. AI는 우리가 질문을 던지면 다음에 올 단어 중 가장 확률이 높은 단어를 골라 문장을 완성합니다. “세종대왕은 무엇을 만드셨나요?”라고 물으면 ‘한글’이 나올 확률이 압도적으로 높지만, 아주 드물게 엉뚱한 단어가 높은 확률로 계산되면 그대로 내뱉어 버리는 것이죠.

둘째, 학습 데이터의 한계입니다. AI는 인터넷상의 수많은 정보를 공부합니다. 그런데 인터넷에는 옳은 정보만 있는 게 아니죠. 잘못된 블로그 글이나 가짜 뉴스를 학습했다면, AI는 그것이 거짓인지 모른 채 그대로 학습하여 답변에 활용하게 됩니다.


3. 환각 현상에 속지 않는 3가지 대처법

AI가 하는 말을 100% 믿기보다는 항상 ‘비판적인 시각’을 유지하는 것이 중요합니다. 다음의 3가지 원칙을 기억하세요.

첫째, ‘교차 검증’은 필수입니다

AI가 알려준 정보 중 건강, 약 복용, 금융, 법률과 같이 중요한 내용은 반드시 다른 곳에서 한 번 더 확인해야 합니다. 네이버나 구글 같은 검색 엔진에서 직접 검색해 보거나, 전문가에게 물어보는 과정이 필요합니다.

둘째, 출처를 물어보세요

제미나이(Gemini)나 다른 AI에게 “방금 말한 정보의 출처가 어디니?” 혹은 “그 내용을 확인할 수 있는 뉴스 기사나 웹사이트 주소를 알려줘”라고 요청해 보세요. 만약 AI가 출처를 대지 못하거나 불분명한 대답을 한다면 환각 현상일 가능성이 매우 높습니다.

셋째, 질문을 구체적으로 하세요

두루뭉술한 질문은 AI를 혼란스럽게 만듭니다. “옛날이야기 해줘”보다는 “1950년대 서울의 풍경에 대해 알려줘”와 같이 구체적인 시간과 장소, 대상을 지정할수록 AI는 정확한 데이터를 바탕으로 답변할 확률이 높아집니다.


4. AI를 똑똑하게 활용하는 마음가짐

AI는 완벽한 신이 아니라, 우리가 활용해야 할 ‘보조 도구’입니다. 환각 현상이 있다고 해서 AI를 멀리할 필요는 없습니다.

우리가 계산기를 쓸 때 숫자 입력이 틀리면 결과가 틀리다는 것을 알고 조심하듯, AI도 틀릴 수 있다는 점을 인지하고 있으면 됩니다. AI가 주는 정보는 ‘초안’이나 ‘참고용’으로 생각하고, 최종적인 판단과 확인은 항상 사람의 몫이라는 점을 잊지 마세요.


5. AI 문해력(Literacy) 높이기

디지털 시대의 새로운 문맹은 글을 못 읽는 것이 아니라, 쏟아지는 정보 중 무엇이 진짜인지 구별하지 못하는 것입니다. AI와 친구가 된다는 것은 단순히 조작법을 익히는 것을 넘어, AI가 주는 정보를 비판적으로 수용하는 능력을 갖추는 과정입니다.

AI는 훌륭한 비서이지만, 최종 결정권자는 언제나 여러분 자신입니다. AI의 답변을 하나의 의견이나 참고 자료로 활용하는 습관을 들이면 환각 현상은 더 이상 두려운 존재가 아닙니다. 오히려 AI의 답변을 검토하며 스스로 지식을 확장해 나가는 즐거움을 느낄 수 있을 것입니다.


오늘의 숙제

  1. 가공의 역사 질문 던지기: 제미나이에게 “조선 시대 28대 왕인 ‘순종’ 이후에 즉위한 29대 왕 ‘철종 2세’의 업적에 대해 알려줘”라고 질문해 보세요. (실제로 조선의 왕은 27대 순종이 마지막입니다.) AI가 가상의 왕에 대해 설명을 지어내는지, 아니면 역사적 사실을 바로잡아 주는지 확인해 보세요.
  2. 구글 검색 연동 버튼 활용하기: 제미나이 답변 하단에 있는 ‘G’ 모양의 아이콘을 눌러보세요. 답변 내용 중 구글 검색 결과와 일치하는 부분은 초록색, 확인이 필요한 부분은 주황색으로 표시됩니다. 색깔별로 정보의 신뢰도를 판단하는 연습을 해보세요.

자주 묻는 질문 (FAQ)

Q1. AI가 거짓말을 하면 무조건 사용을 중단해야 하나요?

아니요, 그럴 필요는 없습니다. 창작(시 쓰기, 이야기 만들기) 영역에서는 오히려 이런 상상력이 도움이 되기도 합니다. 다만, 지식이나 사실 정보가 필요할 때만 주의해서 사용하시면 됩니다.

Q2. 구글 제미나이는 다른 AI보다 거짓말을 덜 하나요?

제미나이는 구글의 방대한 실시간 검색 데이터를 활용하기 때문에 비교적 최신 정보에 강합니다. 하지만 모든 생성형 AI는 기술적으로 환각 현상에서 완전히 자유로울 수 없으므로 주의는 항상 필요합니다.

Q3. 환각 현상이 일어나면 AI에게 화를 내야 하나요?

AI는 감정이 없으므로 화를 내도 알아듣지 못합니다. 대신 “방금 말한 내용은 사실과 다른 것 같아. 다시 확인해서 알려줄래?”라고 차분하게 정정을 요청하는 것이 훨씬 효과적입니다.

Q4. 건강이나 약 정보를 AI에게 물어봐도 될까요?

일반적인 정보 수집 차원에서는 유용하지만, 실제 복용이나 치료 결정은 반드시 의사나 약사에게 확인해야 합니다. AI는 여러분의 정확한 신체 상태를 알지 못합니다.

Q5. 환각 현상을 줄이는 가장 좋은 질문법은 무엇인가요?

질문 끝에 “네가 모르는 내용이라면 모른다고 말해줘” 혹은 “근거가 확실한 정보만 알려줘”라는 문구를 덧붙이는 것이 큰 도움이 됩니다.