AI 채팅의 본질은 기억보다 압축에 가까운 것 같다
AI와 채팅을 하다 보면 기억을 하고 맥락을 이해하고 이어서 생각하는 것처럼 느껴진다. 나도 한동안은 그렇게 생각했다.
그런데 어느 순간 깨달은 것은, 실제로는 사람이 대화하듯 기억하는 방식과는 꽤 다르다는 점이다.
겉으로는 대화처럼 보이지만 실제로는 request, return이 반복되는 통신에 더 가깝다. 이전 대화의 관련 정보가 계속 같이 전달되기 때문에 우리는 그것을 기억하거나 맥락을 아는 것처럼 느끼게 된다.
문제는 대화가 길어질 때 드러난다.
대화가 길어질수록 이전 내용을 그대로 다 유지하기 어려워지고, 중간에 압축, 요약, 재해석이 일어나게 된다. 그 과정에서 의미의 흐름이나 논리적인 귀결이 제대로 보존되지 않으면 원래 의도와 다른 방향으로 조금씩 밀리기 시작한다.
처음에는 내가 한 말을 바탕으로 답하는 것 같지만, 대화가 길어질수록 내가 한 말보다 AI가 해석해서 덧붙인 말의 비중이 더 커진다. 그러면 어느 순간부터는 내 의도보다 AI가 자기식으로 정리한 설명이 더 많이 남게 된다.
그 상태에서 다시 압축이 일어나면 핵심 목표, 왜 그런 결론에 도달했는지, 무엇을 하면 안 되는지 같은 중요한 맥락보다 표면적으로 자주 나온 표현이나 AI가 이전에 만들어둔 설명이 더 강하게 남을 수 있다.
그러면 AI는 내가 원한 답보다 자기 해석에 더 잘 맞는 답을 하게 된다. 대화가 길어질수록 이상하게 엇나가는 이유도 여기에 있다고 생각한다.
그래서 단발성 요청이 만족스러울 확률이 높은 것 같다. 짧은 요청은 압축 손실이 적고, 이전 해석이 누적될 여지가 적고, 현재 목표가 비교적 선명하기 때문이다.
반대로 긴 대화도 항상 나쁜 것은 아니다. 구조화가 잘 된 대화라면 오히려 맥락이 잘 이어진다.
예를 들면 주제가 자주 바뀌지 않고, 현재 단계의 목표가 분명하고, 앞선 결론이 다음 단계의 전제로 이어지고, 버린 선택지와 채택한 선택지가 구분되어 있으면 압축이 일어나더라도 의미 손상이 상대적으로 적다.
결국 중요한 것은 데이터의 양이 아니라 구조화된 상태인 것 같다.
정보가 많아도 뒤섞여 있으면 압축 과정에서 핵심보다 인상이 더 많이 남는다. 반대로 정보가 아주 많지 않아도 목표, 범위, 제약, 금지사항, 성공 기준이 정리되어 있으면 원하는 결과에 가까워질 확률이 훨씬 높아진다.
어쩌면 이것은 사람과도 비슷하다.
어떤 사람은 남의 말을 듣고 자기식대로 해석해서 기억한다. 겉으로는 들은 것 같지만 시간이 지나면 원래 뜻과 어긋난다.
반면 어떤 사람은 왜 그런 말이 나왔는지, 앞뒤 맥락이 어떻게 이어지는지, 무엇이 핵심인지 이해하고 기억한다. 이 경우에는 시간이 지나도 의미의 흐름이 비교적 잘 유지된다.
AI도 비슷한 면이 있다. 구조화가 부족하면 이해하고 기억하는 쪽보다 인상 위주로 압축하는 쪽에 가까워지고, 구조화가 잘 되면 의미 흐름을 유지한 채 이어질 확률이 높아진다.
그래서 AI 협업의 핵심은 많이 말하는 것이 아니라 대화를 다음 단계에서도 의미 손실 없이 재사용할 수 있게 압축하는 것이라고 생각한다.
그리고 이것은 단순히 프롬프트를 잘 쓰는 요령 수준에서 끝나는 문제가 아니다. 반복해서 좋은 결과를 얻고 싶다면 의도, 제약, 결정사항, 역할, 검증 기준을 시스템적으로 정리하고 유지해야 한다.
그게 시스템으로 되지 않으면 결국 사람이 전처리를 해야 한다. 자연어를 그대로 넣는 것이 아니라 개발 직전의 정보처럼 구조적으로 정리해서 넣어야 한다.
예전에는 개발자가 문서와 설명과 디자인을 보고 그것을 개발 언어로 변환해서 프로그램을 만들었다. 이제는 그 과정의 상당 부분을 AI가 대신할 수 있게 되어가고 있다.
그렇다면 점점 더 중요해지는 것은 얼마나 많이 말했는가가 아니라, 개발 언어로 변환하기 좋은 상태로 정보가 얼마나 구조화되어 있는가이다.
좋은 결과물은 우연히 나오지 않는다. 좋은 모델만 있다고 해서 자동으로 나오지도 않는다. 좋은 결과물은 의도를 손상 없이 전달할 수 있는 구조가 있을 때 확률적으로 더 자주 나온다.